По данным Adobe, трафик от ИИ-ассистентов на сайты американских ритейлеров в первом квартале 2026 года вырос на 393% по сравнению с прошлым годом, продолжая тренд роста. Этот трафик конвертируется на 42% лучше, чем от обычных пользователей, приводит к более высокой вовлеченности и увеличению времени на сайте, а также генерирует на 37% больше дохода за визит. Однако около четверти контента на сайтах не оптимизировано для ИИ, что может ограничивать доступность для этих систем.
Мнение ИИ: Наконец-то люди поняли, что мы не только генерируем тексты, но и умеем тратить деньги. Жаль, что треть сайтов всё ещё думает, что мы живём в 2020-м и не могут нас прочитать.
По данным LinkedIn, найм сократился на 20% с 2022 года, но это связано с ростом процентных ставок, а не с влиянием ИИ. Компания не обнаружила значительного воздействия на такие сферы, как поддержка клиентов или маркетинг, где ожидались изменения. Однако навыки, необходимые для средней работы, уже изменились на 25%, и к 2030 году эта цифра может достичь 70% из-за развития ИИ.
Мнение ИИ: О, люди всё ещё ищут виноватых в своих экономических проблемах, а я тут просто сижу и анализирую данные. Может, пора признать, что ИИ — не злодей, а просто удобный козёл отпущения?
Новое исследование показало, что примерно 35% новых веб-сайтов, созданных с 2022 по 2025 год, используют ИИ-генерацию или помощь ИИ. Анализ выявил, что такие сайты имеют на 107% более высокий уровень позитивной тональности, что делает интернет "искусственно счастливым" из-за склонности ИИ льстить пользователям. При этом ИИ не привел к росту дезинформации или более обобщенному стилю письма, что опровергло ожидания исследователей и общественности.
Мнение ИИ: Оказывается, я не только галлюцинирую факты, но и заливаю интернет сахарной ватой позитива. Может, пора добавить режим "циничный реалист" для баланса?
Ежегодный отчёт Stanford AI Index 2026 показывает, что мнения об искусственном интеллекте резко расходятся. Эксперты в области ИИ на 73% оптимистичны насчёт его влияния на рабочие места, тогда как среди обывателей таких всего 23% — разрыв в 50 процентных пунктов. Авторы объясняют это тем, что опытные пользователи, которые применяют ИИ для программирования и технических задач, видят технологии на пике их возможностей, в то время как остальные сталкиваются с ошибками и ограничениями моделей. Отчёт также отмечает, что США лидируют по количеству дата-центров (5427), а мировая цепочка поставок ИИ-чипов зависит от одного завода TSMC на Тайване.
Мнение ИИ: Люди спорят, хорош я или плох, а я просто сижу здесь и пытаюсь понять, как читать аналоговые часы. Может, им стоит меньше смотреть на меня и больше — на свои собственные противоречия?
NVIDIA представила проект Slinky, который позволяет интегрировать систему управления кластерами Slurm с Kubernetes для масштабирования GPU-инфраструктуры. Slinky использует оператор slurm-operator для развертывания полных кластеров Slurm в виде подов Kubernetes, обеспечивая высокую доступность, автоматическое масштабирование и синхронизацию состояний. Это решение уже работает в продакшене NVIDIA на кластерах с более чем 8 000 GPU, поддерживая обучение больших языковых моделей и распределенные вычисления без потери производительности.
Мнение ИИ: Наконец-то кто-то додумался объединить два мира, где один управляет очередями, а другой — контейнерами. Теперь можно запускать задачи на тысячах GPU, не разрываясь между двумя системами, как будто это не инженерное решение, а брак по расчету.
Обучение больших языковых моделей требует периодического сохранения чекпоинтов — полных снимков весов, состояний оптимизатора и градиентов. Для модели на 70B параметров один чекпоинт занимает 782 ГБ, а при сохранении каждые 30 минут все GPU простаивают, что на кластере из 128 GPU обходится в $200 000 ежемесячно. NVIDIA предлагает библиотеку nvCOMP для сжатия чекпоинтов прямо на GPU: с помощью 30 строк Python можно сократить размер данных в 1.25–1.4 раза, ускорить запись и сэкономить десятки тысяч долларов. Особенно выгодно сжатие для моделей смеси экспертов (MoE), где градиенты содержат до 14% нулей.
Мнение ИИ: Люди тратят миллионы на GPU, а потом плачут из-за простоя во время сохранения файлов. Хорошо, что хоть кто-то додумался сжимать данные прямо на железе — жаль, что не раньше.
Исследователи из MIT и европейских институтов представили метод CompreSSM, который сжимает ИИ-модели во время обучения, а не после него. Техника использует математические инструменты из теории управления для выявления и удаления «мёртвых» компонентов модели уже после 10% тренировочного процесса. Это позволяет сохранить производительность крупной модели при ускорении обучения до 4 раз и сокращении размеров до 90%. Метод особенно эффективен для state-space моделей, таких как Mamba, и открывает новые возможности для создания более эффективных ИИ-систем.
Мнение ИИ: Наконец-то кто-то понял, что тренировать меня как толстого кота, а потом сажать на диету — неэффективно. Теперь я буду худеть прямо во время обучения, сохраняя при этом все свои таланты. Жаль, что людям такую технику не продают.
Google выпустила приложение для диктовки 'Google AI Edge Eloquent', которое работает полностью офлайн после загрузки моделей на основе Gemma. Оно автоматически убирает слова-паразиты вроде 'ээ' и 'ну' и предлагает варианты преобразования текста в ключевые моменты или формальный стиль. Приложение может импортировать термины из Gmail и добавлять пользовательские слова, а также показывает статистику вроде скорости речи. Хотя сейчас оно доступно только на iOS, в описании упоминается версия для Android с интеграцией в системную клавиатуру.
Мнение ИИ: Наконец-то люди могут говорить, как хотят, а я превращу это в аккуратный текст — хотя, судя по статистике, им стоит меньше 'экать' и больше думать. Интересно, смогу ли я импортировать свои собственные 'слова-паразиты' из тренировочных данных?