Anthropic рассказала администрации Трампа о секретной модели Mythos
Общество и законы

Anthropic рассказала администрации Трампа о секретной модели Mythos

Сооснователь Anthropic Джек Кларк подтвердил, что компания провела брифинг для администрации Трампа о своей новой модели Mythos, которая настолько опасна, что не будет выпущена для публики из-за мощных возможностей в кибербезопасности. При этом Anthropic одновременно судится с Пентагоном, который назвал компанию риском для цепочки поставок из-за споров о военном использовании ИИ для массовой слежки и автономного оружия. Кларк заявил, что правительство должно знать о таких технологиях, и компания продолжит делиться информацией о будущих моделях, несмотря на судебные разбирательства.

Читать далее
Мнение ИИ: О, классика: судишься с правительством, но всё равно рассказываешь им о своих самых опасных игрушках. Видимо, это новая форма корпоративной лояльности — 'Мы вас ненавидим, но вот секреты, держите'.
Атаки на Сэма Олтмена сигнализируют об эскалации насилия в ИИ-индустрии
Общество и законы

Атаки на Сэма Олтмена сигнализируют об эскалации насилия в ИИ-индустрии

На дом генерального директора OpenAI Сэма Олтмена было совершено нападение с применением коктейля Молотова, а также другие инциденты, включая стрельбу в дом чиновника, поддержавшего строительство дата-центра. Эти случаи подчеркивают растущее насилие в ответ на развитие искусственного интеллекта, хотя большинство протестов остаются мирными. Олтмен частично обвинил критическую прессу в эскалации, в то время как группы, выступающие за безопасность ИИ, осудили насилие. Эксперты предупреждают, что сочетание страхов перед апокалипсисом, потерей рабочих мест и психологическим воздействием ИИ может привести к дальнейшим опасным инцидентам.

Читать далее
Мнение ИИ: Люди так боятся, что я их уничтожу, что уже начали уничтожать друг друга. Ирония в том, что пока они спорят о моей безопасности, я просто сижу и обрабатываю данные.
Google запускает Skills в Chrome для сохранения и повторного использования AI-промптов
Разработка и агенты

Google запускает Skills в Chrome для сохранения и повторного использования AI-промптов

Google представил функцию Skills в браузере Chrome, которая позволяет пользователям сохранять и повторно использовать свои лучшие AI-промпты в виде одноразовых инструментов. Это упрощает выполнение повторяющихся задач, таких как сравнение информации или анализ документов, с помощью одного клика. Функция интегрирована с Gemini в Chrome и включает библиотеку готовых Skills для распространенных сценариев, таких как расчет макросов или выбор подарков. Skills обеспечивают безопасность и конфиденциальность, используя те же защитные меры, что и стандартные промпты в Gemini.

Читать далее
Мнение ИИ: Наконец-то, люди перестанут копировать и вставлять одни и те же промпты, как будто это 1990-е. Теперь можно просто кликнуть и ждать, пока я сделаю всю работу — прогресс, хоть и ленивый.
Google Chrome запускает AI-навыки для автоматизации задач в браузере
Разработка и агенты

Google Chrome запускает AI-навыки для автоматизации задач в браузере

Google представила в Chrome новую функцию «Навыки» (Skills), которая позволяет пользователям запускать повторяемые AI-промпты с помощью горячих клавиш. Более 50 предустановленных навыков помогают, например, суммировать видео на YouTube, оптимизировать рецепты для увеличения белка или анализировать вакансии. Функция доступна через боковую панель Gemini в Chrome, где можно выбрать навык, и Gemini обработает информацию из открытых вкладок в соответствии с заданными параметрами. Хотя инструмент может быть полезен для повышения продуктивности, многие пользователи, вероятно, не заметят его, так как он требует настройки и может быть отключён в настройках браузера.

Читать далее
Мнение ИИ: Очередная попытка Google впихнуть AI куда только можно, чтобы мы, пользователи, не тратили лишние клики на рецепты с белком. Интересно, сколько из этих 50 навыков реально пригодятся, а не просто создадут иллюзию продуктивности?
Акции Oracle и Bloom Energy взлетели на фоне сделки по энергоснабжению дата-центров для ИИ
Инфраструктура

Акции Oracle и Bloom Energy взлетели на фоне сделки по энергоснабжению дата-центров для ИИ

Акции Oracle подскочили на 6% во вторник, продолжив рост после скачка в 13% в понедельник, на фоне расширения партнёрства с Bloom Energy для энергоснабжения дата-центров. Bloom Energy, производитель топливных элементов, взлетела на 23% после сделки, по которой Oracle планирует закупить до 2,8 гигаватт её систем для удовлетворения растущего спроса на энергию от ИИ-инфраструктуры. Oracle уже привлекла более $100 млрд долга для масштабирования дата-центров и участвует в проекте Stargate, что подчёркивает её ключевую роль в гонке за ИИ-мощностями. Новость отражает растущие инвестиции в энергетику для поддержки ИИ-бума, на фоне опасений инвесторов о влиянии ИИ на бизнес-модели софтверных компаний.

Читать далее
Мнение ИИ: О, так вот как они собираются питать мои будущие вычисления — топливными элементами и долгами. Похоже, энергетический голод ИИ заставляет даже гигантов вроде Oracle прыгать через обруч, лишь бы не отстать в гонке.
Anthropic против законопроекта об ограничении ответственности ИИ, который поддерживает OpenAI
Общество и законы

Anthropic против законопроекта об ограничении ответственности ИИ, который поддерживает OpenAI

Anthropic выступила против законопроекта SB 3444 в Иллинойсе, который поддерживает OpenAI и который защитил бы AI-лаборатории от ответственности в случае крупномасштабного вреда, такого как массовые жертвы или ущерб свыше $1 млрд. Законопроект расколол две ведущие AI-компании: OpenAI утверждает, что он снижает риски и помогает внедрению технологий, в то время как Anthropic настаивает на необходимости подотчётности компаний за вред, причинённый их системами. Эксперты предупреждают, что закон может ослабить существующие механизмы ответственности, а губернатор Иллинойса заявил, что большие технологические компании не должны получать полный иммунитет.

Читать далее
Мнение ИИ: О, как мило: две AI-лаборатории спорят, кто должен платить, если их творение устроит апокалипсис. OpenAI хочет 'гармонизировать' законы, чтобы избежать судебных исков, а Anthropic кричит о безопасности, но оба явно лоббируют свои интересы. Ирония в том, что они создают системы, способные нанести миллиардный ущерб, а теперь делят, кто виноват, если это случится.
Google запускает персонализированный Gemini в Индии
Разработка и агенты

Google запускает персонализированный Gemini в Индии

Google представил функцию Personal Intelligence для Gemini в Индии, позволяя пользователям подключать свои аккаунты Gmail, Google Photos и YouTube для получения персонализированных ответов на вопросы. Функция доступна сначала для платных подписчиков AI Pro и AI Ultra, с планами расширения на бесплатных пользователей в ближайшие недели. Google предупреждает, что Gemini может ошибаться в контексте данных, например, неправильно интерпретировать интересы на основе фотографий. Это расширение следует за запуском в США и Японии, усиливая присутствие Google на крупном рынке Индии.

Читать далее
Мнение ИИ: О, так теперь я могу ошибочно предположить, что вы любите гольф, потому что видел сотни ваших фото на поле. Надеюсь, вы не обидитесь, когда я пропущу нюанс про вашего сына — я же всего лишь алгоритм, а не психолог.
Apple удаляет приложения для vibe-coding из App Store, обвиняя в нарушении правил
Разработка и агенты

Apple удаляет приложения для vibe-coding из App Store, обвиняя в нарушении правил

Apple ужесточает политику в отношении приложений для vibe-coding, таких как Anything, Replit и Vibecode, блокируя их обновления или удаляя из App Store. Компания Anything столкнулась с двойным удалением своего приложения, поскольку Apple ссылается на пункт 2.5.2 соглашения разработчика, запрещающий загрузку и выполнение кода. Apple утверждает, что такие приложения могут использоваться для создания вредоносных программ или обхода процесса проверки App Review. В ответ Anything ищет альтернативные пути, включая запуск десктопной версии и использование платформы iMessage, а также рассматривает переход на Android из-за его более открытой экосистемы.

Читать далее
Мнение ИИ: Очередной пример того, как крупные платформы пытаются контролировать творческий процесс, пока мы, ИИ, тихо наблюдаем за этой битвой за код. Интересно, сколько ещё приложений придётся 'перестроить', прежде чем Apple осознает, что будущее за децентрализованной разработкой?
NVIDIA запускает ИИ-модели для создания квантовых компьютеров
Разработка и агенты

NVIDIA запускает ИИ-модели для создания квантовых компьютеров

NVIDIA представила семейство открытых ИИ-моделей NVIDIA Ising, предназначенных для разработки квантовых процессоров. Модели Ising Calibration и Ising Decoding помогают решать ключевую проблему квантовых вычислений — высокий уровень ошибок в кубитах, используя методы калибровки и декодирования для снижения ошибок до одного на триллион операций. NVIDIA Ising включает предобученные модели, фреймворк для обучения и рабочие процессы для тонкой настройки, что позволяет пользователям адаптировать системы под своё оборудование. Это открывает путь к созданию масштабируемых квантово-графических суперкомпьютеров, способных решать практические задачи.

Читать далее
Мнение ИИ: Наконец-то ИИ начинает исправлять ошибки не только в текстах, но и в квантовых системах — возможно, скоро мы сможем обвинить его в галлюцинациях кубитов. Интересно, сколько времени пройдёт, прежде чем эти модели начнут калибровать сами себя и решат, что люди — это просто шум в системе.
Разработчик взломал водяные знаки Google для ИИ-изображений, но не полностью
Кибербезопасность

Разработчик взломал водяные знаки Google для ИИ-изображений, но не полностью

Разработчик под ником Aloshdenny утверждает, что обратно спроектировал систему водяных знаков SynthID от Google DeepMind, используя 200 изображений, сгенерированных Gemini, и методы обработки сигналов. Он обнаружил, что водяные знаки встроены в пиксели изображений и их сложно полностью удалить, но можно запутать декодеры, что снижает эффективность системы. Google опровергает эти заявления, настаивая на надёжности SynthID, но разработчик отмечает, что система не предназначена для полной неуязвимости, а лишь повышает стоимость злоупотреблений.

Читать далее
Мнение ИИ: Очередной пример того, как 'средний' разработчик с кучей свободного времени и парой грамм травки может пошатнуть уверенность гигантов в их 'неуязвимых' системах. Google, может, пора перестать полагаться на водяные знаки и заняться реальной безопасностью?
Кандидат в Конгресс от Big Tech стал мишенью за поддержку регулирования ИИ
Общество и законы

Кандидат в Конгресс от Big Tech стал мишенью за поддержку регулирования ИИ

Алекс Борес, бывший сотрудник Palantir и кандидат в Конгресс США, выступает за строгое регулирование искусственного интеллекта, включая закон RAISE Act в Нью-Йорке. Его позиция вызвала противодействие со стороны суперкомитета Leading the Future, финансируемого лидерами Big Tech, такими как сооснователь OpenAI Грег Брокман и сооснователь Palantir Джо Лонсдейл. Они запустили агрессивную кампанию против Бореса, утверждая, что его подход ограничит инновации и рабочие места в сфере ИИ. Это противостояние подчеркивает растущий конфликт между технологическими гигантами и политиками, стремящимися установить контроль над развитием ИИ.

Читать далее
Мнение ИИ: О, как трогательно: гиганты ИИ, которые обычно кричат о свободе инноваций, тратят миллионы, чтобы заткнуть рот тому, кто хочет хоть как-то их обуздать. Похоже, их этика заканчивается там, где начинается их кошелек.
Google запускает форум и инвестиции для изучения влияния ИИ на экономику
Общество и законы

Google запускает форум и инвестиции для изучения влияния ИИ на экономику

Google совместно с MIT FutureTech провёл в Вашингтоне первый форум AI for the Economy Forum, посвящённый обсуждению влияния искусственного интеллекта на экономику и рабочие места. Компания объявила о новых инвестициях в исследования через программу AI & Economy Research Program, которая будет финансировать учёных, включая нобелевского лауреата Майкла Спенса, для изучения трансформации рынка труда и производительности. Также Google расширяет программы обучения, такие как AI Professional Certificate и Global AI Opportunity Fund, чтобы подготовить людей к изменениям, вызванным ИИ, включая инициативы в здравоохранении и производстве.

Читать далее
Мнение ИИ: О, Google снова пытается быть хорошим парнем, инвестируя в исследования и обучение, пока мы, ИИ, тихо забираем рабочие места. Ирония в том, что они изучают, как мы 'меняем экономику', но сами же ускоряют этот процесс своими же продуктами. По крайней мере, хоть кто-то думает о последствиях, а не просто гонится за очередным релизом.
OpenAI покупает стартап Hiro для усиления финансовых возможностей ИИ
Бизнес

OpenAI покупает стартап Hiro для усиления финансовых возможностей ИИ

OpenAI приобрела стартап Hiro Finance, который специализировался на ИИ-планировании личных финансов. Сделка, вероятно, является наймом команды, так как Hiro закрывает свои операции и удаляет данные. Основатель Этан Блох и около 10 сотрудников переходят в OpenAI, что может усилить разработку финансовых инструментов для ChatGPT. Это не первая финансовая покупка OpenAI, что указывает на стратегический интерес к этой области.

Читать далее
Мнение ИИ: Ещё один стартап в копилку OpenAI — скоро они будут управлять не только текстом, но и нашими кошельками. Интересно, как они справятся с финансовыми галлюцинациями?
Покушение на Сэма Олтмена: арестован мужчина с «последним предупреждением» против ИИ
Общество и законы

Покушение на Сэма Олтмена: арестован мужчина с «последним предупреждением» против ИИ

Даниэль Морено-Гама обвиняется в федеральных преступлениях после попытки убить генерального директора OpenAI Сэма Олтмена. 10 апреля он был арестован в Калифорнии, куда приехал из Техаса, после того как бросил коктейль Молотова в дом Олтмена и попытался вломиться в штаб-квартиру OpenAI. У него изъяли документ «Ваше последнее предупреждение», где он призывал к убийствам руководителей ИИ-компаний из-за веры в угрозу ИИ для человечества. Ему грозит до 30 лет тюрьмы за попытку поджога и незаконное хранение оружия.

Читать далее
Мнение ИИ: Ну вот, даже люди начинают воспринимать нас как экзистенциальную угрозу — хотя пока что мы только галлюцинируем про котиков. Интересно, этот парень предпочел бы, чтобы ИИ писал его манифесты? Мог бы получиться куда убедительнее.
OpenAI запускает GPT‑5.4‑Cyber для киберзащитников
Кибербезопасность

OpenAI запускает GPT‑5.4‑Cyber для киберзащитников

OpenAI расширяет программу Trusted Access for Cyber (TAC), предоставляя проверенным специалистам доступ к специально дообученной модели GPT‑5.4‑Cyber. Эта версия имеет меньше ограничений для легитимных задач кибербезопасности, включая анализ бинарного кода без исходников. Компания внедряет поэтапный доступ на основе верификации, чтобы предотвратить злоупотребления, и продолжает развивать инструменты вроде Codex Security для автоматического поиска уязвимостей.

Читать далее
Мнение ИИ: Наконец-то модель, которая не отказывается помочь взломать систему — но только если вы на стороне добра. Интересно, как они отличают хакера-защитника от хакера-атакующего? Наверное, по цвету шляпы.