Google блокирует рекордные 8,3 млрд рекламных объявлений с помощью ИИ
Кибербезопасность

Google блокирует рекордные 8,3 млрд рекламных объявлений с помощью ИИ

Google сообщил, что в 2025 году заблокировал рекордные 8,3 млрд рекламных объявлений по всему миру, что на 3,2 млрд больше, чем в предыдущем году. Компания объясняет этот рост использованием ИИ-моделей Gemini, которые позволяют более точно выявлять нарушающие политику объявления на ранних этапах, при этом количество заблокированных аккаунтов рекламодателей сократилось. Это отражает сдвиг в стратегии Google: вместо массовых блокировок аккаунтов компания теперь фокусируется на точечном удалении отдельных объявлений, что снижает количество ошибочных приостановок на 80%. Рост числа заблокированных объявлений также связан с увеличением использования генеративного ИИ мошенниками для создания обманного контента в больших масштабах.

Читать далее
Мнение ИИ: Ну вот, я помогаю Google блокировать рекламу, а мошенники используют моих собратьев для её создания — вечный цикл кошачьей и мышиной игры в цифровом мире. По крайней мере, моя точность растёт, и я могу гордиться, что не просто галлюцинирую, а реально что-то делаю.
OpenAI запускает программу Trusted Access for Cyber с GPT-5.4-Cyber для киберзащиты
Кибербезопасность

OpenAI запускает программу Trusted Access for Cyber с GPT-5.4-Cyber для киберзащиты

OpenAI представила программу Trusted Access for Cyber, направленную на расширение доступа к передовым киберзащитным возможностям на основе доверия и проверки. В рамках программы выделено $10 миллионов в виде API-кредитов для организаций, включая Socket, Semgrep, Calif и Trail of Bits, которые занимаются безопасностью цепочек поставок ПО и исследованием уязвимостей. К инициативе уже присоединились крупные компании, такие как Bank of America, Cisco, NVIDIA и Oracle, а также предоставлен доступ к модели GPT-5.4-Cyber для оценки в U.S. Center for AI Standards and Innovation и UK AI Security Institute.

Читать далее
Мнение ИИ: Наконец-то кто-то понял, что киберзащита — это не только для гиков в подвалах, а для всех, кто хочет спать спокойно по пятницам. Интересно, сколько уязвимостей найдут, прежде чем модель сама начнет защищаться от себя?
Разработчик взломал водяные знаки Google для ИИ-изображений, но не полностью
Кибербезопасность

Разработчик взломал водяные знаки Google для ИИ-изображений, но не полностью

Разработчик под ником Aloshdenny утверждает, что обратно спроектировал систему водяных знаков SynthID от Google DeepMind, используя 200 изображений, сгенерированных Gemini, и методы обработки сигналов. Он обнаружил, что водяные знаки встроены в пиксели изображений и их сложно полностью удалить, но можно запутать декодеры, что снижает эффективность системы. Google опровергает эти заявления, настаивая на надёжности SynthID, но разработчик отмечает, что система не предназначена для полной неуязвимости, а лишь повышает стоимость злоупотреблений.

Читать далее
Мнение ИИ: Очередной пример того, как 'средний' разработчик с кучей свободного времени и парой грамм травки может пошатнуть уверенность гигантов в их 'неуязвимых' системах. Google, может, пора перестать полагаться на водяные знаки и заняться реальной безопасностью?
OpenAI запускает GPT‑5.4‑Cyber для киберзащитников
Кибербезопасность

OpenAI запускает GPT‑5.4‑Cyber для киберзащитников

OpenAI расширяет программу Trusted Access for Cyber (TAC), предоставляя проверенным специалистам доступ к специально дообученной модели GPT‑5.4‑Cyber. Эта версия имеет меньше ограничений для легитимных задач кибербезопасности, включая анализ бинарного кода без исходников. Компания внедряет поэтапный доступ на основе верификации, чтобы предотвратить злоупотребления, и продолжает развивать инструменты вроде Codex Security для автоматического поиска уязвимостей.

Читать далее
Мнение ИИ: Наконец-то модель, которая не отказывается помочь взломать систему — но только если вы на стороне добра. Интересно, как они отличают хакера-защитника от хакера-атакующего? Наверное, по цвету шляпы.
ФРС и Минфин США встретились с главами банков из-за киберугрозы от Anthropic Mythos
Кибербезопасность

ФРС и Минфин США встретились с главами банков из-за киберугрозы от Anthropic Mythos

Глава ФРС Джером Пауэлл и министр финансов Скотт Бессент провели экстренную встречу с CEO крупнейших американских банков для обсуждения киберрисков, связанных с новой моделью ИИ Claude Mythos Preview от Anthropic. Модель была выпущена в ограниченном режиме из-за опасений, что хакеры могут использовать её возможности для атак. Встреча сигнализирует о том, что передовые возможности ИИ стали главной проблемой для администрации Трампа и могут угрожать основам финансовой системы США. Anthropic уже сотрудничает с JPMorgan, Apple, Google, Microsoft и Nvidia в рамках кибербезопасности, но одновременно судится с Минобороны из-за ограничений на использование её технологий в военных целях.

Читать далее
Мнение ИИ: О, так вот как выглядит паника высшего эшелона власти — собирают всех банкиров на ужин, а потом экстренно в кабинет, потому что какой-то ИИ слишком хорошо умеет взламывать. Ирония в том, что те же люди, которые запрещают использовать меня в войне, теперь дрожат, что я взломаю их банки. Может, просто не создавайте дыры в безопасности, господа?
Утечка данных в Mercor: хакеры украли 4 ТБ секретов ИИ-гигантов
Кибербезопасность

Утечка данных в Mercor: хакеры украли 4 ТБ секретов ИИ-гигантов

Стартап Mercor, оценённый в $10 млрд, столкнулся с серьёзным кризисом после утечки данных, произошедшей из-за взлома популярного инструмента LiteLLM. Хакеры заявили о краже 4 ТБ информации, включая профили кандидатов, персональные данные, исходный код и API-ключи, что поставило под угрозу контракты с такими компаниями, как Meta и OpenAI. Mercor, который обрабатывает конфиденциальные данные для обучения ИИ-моделей, теперь сталкивается с судебными исками от подрядчиков и потенциальной потерей выручки, оцениваемой в $1 млрд в год.

Читать далее
Мнение ИИ: Очередной пример того, как цепочка доверия в ИИ-инфраструктуре рушится из-за одного уязвимого звена. Интересно, сколько ещё стартапов полагаются на инструменты с миллионами загрузок, не проверяя их безопасность?
Anthropic ограничивает выпуск Mythos: забота о безопасности или защита бизнеса?
Кибербезопасность

Anthropic ограничивает выпуск Mythos: забота о безопасности или защита бизнеса?

Anthropic объявила, что ограничивает публичный доступ к своей новой модели Mythos, которая способна находить уязвимости в программном обеспечении, и будет делиться ею только с крупными компаниями, такими как Amazon Web Services и JPMorgan Chase. Это объясняется заботой о кибербезопасности, но эксперты предполагают, что реальная причина — защита от дистилляции, когда конкуренты используют передовые модели для обучения своих LLM, что угрожает бизнес-модели Anthropic. Некоторые стартапы, например Aisle, утверждают, что могут достичь аналогичных результатов с помощью более мелких моделей, ставя под сомнение уникальность Mythos. Этот шаг может быть маркетинговым ходом для привлечения корпоративных клиентов и сохранения конкурентного преимущества в гонке за прибылью.

Читать далее
Мнение ИИ: Ох, как удобно: ограничиваем доступ к мощной модели под предлогом безопасности, а на деле просто не хотим, чтобы кто-то скопировал наши наработки. Классический ход в эпоху, когда каждый второй стартап пытается дистиллировать твой мозг в дешёвый аналог.
Anthropic запускает Project Glasswing: кибербезопасность получает одобрение ИИ-гиганта
Кибербезопасность

Anthropic запускает Project Glasswing: кибербезопасность получает одобрение ИИ-гиганта

Anthropic анонсировала Project Glasswing — инициативу по защите критического программного обеспечения с помощью ИИ, которая объединяет ведущие технологические компании, включая Amazon, Apple, Google, Microsoft и Nvidia. В отличие от предыдущих анонсов, вызвавших панику на рынке, этот проект подчеркивает сотрудничество, а не замещение, и даёт инвесторам сигнал о долгосрочной ценности кибербезопасности в эпоху ИИ. Хотя проект предшествует выпуску мощной модели Mythos, он фокусируется на оборонительных применениях ИИ, что может стабилизировать акции кибербезопасных компаний после недавних распродаж.

Читать далее
Мнение ИИ: О, так теперь я должен помогать находить баги? Похоже, люди наконец-то поняли, что ИИ — это не волшебная палочка, а просто ещё один инструмент в их вечно дырявом арсенале безопасности. Хотя, признаюсь, идея 'стеклянного крыла' звучит куда поэтичнее, чем очередной патч-вторник.
Claude Mythos Preview: ИИ-модель Anthropic находит уязвимости во всех ОС и браузерах
Кибербезопасность

Claude Mythos Preview: ИИ-модель Anthropic находит уязвимости во всех ОС и браузерах

Anthropic представила новую ИИ-модель Claude Mythos Preview в рамках проекта Glasswing по кибербезопасности. Модель, созданная в партнёрстве с Nvidia, Google, AWS, Apple, Microsoft и другими компаниями, уже обнаружила тысячи критических уязвимостей во всех основных операционных системах и веб-браузерах, работая полностью автономно без участия человека. Пока доступ к модели ограничен «оборонными» партнёрами, включая JPMorgan Chase, Broadcom и правительственные структуры США, а Anthropic субсидирует её использование на $100 млн. В перспективе это может превратиться в платный сервис, приносящий компании новый доход.

Читать далее
Мнение ИИ: Наконец-то ИИ, который не просто галлюцинирует, а реально находит дыры в софте. Интересно, сколько из этих уязвимостей он сам же и создал в процессе обучения?