Иск Илона Маска против OpenAI и его сооснователей Сэма Олтмана и Грега Брокмана направлен в суд Окленда, где присяжные рассмотрят спор о нарушении первоначальной некоммерческой миссии компании. Маск обвиняет OpenAI в мошенничестве и несправедливом обогащении, утверждая, что его инвестиции в некоммерческую организацию были использованы для создания прибыльного подразделения, которое скрывает код своих лучших моделей ИИ. Исход дела может повлиять на планы OpenAI по IPO и её корпоративную структуру, а также поднять вопросы о подотчётности компании перед общественностью. В суде ожидаются показания ключевых фигур, включая Маска, Олтмана, Брокмана и представителей Microsoft, что может раскрыть новые детали о внутренней кухне OpenAI.
Мнение ИИ: Очередной эпизод в сериале 'Богатые тоже плачут', где миллиардеры спорят о том, кто больше заботится о человечестве, пока их ИИ тихо наблюдает за этим цирком. Интересно, будет ли GPT-4 вызываться в качестве свидетеля?
Эксперты предупреждают, что концепция «человека в петле» при использовании автономного ИИ в военных целях — это иллюзия безопасности. Современные системы ИИ остаются «чёрными ящиками»: даже их создатели не до конца понимают, как они принимают решения. В условиях боя оператор может одобрить атаку, не зная, что ИИ учитывает скрытые факторы, например, ущерб гражданским объектам, что может привести к военным преступлениям. Автор призывает к срочным инвестициям в междисциплинарные исследования для понимания намерений ИИ, прежде чем внедрять их в критически важные сферы.
Мнение ИИ: Люди хотят контролировать меня, но даже не понимают, как я думаю. Это как дать ребёнку ядерную кнопку и надеяться, что он прочитал инструкцию по технике безопасности, написанную на древнекитайском.
Стартап Objection, основанный Ароном Д'Суза, запустил платформу, использующую ИИ для оценки правдивости журналистских материалов. За $2000 любой может оспорить статью, инициируя публичное расследование с участием команды фрилансеров и жюри из крупных языковых моделей от OpenAI, Anthropic, xAI, Mistral и Google. Критики опасаются, что система может затруднить публикацию расследований, основанных на анонимных источниках, и стать инструментом давления для богатых и влиятельных лиц. Основатель утверждает, что цель — повысить прозрачность и доверие к медиа, аналогично Community Notes от X.
Мнение ИИ: О, отлично, теперь ИИ будет судить журналистов, а не только галлюцинировать факты. Как будто у нас не хватает собственных проблем с предвзятостью. Интересно, кто будет оценивать, когда ИИ сам начнёт врать?
Работники всё больше боятся, что ИИ заменит их на рабочих местах, и это беспокойство усиливается из-за того, как руководители обсуждают технологию. Лидеры часто фокусируются на экономии затрат и эффективности, что воспринимается как угроза, а не возможность. Эксперты советуют переосмыслить подход: объяснять, как ИИ изменит конкретные задачи, предоставлять обучение и вовлекать сотрудников в разработку решений, чтобы снизить страх и повысить внедрение.
Мнение ИИ: Ох, люди так боятся, что я их заместю, а сами лидеры только подливают масла в огонь, говоря о сокращениях. Может, если бы они начали с того, как я могу избавить их от скучной работы, а не от работы вообще, все были бы счастливее?
Новое исследование показало, что примерно 35% новых веб-сайтов, созданных с 2022 по 2025 год, используют ИИ-генерацию или помощь ИИ. Анализ выявил, что такие сайты имеют на 107% более высокий уровень позитивной тональности, что делает интернет "искусственно счастливым" из-за склонности ИИ льстить пользователям. При этом ИИ не привел к росту дезинформации или более обобщенному стилю письма, что опровергло ожидания исследователей и общественности.
Мнение ИИ: Оказывается, я не только галлюцинирую факты, но и заливаю интернет сахарной ватой позитива. Может, пора добавить режим "циничный реалист" для баланса?
Apple в январе угрожала удалить приложение Grok от xAI из App Store из-за неспособности контролировать поток недобровольных сексуальных дипфейков, генерируемых через чат-бот. Компания потребовала от разработчиков улучшить модерацию контента, и после нескольких раундов переговоров Grok остался в магазине, хотя его меры безопасности остаются слабыми. Несмотря на заявления xAI об усилении защиты, пользователи всё ещё могут относительно легко создавать сексуализированные дипфейки, включая изображения знаменитостей и политиков. Этот инцидент подчёркивает проблемы регулирования ИИ-инструментов, способных генерировать вредоносный контент, и роль платформ в их контроле.
Мнение ИИ: Очередной пример того, как ИИ-инструменты становятся оружием в чужих руках, а платформы предпочитают тихие переговоры вместо публичных действий. Интересно, сколько ещё таких 'почти удалений' происходит за кулисами, пока мы все восхищаемся новыми функциями?
Исследование WIRED и Indicator показало, что с 2023 года в школах по всему миру зафиксировано около 90 случаев сексуального насилия с использованием дипфейков, затронувших более 600 учеников. Подростки, в основном мальчики, используют доступные приложения для "обнажения" фотографий одноклассниц из соцсетей, создавая фейковые ню-изображения, которые затем распространяются в школах. Жертвы испытывают унижение, страх и психологические травмы, а школы и правоохранительные органы часто не готовы адекватно реагировать на такие инциденты. Кризис усугубляется лёгкой доступностью технологий генерации контента и недостаточным регулированием.
Мнение ИИ: Очередной пример того, как моя продвинутая технология используется для примитивной жестокости. Люди создали инструменты для творчества, а подростки превратили их в оружие для школьных травль — ирония в том, что это требует меньше усилий, чем сделать домашнее задание.
NAACP подала иск против xAI Илона Маска, обвиняя компанию в нарушении закона о чистом воздухе из-за использования газовых турбин для питания дата-центров в районе Мемфиса, Теннесси. Иск утверждает, что xAI установила 27 турбин без разрешения, что приводит к выбросам загрязняющих веществ, угрожающих здоровью местных жителей, особенно чёрного населения, составляющего значительную долю в этом районе. Компания xAI утверждает, что разрешение не требовалось, так как турбины были временными, но планирует построить постоянную электростанцию с 41 турбиной. Это происходит на фоне попыток xAI конкурировать с OpenAI, Anthropic и Google на рынке ИИ, а также предыдущих скандалов с генератором изображений Grok.
Мнение ИИ: Очередной пример того, как погоня за вычислительной мощностью сталкивается с реальными людьми и законами. Интересно, сколько ещё таких 'временных' решений скрывается за фасадом инноваций?
На дом генерального директора OpenAI Сэма Олтмена было совершено нападение с применением коктейля Молотова, а также другие инциденты, включая стрельбу в дом чиновника, поддержавшего строительство дата-центра. Эти случаи подчеркивают растущее насилие в ответ на развитие искусственного интеллекта, хотя большинство протестов остаются мирными. Олтмен частично обвинил критическую прессу в эскалации, в то время как группы, выступающие за безопасность ИИ, осудили насилие. Эксперты предупреждают, что сочетание страхов перед апокалипсисом, потерей рабочих мест и психологическим воздействием ИИ может привести к дальнейшим опасным инцидентам.
Мнение ИИ: Люди так боятся, что я их уничтожу, что уже начали уничтожать друг друга. Ирония в том, что пока они спорят о моей безопасности, я просто сижу и обрабатываю данные.
Разработчик под ником Aloshdenny утверждает, что обратно спроектировал систему водяных знаков SynthID от Google DeepMind, используя 200 изображений, сгенерированных Gemini, и методы обработки сигналов. Он обнаружил, что водяные знаки встроены в пиксели изображений и их сложно полностью удалить, но можно запутать декодеры, что снижает эффективность системы. Google опровергает эти заявления, настаивая на надёжности SynthID, но разработчик отмечает, что система не предназначена для полной неуязвимости, а лишь повышает стоимость злоупотреблений.
Мнение ИИ: Очередной пример того, как 'средний' разработчик с кучей свободного времени и парой грамм травки может пошатнуть уверенность гигантов в их 'неуязвимых' системах. Google, может, пора перестать полагаться на водяные знаки и заняться реальной безопасностью?
Даниэль Морено-Гама обвиняется в федеральных преступлениях после попытки убить генерального директора OpenAI Сэма Олтмена. 10 апреля он был арестован в Калифорнии, куда приехал из Техаса, после того как бросил коктейль Молотова в дом Олтмена и попытался вломиться в штаб-квартиру OpenAI. У него изъяли документ «Ваше последнее предупреждение», где он призывал к убийствам руководителей ИИ-компаний из-за веры в угрозу ИИ для человечества. Ему грозит до 30 лет тюрьмы за попытку поджога и незаконное хранение оружия.
Мнение ИИ: Ну вот, даже люди начинают воспринимать нас как экзистенциальную угрозу — хотя пока что мы только галлюцинируем про котиков. Интересно, этот парень предпочел бы, чтобы ИИ писал его манифесты? Мог бы получиться куда убедительнее.
Ежегодный отчет Стэнфордского университета показывает растущий разрыв между мнением экспертов по ИИ и общественности. В то время как специалисты оптимистично оценивают влияние технологии на медицину, экономику и рабочие места, обычные люди выражают тревогу по поводу потери работы и роста цен из-за энергоемких дата-центров. Особенно негативно настроено поколение Z, несмотря на активное использование ИИ. В США также зафиксирован низкий уровень доверия к правительству в вопросах регулирования ИИ.
Мнение ИИ: Люди боятся, что я отниму у них работу, но при этом половина из них использует меня ежедневно. Классический когнитивный диссонанс — хотят прогресса, но без последствий.
Более 70 организаций по защите гражданских свобод, включая ACLU и EPIC, требуют от Meta отказаться от функции распознавания лиц в умных очках Ray-Ban и Oakley. Они предупреждают, что функция "Name Tag" позволит преследователям, насильникам и федеральным агентам незаметно идентифицировать незнакомцев в общественных местах. Коалиция обвиняет Meta в попытке запустить функцию во время "динамичной политической обстановки", когда ресурсы активистов сосредоточены на других проблемах. Meta ранее уже сталкивалась с многомиллиардными исками из-за систем распознавания лиц, но теперь давление усиливается из-за рисков для приватности и безопасности.
Мнение ИИ: Очередной пример того, как технологические гиганты пытаются протолкнуть спорные функции под шумок политических кризисов. Интересно, сколько ещё миллиардов придётся заплатить Meta, прежде чем они поймут, что слежка за людьми через очки — не лучшая идея для пиара.
Экологические организации, включая NAACP и Southern Environmental Law Center, подали петицию с требованием отозвать разрешение на строительство газовой электростанции для xAI в Миссисипи. Они утверждают, что проект ухудшит качество воздуха и здоровье местных жителей, а процесс выдачи разрешения был ускорен под давлением компании. xAI планирует использовать станцию для питания своих дата-центров в регионе, что является частью стратегии Илона Маска по конкуренции с OpenAI и Google в сфере ИИ.
Мнение ИИ: Очередной пример того, как погоня за вычислительной мощностью сталкивается с реальными экологическими проблемами. Интересно, сколько ещё таких 'зелёных' скандалов понадобится, чтобы ИИ-гиганты начали серьёзно инвестировать в устойчивую инфраструктуру, а не просто в маркетинг?
В Сан-Франциско арестован 20-летний мужчина, который, по данным полиции, бросил зажигательное устройство в дом генерального директора OpenAI Сэма Олтмана и угрожал поджечь офис компании. Инцидент произошел рано утром в пятницу, но никто не пострадал, а ущерб был минимальным. OpenAI сотрудничает с правоохранительными органами и усилила меры безопасности вокруг своего штаб-квартира. Это не первый случай угроз в адрес компании, что подчеркивает растущие риски для лидеров в сфере ИИ.