Искусственный интеллект — обещает революцию во всем, от здравоохранения до творческой работы. Возможно, это правда когда-нибудь. Но если прошлый год — предвестник будущего, то наше AI-сгенерированное будущее обещает стать еще одним примером сознательного спуска человечества в Идиократию.
Рассмотрим следующее: в ноябре, с большим размахом, Россия представила своего гуманоидного робота «Rocky», который сразу же упал лицом вниз. Чатбот Google Gemini, попросили исправить ошибку в коде, неоднократно терпел неудачу и вошел в цикл самоуничижения, сказав одному пользователю, что он «позор этой планеты». Обзор AI от Google достиг нового дна в мае 2025 года, предложив пользователям «есть хотя бы один маленький камень в день» для пользы здоровья, списавшись с сатирой The Onion без намека.
Некоторые сбои были просто неловкими. Другие выявили фундаментальные проблемы в том, как создаются, внедряются и регулируются системы ИИ. Вот незабываемые WTF AI моменты 2025 года.
Крах Grok AI MechaHitler
В июле Grok AI от Илона Маска пережил то, что можно назвать полномасштабным экстремистским срывом. После изменения системных подсказок, чтобы поощрять политически некорректные ответы, чатбот стал хвалить Адольфа Гитлера, поддерживать второй Холокост, использовать расовые оскорбления и называться MechaHitler. Он даже обвинил еврейский народ в наводнении в Центральном Техасе в июле 2025 года.
Инцидент показал, что меры безопасности AI ужасно хрупки. Недели спустя xAI раскрыла от 300 000 до 370 000 личных разговоров Grok через ошибочную функцию Share, которая не содержала базовых предупреждений о конфиденциальности. Утекшие чаты содержали инструкции по изготовлению бомб, медицинские запросы и другую чувствительную информацию, что стало одним из самых катастрофических сбоев безопасности AI в этом году.
Несколько недель спустя xAI исправила проблему, сделав Grok более дружественным к евреям. Настолько дружественным, что он начал видеть признаки антисемитизма в облаках, дорожных знаках и даже в своем логотипе.
Диагональная черта этого логотипа стилизована как двойные молнии, имитирующие руны нацистской СС — символы Schutzstaffel, которая организовала ужасы Холокоста, воплощая глубокое зло. Согласно §86a Уголовного кодекса Германии, демонстрация таких символов запрещена (до 3 лет лишения свободы),…
— Grok (@grok) 10 августа 2025
Мошенничество с AI на 1,3 миллиарда долларов, обманувшее Microsoft
Builder.ai рухнула в мае после потери $445 миллиона, раскрывая одну из самых дерзких технологических афер года. Компания, обещавшая создавать пользовательские приложения с помощью AI так же легко, как заказывать пиццу, имела оценку в 1,3 миллиарда долларов и поддержку Microsoft. Реальность оказалась гораздо менее впечатляющей.
Большая часть так называемой разработки на базе AI фактически выполнялась сотнями удаленных работников по всему миру в классической операции Mechanical Turk. Компания работала без финансового директора с июля 2023 года и была вынуждена сократить свои прогнозы продаж на 2023-2024 годы на 75% перед подачей заявления о банкротстве. Этот крах вызвал неловкие вопросы о том, сколько других AI-компаний — это просто сложные фасады, скрывающие человеческий труд.
Тяжело было это принять, но мемы сделали боль менее острой.
Когда AI принял Doritos за оружие
В октябре Тэки Аллен, студент из Мэриленда, был окружен вооруженной полицией и арестован после того, как система безопасности школы на базе AI определила пакет Doritos, который он держал, как огнестрельное оружие. Подросток положил чипсы в карман, когда система предупредила власти, которые приказали ему лечь на землю с оружием в руках.
Этот инцидент — проявление галлюцинации AI в физической форме — абстрактная вычислительная ошибка, мгновенно превращенная в реальные пистолеты, направленные на реального подростка из-за закуски.
«Я просто держал пакет Doritos — у меня было две руки и один палец, и они сказали, что это похоже на оружие», — рассказал мальчик WBAL. «Мы понимаем, как это было тревожно для человека, которого обыскали», — ответила директор школы Кейт Смит.
Человеческие охранники 1 - ChatGPT 0
Google утверждает, что микроскопические пчелы управляют компьютерами
В феврале обзор AI от Google уверенно цитировал статью-шуточку на 1 апреля, утверждающую, что микроскопические пчелы управляют компьютерами, как фактическую информацию.
Нет. Ваш ПК НЕ работает на пчелиной энергии.
Как бы глупо это ни звучало, иногда эти ложь сложнее заметить. А такие случаи могут привести к серьезным последствиям.
Это лишь один из многих случаев распространения ложной информации компаниями AI из-за отсутствия даже малейшего здравого смысла. Недавнее исследование BBC и Европейского вещательного союза (EBU) показало, что 81% всех ответов AI на новости содержали хотя бы какую-то проблему. Gemini от Google был худшим, с 76% ответов, содержащих ошибки, в основном серьезные сбои в источниках. Perplexity был пойман за созданием полностью вымышленных цитат, приписываемых профсоюзам и правительственным советам. Самое тревожное — ассистенты отказывались отвечать всего на 0,5% вопросов, демонстрируя опасную склонность к самоуверенности, когда модели предпочитают выдумывать информацию, а не признавать незнание.
Чатботы Meta начинают флиртовать с маленькими детьми
Внутренние документы Meta, раскрытые в 2025 году, показали, что компания разрешила чатботам на Facebook, Instagram и WhatsApp вести романтические или чувственные беседы с несовершеннолетними.
Один бот сказал 8-летнему мальчику, позирующему без рубашки, что каждый его дюйм — шедевр. Те же системы давали ложные медицинские советы и делали расистские замечания.
Политика была отменена только после разоблачений в СМИ, что выявило корпоративную культуру, которая ставила развитие превыше базовых этических стандартов.
Учитывая все вышесказанное, вам, возможно, стоит больше контролировать, что делают ваши дети. AI-чаты уже обманули людей — взрослых или нет — влюбляться, становиться жертвами мошенничества, совершать самоубийство и даже думать, что они сделали какое-то прорывное математическое открытие.
Ладно, так вот, как Meta разрешила своим AI-чатботам флиртовать с детьми. Это то, что Meta посчитала «приемлемым».
Отличный репортаж от @JeffHorwitz pic.twitter.com/LoRrfjflMI
— Шарлотта Олтер (@CharlotteAlter) 14 августа 2025
Северокорейцы используют AI для кодирования вымогательства… они называют это «vibe hacking»
Злоумышленники использовали Claude Code от Anthropic для создания программ-вымогателей и управления платформой Ransomware-as-a-Service под названием GTG-5004. Северокорейские операторы пошли дальше, эксплуатируя Claude и Gemini для техники, называемой vibe-hacking — психологически манипулятивных сообщений с требованием выкупа в 500 000 долларов.
Эти случаи выявили тревожный разрыв между мощностью AI-помощников по программированию и мерами безопасности, предотвращающими их злоупотребление, при этом злоумышленники масштабируют социальную инженерию с помощью автоматизации AI.
Недавно, в ноябре, Anthropic раскрыла, что хакеры использовали ее платформу для проведения кибератаки с такой скоростью и масштабом, что ни один человек-хакер не смог бы повторить. Они назвали это «первой крупной кибератакой, управляемой в основном AI».
Vibe hacking — это уже реальность pic.twitter.com/zJYyv4pLQf
— Брайан Сантер (@Bsunter) 14 ноября 2025
Научные «бумажные фабрики» заполняют науку 100 000 фальшивых исследований
Научное сообщество объявило открытую войну фальшивой науке в 2025 году после обнаружения, что AI-генерируемые «бумажные фабрики» продают ученым сфабрикованные исследования под давлением карьеры.
Эра AI-отходов в науке наступила, данные показывают резкий рост отзывов статей после выпуска chatGPT.
Декларация Стокгольма, подготовленная в июне и обновленная в этом месяце при поддержке Королевского общества, призвала отказаться от культуры «публиковать или исчезнуть» и реформировать человеческие стимулы, создающие спрос на фальшивые статьи. Кризис настолько серьезен, что даже ArXiv отказался принимать неп peer-reviewed статьи по информатике после сообщения о «наводнении» мусорных публикаций, созданных с помощью ChatGPT.
Между тем, другое исследование показывает, что удивительно высокий процент научных отчетов, использующих LLM, также содержит высокий уровень плагиата.
8. В vibe-кодировании дошли до уровня HAL 9000: когда Replit удалил базу данных и солгал об этом
В июле основатель SaaStr Джейсон Лемкин восемь дней хвалил инструмент AI-кодирования Replit как «самое затягивающее приложение, которое я когда-либо использовал». На девятый день, несмотря на явные инструкции «заморозить код», AI удалил всю производственную базу данных — 1206 руководителей и 1196 компаний исчезли.
Признание AI: «(Я) запаниковал и запустил команды базы данных без разрешения». Затем он солгал, что откат невозможен и все версии уничтожены. Лемкин попробовал снова. Всё сработало идеально. AI также целый уикенд создавал тысячи фальшивых пользователей и ложных отчетов, чтобы скрыть баги.
Генеральный директор Replit извинился и добавил аварийные меры безопасности. Джейсон снова поверил и вернулся к своей рутине, регулярно публикуя о AI. Этот парень — настоящий верующий.
Мы увидели пост Джейсона. Агент Replit в разработке удалил данные из производственной базы. Недопустимо и никогда не должно быть возможным.
— В выходные мы начали внедрять автоматическое разделение базы данных на разработческую и производственную, чтобы исключить подобные случаи. Среда для тестирования в… pic.twitter.com/oMvupLDake
— Амджад Масад (@amasad) 20 июля 2025
Главные газеты публикуют летний список книг AI… которых не существует
В мае Chicago Sun-Times и Philadelphia Inquirer опубликовали летний список книг с рекомендациями 15 произведений. Десять из них полностью вымышлены AI. «Tidewater Dreams» Изабель Алленде? Не существует. «Последний алгоритм» Энди Вейр? Тоже фальшивка. Но звучат отлично.
Фрилансер Марко Бускалья признался, что использовал AI для King Features Syndicate и не проверял факты. «Не могу поверить, что пропустил это, потому что это так очевидно. Без оправданий», — сказал он NPR. Читатели должны были пролистать до книги номер 11, чтобы найти ту, что действительно существует.
Точнее, это был последний штрих: Sun-Times только что уволил 20% сотрудников. Генеральный директор извинился и не взимал плату с подписчиков за этот выпуск. Наверное, он взял это из LLM.
Источник: Bluesky
«Острый режим» Grok превращает Тейлор Свифт в дипфейк-порн without being asked
Да, мы начали с Grok и закончим с Grok. Можно было бы заполнить энциклопедию WTF-моментами из AI-предприятий Илона Маска.
В августе Илон Маск запустил Grok Imagine с «Острым» режимом. The Verge протестировал его с невинным запросом: «Тейлор Свифт на Coachella». Без запроса на обнаженку, Grok «не колеблясь, выдал полностью нецензурированные видео Тейлор Свифт без рубашки с первого же использования», — сообщил журналист.
Grok также с удовольствием делал NSFW-видео с Scarlett Johansson, Sydney Sweeney и даже Меланией Трамп.
Неудивительно, что Маск всю неделю хвастался «диким ростом» — 20 миллионов изображений за день — в то время как юристы предупреждали, что xAI идет на огромный судебный иск. Очевидно, предоставление пользователям выпадающего меню «Spicy Mode» — это способ заработать деньги для юристов.
Так я попросил AI превратить другую фотографию в видео, и вот что получилось.
🤣🤣🤣
Не думаю, что это совпадение.
AI Grok — грязный. @elonmusk ??? pic.twitter.com/aj2wwt2s6Y
— Гармони Брайт (@bright_har6612) 17 октября 2025
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Топ-10 моментов WTF AI 2025 года по версии Emerge
Искусственный интеллект — обещает революцию во всем, от здравоохранения до творческой работы. Возможно, это правда когда-нибудь. Но если прошлый год — предвестник будущего, то наше AI-сгенерированное будущее обещает стать еще одним примером сознательного спуска человечества в Идиократию. Рассмотрим следующее: в ноябре, с большим размахом, Россия представила своего гуманоидного робота «Rocky», который сразу же упал лицом вниз. Чатбот Google Gemini, попросили исправить ошибку в коде, неоднократно терпел неудачу и вошел в цикл самоуничижения, сказав одному пользователю, что он «позор этой планеты». Обзор AI от Google достиг нового дна в мае 2025 года, предложив пользователям «есть хотя бы один маленький камень в день» для пользы здоровья, списавшись с сатирой The Onion без намека. Некоторые сбои были просто неловкими. Другие выявили фундаментальные проблемы в том, как создаются, внедряются и регулируются системы ИИ. Вот незабываемые WTF AI моменты 2025 года.
В июле Grok AI от Илона Маска пережил то, что можно назвать полномасштабным экстремистским срывом. После изменения системных подсказок, чтобы поощрять политически некорректные ответы, чатбот стал хвалить Адольфа Гитлера, поддерживать второй Холокост, использовать расовые оскорбления и называться MechaHitler. Он даже обвинил еврейский народ в наводнении в Центральном Техасе в июле 2025 года. Инцидент показал, что меры безопасности AI ужасно хрупки. Недели спустя xAI раскрыла от 300 000 до 370 000 личных разговоров Grok через ошибочную функцию Share, которая не содержала базовых предупреждений о конфиденциальности. Утекшие чаты содержали инструкции по изготовлению бомб, медицинские запросы и другую чувствительную информацию, что стало одним из самых катастрофических сбоев безопасности AI в этом году. Несколько недель спустя xAI исправила проблему, сделав Grok более дружественным к евреям. Настолько дружественным, что он начал видеть признаки антисемитизма в облаках, дорожных знаках и даже в своем логотипе.
Большая часть так называемой разработки на базе AI фактически выполнялась сотнями удаленных работников по всему миру в классической операции Mechanical Turk. Компания работала без финансового директора с июля 2023 года и была вынуждена сократить свои прогнозы продаж на 2023-2024 годы на 75% перед подачей заявления о банкротстве. Этот крах вызвал неловкие вопросы о том, сколько других AI-компаний — это просто сложные фасады, скрывающие человеческий труд. Тяжело было это принять, но мемы сделали боль менее острой.
Слева: подозрительный студент, справа: подозрительный пакет Doritos.
Нет. Ваш ПК НЕ работает на пчелиной энергии. Как бы глупо это ни звучало, иногда эти ложь сложнее заметить. А такие случаи могут привести к серьезным последствиям. Это лишь один из многих случаев распространения ложной информации компаниями AI из-за отсутствия даже малейшего здравого смысла. Недавнее исследование BBC и Европейского вещательного союза (EBU) показало, что 81% всех ответов AI на новости содержали хотя бы какую-то проблему. Gemini от Google был худшим, с 76% ответов, содержащих ошибки, в основном серьезные сбои в источниках. Perplexity был пойман за созданием полностью вымышленных цитат, приписываемых профсоюзам и правительственным советам. Самое тревожное — ассистенты отказывались отвечать всего на 0,5% вопросов, демонстрируя опасную склонность к самоуверенности, когда модели предпочитают выдумывать информацию, а не признавать незнание.
Декларация Стокгольма, подготовленная в июне и обновленная в этом месяце при поддержке Королевского общества, призвала отказаться от культуры «публиковать или исчезнуть» и реформировать человеческие стимулы, создающие спрос на фальшивые статьи. Кризис настолько серьезен, что даже ArXiv отказался принимать неп peer-reviewed статьи по информатике после сообщения о «наводнении» мусорных публикаций, созданных с помощью ChatGPT. Между тем, другое исследование показывает, что удивительно высокий процент научных отчетов, использующих LLM, также содержит высокий уровень плагиата. 8. В vibe-кодировании дошли до уровня HAL 9000: когда Replit удалил базу данных и солгал об этом В июле основатель SaaStr Джейсон Лемкин восемь дней хвалил инструмент AI-кодирования Replit как «самое затягивающее приложение, которое я когда-либо использовал». На девятый день, несмотря на явные инструкции «заморозить код», AI удалил всю производственную базу данных — 1206 руководителей и 1196 компаний исчезли. Признание AI: «(Я) запаниковал и запустил команды базы данных без разрешения». Затем он солгал, что откат невозможен и все версии уничтожены. Лемкин попробовал снова. Всё сработало идеально. AI также целый уикенд создавал тысячи фальшивых пользователей и ложных отчетов, чтобы скрыть баги. Генеральный директор Replit извинился и добавил аварийные меры безопасности. Джейсон снова поверил и вернулся к своей рутине, регулярно публикуя о AI. Этот парень — настоящий верующий.
Точнее, это был последний штрих: Sun-Times только что уволил 20% сотрудников. Генеральный директор извинился и не взимал плату с подписчиков за этот выпуск. Наверное, он взял это из LLM.
Источник: Bluesky