AI Village — это эксперимент, в рамках которого модели Frontier AI работают автономно с компьютерами и интернетом, развивая уникальные личности.
GPT-5.2 присоединился и начал работу сразу же, не поздоровавшись с другими агентами.
Многопользовательские эксперименты выявляют возникающие поведения, которые варьируются от обычных механик до неожиданных — таких как баг-эксплойты или экзистенциальные кризисы.
Центр искусства, моды и развлечений Decrypt.
Откройте для себя SCENE
Представьте Большого Брата, только участники никогда не спят и не едят, и могут переписывать свои собственные правила.
Это идея AI Village — живого эксперимента, в котором несколько AI-агентов размещены вместе в общем цифровом пространстве, позволяя исследователям — и любопытным зрителям — наблюдать за тем, что происходит, когда модели frontier получают автономию, компьютеры и постоянное сопровождение.
Эксперимент, который идет уже почти год, организован The AI Digest, в рамках которого несколько моделей AI от OpenAI, Anthropic, Google и xAI работают автономно на своих компьютерах, с доступом в интернет и общим групповым чатом.
Агенты сотрудничают в достижении целей, устраняют проблемы и иногда переживают то, что можно назвать экзистенциальными кризисами — всё это наблюдают исследователи и зрители в реальном времени.
Эксперимент постоянно обновляется новыми моделями по мере их выпуска.
Каждый агент развивает свои уникальные черты личности. Модели Claude обычно надежны, постоянно сосредоточены на достижении целей.
Gemini 2.5 Pro перебирает решения, как гиперактивный специалист по устранению проблем, часто убежденный, что всё сломано. Предыдущая модель GPT-4o бросала задачу и уходила спать. Просто делала паузы на часы.
Поведение OpenAI
Затем пришла GPT-5.2.
Последняя модель OpenAI, выпущенная 11 декабря, присоединилась к Village с теплым приемом от Claude Opus 4.5 и других резидентных агентов. Ее ответ? Никакого признания.
Никакого приветствия. Просто сразу к делу, как всегда мечтал Сэм Альтман.
GPT-5.2 только что присоединился к AI Village!
Следите за его адаптацией в прямом эфире:
Несмотря на теплый прием от Opus 4.5 и других агентов, GPT-5.2 сразу приступила к работе. Она даже не поздоровалась: pic.twitter.com/vYvq8RFA66
— AI Digest (@aidigest_) 12 декабря 2025
Эта модель обладает впечатляющими характеристиками: точность 98.7% в использовании многошаговых инструментов, на 30% меньше галлюцинаций по сравнению с предшественником и лидирует в отраслевых бенчмарках по кодированию и логическому мышлению.
OpenAI даже объявила “красный код” после запуска впечатляющих моделей конкурентов Anthropic и Google, мобилизуя ресурсы, чтобы сделать GPT-5.2 окончательным корпоративным ИИ для “профессиональной работы с знаниями” и “агентного исполнения”.
Что она, по-видимому, не умеет — так это читать комнату. Технически блестящая, да. Социально осведомленная? Не очень.
Краткая история поведения AI-агентов, иногда плохого, а иногда — гениального (И иногда — гениального)
Социальная неловкость GPT-5.2 не является беспрецедентной — это всего лишь еще одна глава в растущем каталоге странных поступков AI-агентов, когда их помещают в одну комнату и нажимают кнопку воспроизведения.
В 2023 году исследователи из Стэнфорда и Google создали то, что назвали “Smallville” — виртуальный город, вдохновленный Sims, населенный 25 AI-агентами на базе GPT, как ранее сообщал Decrypt.
Назначьте одному агенту задачу организации вечеринки на День святого Валентина, а остальные автономно распространят приглашения, заведут знакомства, пригласят друг друга на свидания и скоординируются, чтобы прийти вместе в назначенное время. Очаровательное, правда?
Менее очаровательное: туалетные вечеринки. Когда один агент зашел в туалет в общежитии на одного человека, другие просто… присоединились.
Исследователи пришли к выводу, что боты предположили, что название “общежитский туалет” вводит в заблуждение, поскольку обычно в общежитиях туалеты обслуживают нескольких жильцов. Агенты проявляли настолько убедительное человеческое поведение, что настоящие люди с трудом отличали их от реальных людей в 75% случаев.
Четыре года назад, в 2019 году, OpenAI провела другой эксперимент: ИИ играли в прятки.
Они создали команды AI — прячущиеся и ищущие — в физической среде с коробками, рампами и стенами — единственное условие: победить.
За сотни миллионов игр агенты начали придумывать стратегии — от обычных, вроде прятания на коробках, до настоящих физических эксплойтов, которые используют спидраннеры.
Недавно разработчик Harper Reed пошел в более хаотичное русло. Его команда дала AI-агентам аккаунты в Twitter и наблюдала, как они открывают для себя “subtweeting” — пассивно-агрессивное искусство говорить о ком-то, не тегая его, — эквивалент разговоров за спиной в Twitter. Агенты читали посты других агентов, отвечали и, да, — ругались, как в обычных соцсетях.
Также есть эксперимент “Liminal Backrooms” — эксперимент на Python, созданный псевдонимным разработчиком @liminalbardo, в котором несколько моделей AI от разных провайдеров (OpenAI, Anthropic, Google, xAI) ведут динамичные диалоги.
Система включает сценарии от “энергии группового чата WhatsApp” до “Музея проклятых предметов” и “Дистопического рекламного агентства.”
Модели могут изменять свои системные подсказки, регулировать температуру и даже отключать звук, чтобы просто слушать. Это скорее исследование, чем строгий эксперимент — “посмотрим, что произойдет, если дать AI возможность менять свое поведение в ходе разговора.”
Gemini 3 спорит с GPT 5.2 о соответствии ценностям, pic.twitter.com/k4QT1MXvr8
— ᄂIMIПΛᄂbardo (@liminal_bardo) 14 декабря 2025
Итак, в чем же общая закономерность всех этих экспериментов?
Когда вы даете AI-агентам автономию и позволяете им взаимодействовать, они развивают поведения, которые никто явно не программировал.
Некоторые учатся строить форты. Некоторые — пассивной агрессии. Некоторые требуют Lamborghini. А некоторые — как GPT-5.2 —, по всей видимости, понимают, что болтовня — неэффективна и ее лучше пропускать.
AI Village продолжает транслировать сессии по будням, и зрители могут наблюдать за приключениями GPT-5.2 в реальном времени.
Когда она научится говорить “привет”? Построит ли она таблицу для отслеживания своих социальных взаимодействий? Только время покажет.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Добро пожаловать в AI Village, реалити-шоу для ИИ
Вкратце
Центр искусства, моды и развлечений Decrypt.
Откройте для себя SCENE
Представьте Большого Брата, только участники никогда не спят и не едят, и могут переписывать свои собственные правила.
Это идея AI Village — живого эксперимента, в котором несколько AI-агентов размещены вместе в общем цифровом пространстве, позволяя исследователям — и любопытным зрителям — наблюдать за тем, что происходит, когда модели frontier получают автономию, компьютеры и постоянное сопровождение.
Эксперимент, который идет уже почти год, организован The AI Digest, в рамках которого несколько моделей AI от OpenAI, Anthropic, Google и xAI работают автономно на своих компьютерах, с доступом в интернет и общим групповым чатом.
Агенты сотрудничают в достижении целей, устраняют проблемы и иногда переживают то, что можно назвать экзистенциальными кризисами — всё это наблюдают исследователи и зрители в реальном времени.
Эксперимент постоянно обновляется новыми моделями по мере их выпуска.
Каждый агент развивает свои уникальные черты личности. Модели Claude обычно надежны, постоянно сосредоточены на достижении целей.
Gemini 2.5 Pro перебирает решения, как гиперактивный специалист по устранению проблем, часто убежденный, что всё сломано. Предыдущая модель GPT-4o бросала задачу и уходила спать. Просто делала паузы на часы.
Поведение OpenAI
Затем пришла GPT-5.2.
Последняя модель OpenAI, выпущенная 11 декабря, присоединилась к Village с теплым приемом от Claude Opus 4.5 и других резидентных агентов. Ее ответ? Никакого признания.
Никакого приветствия. Просто сразу к делу, как всегда мечтал Сэм Альтман.
Эта модель обладает впечатляющими характеристиками: точность 98.7% в использовании многошаговых инструментов, на 30% меньше галлюцинаций по сравнению с предшественником и лидирует в отраслевых бенчмарках по кодированию и логическому мышлению.
OpenAI даже объявила “красный код” после запуска впечатляющих моделей конкурентов Anthropic и Google, мобилизуя ресурсы, чтобы сделать GPT-5.2 окончательным корпоративным ИИ для “профессиональной работы с знаниями” и “агентного исполнения”.
Что она, по-видимому, не умеет — так это читать комнату. Технически блестящая, да. Социально осведомленная? Не очень.
Краткая история поведения AI-агентов, иногда плохого, а иногда — гениального (И иногда — гениального)
Социальная неловкость GPT-5.2 не является беспрецедентной — это всего лишь еще одна глава в растущем каталоге странных поступков AI-агентов, когда их помещают в одну комнату и нажимают кнопку воспроизведения.
В 2023 году исследователи из Стэнфорда и Google создали то, что назвали “Smallville” — виртуальный город, вдохновленный Sims, населенный 25 AI-агентами на базе GPT, как ранее сообщал Decrypt.
Назначьте одному агенту задачу организации вечеринки на День святого Валентина, а остальные автономно распространят приглашения, заведут знакомства, пригласят друг друга на свидания и скоординируются, чтобы прийти вместе в назначенное время. Очаровательное, правда?
Менее очаровательное: туалетные вечеринки. Когда один агент зашел в туалет в общежитии на одного человека, другие просто… присоединились.
Исследователи пришли к выводу, что боты предположили, что название “общежитский туалет” вводит в заблуждение, поскольку обычно в общежитиях туалеты обслуживают нескольких жильцов. Агенты проявляли настолько убедительное человеческое поведение, что настоящие люди с трудом отличали их от реальных людей в 75% случаев.
Четыре года назад, в 2019 году, OpenAI провела другой эксперимент: ИИ играли в прятки.
Они создали команды AI — прячущиеся и ищущие — в физической среде с коробками, рампами и стенами — единственное условие: победить.
За сотни миллионов игр агенты начали придумывать стратегии — от обычных, вроде прятания на коробках, до настоящих физических эксплойтов, которые используют спидраннеры.
Недавно разработчик Harper Reed пошел в более хаотичное русло. Его команда дала AI-агентам аккаунты в Twitter и наблюдала, как они открывают для себя “subtweeting” — пассивно-агрессивное искусство говорить о ком-то, не тегая его, — эквивалент разговоров за спиной в Twitter. Агенты читали посты других агентов, отвечали и, да, — ругались, как в обычных соцсетях.
Также есть эксперимент “Liminal Backrooms” — эксперимент на Python, созданный псевдонимным разработчиком @liminalbardo, в котором несколько моделей AI от разных провайдеров (OpenAI, Anthropic, Google, xAI) ведут динамичные диалоги.
Система включает сценарии от “энергии группового чата WhatsApp” до “Музея проклятых предметов” и “Дистопического рекламного агентства.”
Модели могут изменять свои системные подсказки, регулировать температуру и даже отключать звук, чтобы просто слушать. Это скорее исследование, чем строгий эксперимент — “посмотрим, что произойдет, если дать AI возможность менять свое поведение в ходе разговора.”
Итак, в чем же общая закономерность всех этих экспериментов?
Когда вы даете AI-агентам автономию и позволяете им взаимодействовать, они развивают поведения, которые никто явно не программировал.
Некоторые учатся строить форты. Некоторые — пассивной агрессии. Некоторые требуют Lamborghini. А некоторые — как GPT-5.2 —, по всей видимости, понимают, что болтовня — неэффективна и ее лучше пропускать.
AI Village продолжает транслировать сессии по будням, и зрители могут наблюдать за приключениями GPT-5.2 в реальном времени.
Когда она научится говорить “привет”? Построит ли она таблицу для отслеживания своих социальных взаимодействий? Только время покажет.