OpenAI раскрыла проект «Полярная звезда», «Большая безработица 2028» может действительно наступить

robot
Генерация тезисов в процессе

Недавно в сети распространилась статья с прогнозом на 2028 год, в которой указывалось, что благодаря развитию ИИ ожидается волна массовых увольнений, многие рабочие места будут заменены ИИ.

После публикации статьи и обострения ситуации на Ближнем Востоке американский фондовый рынок резко упал. Это событие кажется фантастическим: статья явно написана ИИ, но она хорошо отражает страхи людей по поводу «массовых потерь рабочих мест из-за ИИ», что и вызвало такой эффект.

Недавно опубликованное сообщение OpenAI заставило людей задуматься: «Большая волна увольнений в 2028 году» может быть не просто предсказанием, а реальной возможностью.

Недавно главный ученый OpenAI Jakub Pachocki в эксклюзивном интервью MIT Technology Review сказал очень тревожные слова — их «маяком» является создание к 2028 году полностью автоматизированной системы многопрограммных исследовательских агентов.

К сентябрю этого года планируется реализовать первую фазу:

«Автономного ИИ-исследовательского стажера», способного самостоятельно решать конкретные исследовательские задачи.

Это не просто заполнитель в дорожной карте продукта или случайное заявление на X от Altman. Это означает, что OpenAI вкладывает все ресурсы компании в один вектор развития.

Значение «маяка»

Когда технологические компании говорят о «маяке», обычно имеют в виду два момента: во-первых, все остальные проекты должны уступить ему дорогу, во-вторых, внутри компании уже достигнуто единство мнений.

Исходя из последних двух недель действий OpenAI, можно считать, что это предположение верно.

19 марта OpenAI объявила о приобретении компании Astral, разработчика инструментов для разработчиков, и интеграции команды в отдел Codex; одновременно компания объявила о создании единого «суперприложения» для ChatGPT, Codex и браузера под руководством Fidji Simo при поддержке Greg Brockman, что свидетельствует о сдвиге в организационной структуре.

Эпоха фрагментированных продуктов завершена — OpenAI сосредоточена на одном направлении.

Это направление — «позволить ИИ самим заниматься исследованиями».

Логика Pachocki ясна: модели рассуждений, агенты, объяснимость — эти три технологических направления ранее развивались отдельно внутри OpenAI, а теперь объединяются для достижения цели — создания исследователя ИИ, способного долго работать в дата-центре. Он отметил, что как только это станет возможным, «это станет нашим настоящим опорным элементом».

Более прямо выразился бывший исследователь OpenAI Andrej Karpathy: «Все передовые лаборатории по созданию больших языковых моделей будут так поступать, это — финальная битва BOSS». Он добавил важную фразу: «Масштабирование, безусловно, усложнит задачу, но сделать это — инженерная проблема, и она будет решена».

Обратите внимание на его слова: не «можем ли мы», а «когда».

Действия Anthropic

В тот же день, когда OpenAI объявила о «маяке», Anthropic тихо запустила Claude Code Channels — функцию, позволяющую разработчикам взаимодействовать с работающим Claude Code через Telegram и Discord.

Это кажется мелочью, но в контексте общего тренда — очень важно.

Логика Anthropic такова: вместо того чтобы рассказывать разработчикам, что ИИ сможет делать в будущем, лучше уже сейчас встроить его в их реальный рабочий процесс. Telegram и Discord — это не академические статьи, а места, где работают программисты. Сделать Claude Code частью этого — значит превратить его из «инструмента» в «коллегу».

Реакция сообщества подтверждает этот вывод.

Некоторые пользователи прямо заявили: «Claude через это обновление убил OpenClaw, теперь не нужно покупать Mac Mini». Это означает, что инфраструктурные улучшения Anthropic уже лишили открытые альтернативы конкурентных преимуществ по стоимости.

С точки зрения более широкой временной перспективы, скорость итераций Claude Code у Anthropic действительно впечатляет. За несколько недель он объединил обработку текста, интеграцию тысяч MCP-навыков и автономное исправление ошибок. В то время как OpenAI укрепляет Codex через Astral, Anthropic уже интегрировал Claude Code прямо в чат разработчика.

Обе компании движутся к одной цели, но по разным маршрутам — OpenAI создает «полностью автоматизированного исследователя 2028 года», а Anthropic — «интеллекта, которым можно пользоваться уже сегодня».

Настоящая проблема

Однако есть один важный момент, который нельзя игнорировать.

Pachocki в интервью сделал редкий шаг — он откровенно поговорил о вызовах безопасности и управляемости, и сделал это очень честно.

Он заявил, что их идея — использовать другие большие языковые модели для «мониторинга заметок исследователя ИИ», чтобы выявлять плохое поведение до того, как оно проявится. Но сразу признался: «Понимание больших языковых моделей недостаточно для полного контроля над ними, и чтобы сказать, что „эта проблема решена“, потребуется еще много времени».

Главный ученый компании говорит, что «мы еще не обладаем полным контролем», и одновременно планирует к 2028 году создать полностью автоматизированную систему ИИ-исследователя. Эти два факта требуют серьезного осмысления.

Это не критика, а попытка понять реальную сложность задачи. Способность Pachocki так откровенно говорить свидетельствует о том, что внутри OpenAI осознают трудности этого пути.

На техническом уровне есть концепция, которую исследователи называют «цикл Капаси» — успешная автоматизация исследования ИИ требует трех элементов: агента с правом изменять отдельные файлы, объективного тестового показателя и фиксированного времени эксперимента.

Эта модель уже начала давать результаты. Например, CEO Shopify Tobias Lütke рассказал, что запустил автоматизированного исследователя ночью, а утром он провел 37 экспериментов и повысил эффективность модели на 19%.

От идеи до реализации — этот путь оказался короче, чем ожидалось.

Будущее с подпиской за 20000 долларов

«Маяк» — это не только технологическое преимущество, но и коммерческий козырь.

Цифры Paul Roetzer вызывают желание пересчитать их еще раз: по внутренним прогнозам OpenAI, к 2029 году бизнес по созданию агентов сможет приносить 29 миллиардов долларов ежегодного дохода, включая «знание-агентов» за 2000 долларов в месяц и «исследовательских агентов» за 20000 долларов в месяц.

Эти цифры показывают, что «исследователь ИИ» — это не только технологическая цель, но и реальный источник дохода.

«Исследователь за 20000 долларов в месяц» — это примерно часть годовой зарплаты опытного исследователя, но он работает 24/7 и проводит 37 экспериментов. Это не просто замена человека, а переопределение самой концепции «научной производительности».

Это напоминает слова Karpathy: «Это — финальная битва BOSS». Он имел в виду не конкурентов, а потолок возможностей ИИ.

Если ИИ сможет самостоятельно вести научные исследования, скорость его прогресса не будет ограничена числом ученых и рабочим временем.

Pachocki тоже выразился в этом духе, только более сдержанно: «Когда система сможет долго автономно работать в дата-центре, это и будет нашим настоящим достижением».

AI-исследователь 2026 года — это не финал, а важный старт.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить