Новости об ИИ от OpenAI на этой неделе имеют острый край: компания запустила платную программу Safety Fellowship, предлагающую еженедельные стипендии в размере $3,850 внешним исследователям, изучающим то, что может пойти не так с продвинутым ИИ — объявление появилось в течение часов после расследования The New Yorker, сообщившего, что OpenAI распустила внутренние команды по безопасности и тихо убрала слово “safely” из своего миссионного заявления для IRS.
Summary
OpenAI объявила о стипендии 6 апреля как “пилотную программу для поддержки независимых исследований по безопасности и согласованию, а также для развития следующего поколения талантов”. Программа платит $3,850 в неделю, в пересчете на год это более $200,000, плюс примерно $15,000 в ежемесячных вычислительных ресурсах и менторство от исследователей OpenAI. Стипендиаты работают из рабочей среды Berkeley от Constellation или удаленно, а подача заявок заканчивается 3 мая. Эта стипендия не ограничивается специалистами по ИИ — OpenAI набирает кандидатов из кибербезопасности, социальных наук и взаимодействия человека с компьютером наряду с информатикой.
Время — это история. Расследование Ронана Фарроу в The New Yorker, опубликованное в тот же день, задокументировало, что OpenAI распустила три последовательные внутренние организации по безопасности за 22 месяца. Команда по superalignment была закрыта в мае 2024 года после ухода со-лидеров Ильи Сутскевера и Яна Лейке. Лейке написал по пути выхода, что “культура безопасности и процессы отошли на второй план по сравнению с блестящими продуктами”. Затем в октябре 2024 года последовала команда AGI Readiness. Команда Mission Alignment была расформирована в феврале 2026 года всего спустя 16 месяцев. The New Yorker также сообщила, что когда журналист попросил поговорить с исследователями по экзистенциальной безопасности в OpenAI, представитель компании ответил: “Что вы имеете в виду под экзистенциальной безопасностью? Это же не, вроде, вещь.”
Стипендия прямо не заменяет внутреннюю инфраструктуру. Стипендиаты получают кредиты на API и вычислительные ресурсы, но без доступа к системам, поэтому программу позиционируют как финансирование исследований на расстоянии от компании (arm’s-length), а не как восстановление распущенных команд.
Исследовательская повестка охватывает семь приоритетных направлений: оценка безопасности, этика, надежность, масштабируемые меры по снижению рисков, методы безопасности, сохраняющие конфиденциальность, агентский надзор и домены злоупотреблений с высокой степенью тяжести. К концу программы в феврале 2027 года каждый стипендиат должен произвести существенный результат — статью, бенчмарк или датасет. Конкретные академические квалификации не требуются; OpenAI заявила, что приоритет отдается исследовательским возможностям, техническому суждению и способности доводить до исполнения.
Как сообщал crypto.news, доверие к заявленным обязательствам по безопасности у компаний, работающих на переднем крае ИИ, является рыночным сигналом, который влияет на распределение капитала по инфраструктуре ИИ, AI-токенам, а также протоколам DePIN и AI-агентов, находящимся на пересечении крипто и искусственного интеллекта. Как отмечал crypto.news, траектория расходов OpenAI и правдоподобие ее операционных приоритетов отслеживаются инвесторами, оценивающими сектор инфраструктуры ИИ — сектор, где растет совпадение с системами на базе блокчейна. Может ли на практике повлиять на разработку моделей то, что внешние стипендиаты будут работать без доступа к внутренним системам, — это вопрос, на который исследования первого когорты начнут отвечать в начале 2027 года.