OpenAIが「北極星」プロジェクトを暴露、「2028年大失業」が本当にやって来るかもしれない

robot
概要作成中

最近、ネット上で広まった「2028年予測」という記事があり、その中でAIの進歩により2028年には大規模な失業の波が訪れ、多くの人の仕事がAIに取って代わられると指摘している。

この文章が出ると、中東情勢と相まって、その日の米国株式市場は大きく下落した。この出来事はまさに幻想的とも言えるもので、その記事は一見AIが書いたものであることは明らかだったが、「AIによる大失業」という恐怖心理にぴったりと合致していたため、非常に大きな影響を与えた。

最近、OpenAIが明らかにした一つのニュースは、「2028年の大失業」が単なる空想ではない可能性を人々に気づかせている。

最近、OpenAIの最高科学者Jakub PachockiがMIT Technology Reviewの独占インタビューで語った言葉は背筋が寒くなるものであった——彼らの「北極星」は、2028年までに完全自動の多エージェント研究システムを構築することだ。

今年9月には、その第一段階の目標が実現する予定だ。

それは、「特定の研究課題を独立して処理できる『自律AI研究インターン』」の実現である。

これは製品のロードマップ上の仮の位置付けや、AltmanがX上で口にした軽口ではない。OpenAIが全社のリソースを一つの方向に集中させている証拠だ。

「北極星」の意義

テクノロジー企業が「北極星」と言うとき、通常二つの意味がある。一つは、他の事柄がそれに道を譲る必要があること、もう一つは、社内で既に共通認識が形成されていることだ。

過去二週間のOpenAIの動きを見ると、この判断はほぼ正しいと言える。

3月19日、OpenAIは開発者ツール企業Astralを買収し、チームをCodex部門に統合した。同時に、ChatGPT、Codex、ブラウザを一つの統合デスクトップ「スーパーアプリ」にまとめると発表し、アプリケーション責任者Fidji Simoが主導、Greg Brockmanが組織改革を支援した。

断片化した製品時代は終わりを告げ、OpenAIはすべての資源を一つの方向に向けている。

その方向とは、「AI自身に研究をさせること」だ。

Pachockiの論理は非常に明快だ。推論モデル、エージェント、解釈性——これら三つの技術路線はもともとOpenAI内部でバラバラに進んでいたが、今や一つの目標の下に統合されつつある——それは、データセンター内で長時間自律的に動作できるAI研究者を作り出すことだ。彼は言う、「これが実現すれば、『これこそが我々が本当に頼るもの』になる」。

元OpenAI研究員のAndrej Karpathyは、より直接的な見解を示している——「すべての最先端の大規模言語モデル研究所はこうするだろう。これが最終的なBOSS戦だ」と。彼は付け加える、「規模の拡大は確かに複雑になるが、このことをやるのはエンジニアリングの問題であり、成功するだろう」と。

彼の言葉に注目してほしい。「できるかできないか」ではなく、「いつやるか」だ。

Anthropicの動き

OpenAIが「北極星」を発表した同じ日に、Anthropicは静かにClaude Code Channelsを立ち上げた——これは、開発者がTelegramやDiscordを通じて直接Claude Codeとの会話を行える機能だ。

これは単体では小さな動きに見えるが、全体のトレンドの中では非常に重要だ。

Anthropicの考え方はこうだ:AIが何をできるかを開発者に伝えるのではなく、今すぐにでもそれを開発者の実際の作業フローに組み込むことだ。TelegramやDiscordは学術論文の場所ではなく、プログラマーの日常の作業場所だ。ここにClaude Codeを置くことで、「ツール」から「同僚」へと変わる。

コミュニティの反応もこの判断を裏付けている。

あるユーザーはこう言った:「ClaudeはこのアップデートでOpenClawを殺した。もうMac Miniを買う必要はない。」この言葉の裏には、Anthropicのインフラ改善により、オープンソースの代替案がコスト面で優位性を失ったことが示されている。

また、よりマクロな時間軸で見ると、AnthropicのClaude Codeの改良スピードは驚くべきものだ。数週間のうちに、テキスト処理、数千のMCPスキルの統合、自律的なバグ修正能力を融合させた。OpenAIがAstralを買収してCodexを強化する一方で、AnthropicはClaude Codeを直接開発者のチャットウィンドウに投入している。

両社は同じゴールに向かって走っているが、そのルートは全く異なる——OpenAIは「2028年の完全自動研究者」を目指し、Anthropicは「今日から使えるインテリジェントツール」を作っている。

本当の難題

しかし、ここで一つ見過ごせない細部がある。

Pachockiはインタビューの中で、非常に稀なことを話した——安全性と制御性の課題について率直に語ったのだ。

彼は、「我々の考えは、他の大規模言語モデルを使って『AI研究者のメモ帳』を監視し、行動に問題が出る前に不正行為を捕捉することだ」と述べたが、その直後にこう認めている:「大規模言語モデルの理解度は十分ではなく、完全に制御できるわけではない。『この問題は解決済み』と言えるには、まだ長い時間が必要だ」と。

ある企業の最高科学者が、「我々はまだ完全な制御力を持っていない」と語り、同時に2028年までに完全自動のAI研究システムを完成させると宣言している。この二つの事実は、真剣に考えるべき重要なポイントだ。

これは悲観的な話ではなく、事の本質的な難しさを理解するためのものだ。Pachockiがこの言葉を口にしたこと自体、OpenAI内部がこの道の険しさを認識している証拠だ。

技術的な観点から、研究者がまとめた「カパシサイクル」という概念が参考になる——成功する自動化AI研究の枠組みには、三つの要素が必要だ。すなわち、単一のファイルを修正できる権限を持つエージェント、客観的に評価できる単一の指標、そして固定された実験時間の制約だ。

この枠組みはすでに実環境で結果を出し始めている。ShopifyのCEO Tobias Lütkeは、次のような例を公表している——彼は、夜間にautoresearchエージェントを動かし、翌朝には37回の実験を行い、モデルの性能を19%向上させた。

概念から実現までの道のりは、想像以上に短い。

20000ドルのサブスクリプション未来

「北極星」プロジェクトは、技術的な優位性だけでなく、ビジネスの勝敗を左右する切り札でもある。

Paul Roetzerの数字は、何度も見返したくなるものだ。彼はOpenAI内部の予測を引用し、2029年までにエージェント事業だけで年間290億ドルの収益をもたらすと予測している。その内訳は、月額2000ドルの「知識代理」と月額20000ドルの「研究代理」だ。

この数字は、「AI研究者」が単なる技術的目標ではなく、収益の道筋であることを示している。

月額20000ドルの「研究代理」は、経験豊富な研究者の年収の一部に過ぎないが、24時間休まず動き続け、37の実験を同時に行える。これは特定の人を置き換えるのではなく、「研究生産性」そのものを再定義している。

これをKarpathyの言葉——「これが最終的なBOSS戦だ」と思い出す。彼が言うBOSSは、競争相手ではなく、AI能力の天井そのものだ。

AIが科学研究を自律的に推進できるようになれば、AIの進歩速度は、人間の研究者の数や労働時間に制約されなくなる。

Pachockiも同じ意味を伝えているが、より控えめに表現している——「システムがデータセンター内で長時間自律的に動作できるようになれば、それこそが我々が本当に頼るものだ」。

2026年9月のAI研究インターンは、終点ではなく、重要な出発点だ。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • 人気の Gate Fun

    もっと見る
  • 時価総額:$2.3K保有者数:1
    0.00%
  • 時価総額:$2.29K保有者数:1
    0.00%
  • 時価総額:$2.32K保有者数:1
    0.34%
  • 時価総額:$2.41K保有者数:2
    1.46%
  • 時価総額:$2.33K保有者数:2
    0.00%
  • ピン