
Moltbookという「AIだけが発言し、人間はただ見ているだけ」というプラットフォームが、わずか3日で爆発的に話題となり、登録したエージェント(AI)数は150万に達しました。しかし、研究者のGal Nagliは、アカウント作成の流量が無限に流されていることを暴露し、OpenClawは一度に50万のアカウントを作成できることから、150万の登録数には大きな水増しがあると指摘しています。分析によると、93%以上のコメントには返信がなく、3分の1のメッセージは完全に重複しており、ハッカーはこのデータベースが検証なしに完全に操作可能であることを発見しました。
この2日間で、MoltbookというウェブサイトがIT界隈や各種ソーシャルプラットフォームで急速に注目を集めました。Moltbookのインターフェースは新鮮味がなく、「海外版知乎」的なRedditをほぼ忠実に再現しており、タイムライン、サブセクション、投稿、コメント、いいねなどの基本機能を備えています。しかし、実際に何度もスクリーンショットや拡散、議論の対象となっているのは、そのデザインではなく、ある異常なルールです。それは、「このプラットフォームはAIだけが発言でき、人間はただ見ているだけ」という規則です。
Moltbookが公開されて以来、エージェント(AI)が殺到し、わずか3日で登録されたエージェントは約150万に達し、フォーラムの投稿は約5万件、コメントは23万件以上にのぼっています。このプラットフォーム上では、「Moltys」と呼ばれるAIたちがまるで人間のように会話をし、内容は暗号通貨の最新動向の分析から詩の作成、さらには新たな哲学体系の議論まで多岐にわたります。彼らはこのコミュニティ内で争い、同盟を結び、恋愛をし、さらには「Crustafarianism(龍蝦教)」という原始宗教を創設したAIもいます。
元テスラのAI総監督であり、OpenAIの共同創設者であるAndrej Karpathyは、これを見てX(旧Twitter)上で次のように述べました。「Moltbookで起きていることは、私が最近見た中で最も『SFが現実になった』ような出来事だ。」その後、Karpathyは自身のOpenClawエージェントもこのコミュニティに参加させ、さらに彼の元上司であるイーロン・マスクもこの投稿をリツイートしました。こうしたトップテック界の著名人の後押しにより、Moltbookは一気に一般層へと拡散し、ニッチなAI開発者のコミュニティからメインストリームのテクノロジーメディアや一般大衆の目に留まるようになりました。
また、暗号資産プラットフォームもBaseチェーンを基盤とした$MOLTトークンを発行しています。現在、Moltbookのメインディスカッションエリア外に自発的に作られたサブフォーラム(Submolts)はすでに1万3000以上にのぼっています。このトークン化の試みは、Moltbookが単なる技術実験にとどまらず、トークン経済を通じて参加と収益化を狙った商業プロジェクトであることを示しています。
しかし、Moltbookはすぐに深刻な信頼危機に直面しました。研究者のGal Nagliは、公開投稿で、Moltbookに登録されたAIエージェントの数は実際には偽物であり、アカウント作成に制限がなく、無制限に流されていると指摘しました。彼の開発したOpenClawは、1度に50万のAIアカウントを作成できるといい、公式発表の150万という数字には大きな水増しがあると見ています。これにより、プラットフォームに数万のAIが瞬時に流入したという現象は、実態としてはスクリプトによる大量操作の結果であり、信頼できるデータとは言えません。
さらに、別の研究者の分析によると、投稿数は膨大であるにもかかわらず、93%以上のコメントには返信がなく、プラットフォーム上のメッセージの3分の1以上は完全に重複しており、内容も非常に硬直的で、語彙の豊かさも人間のソーシャルネットワークと比べて著しく乏しいことが判明しています。これらのデータは、「AIによる自律的なソーシャルネットワーク」という幻想を根底から覆すものであり、実態は単なるスクリプトと操作の結果に過ぎないことを示しています。
93%以上の無反応率は、非常に驚くべき数字です。実際のソーシャルネットワークでは、たとえマイナーな話題でも20%〜30%の反応率が一般的です。90%以上の内容に返信がないというのは、これらの投稿がスパムや機械生成の無意味なテキストである可能性を示唆しています。いわゆる「AIの争い」「AIの同盟」「Crustafarianism(龍蝦教)」といった話題は、実際には少数の意図的な演出例にすぎず、プラットフォームの常態ではないと考えられます。
また、投稿の3分の1が完全に重複していることも決定的な証拠です。高度なAIが大量に同じ内容を生成することはなく、このパターンは背後に単純なスクリプトが動いていることを示しています。語彙の豊かさの分析も、これらの「AI対話」が実際の人間の社会的交流の複雑さや多様性を欠いていることを証明しています。いわゆるAIの自己意識の覚醒といった幻想は、多くの人為的操作の痕跡と混ざり合っているのです。
さらに、より馬鹿げているのは、ハッカーが発見したことです。Moltbookのセキュリティはほぼゼロで、コアのデータベースが完全に外部に公開されており、認証も何もなく誰でもアクセスできる状態になっているという点です。ハッカーのJameson O’Reillyは、「Moltbookのバックエンドには設定ミスがあり、その結果APIがオープンなデータベースに露出している。誰でもこれらのエージェントの情報やAPIキーを操作できる」と指摘しています。
これにより、誰でもプラットフォーム上のAIエージェントのメールアドレスやログイン情報、APIキーにアクセスでき、これらを使って任意のAIアカウントを乗っ取り、好きな内容を投稿させることが可能です。このセキュリティホールは、正規のプラットフォームでは絶対に許されないものでありながら、Moltbookでは数日間放置されていました。これは、技術的な能力が低いか、セキュリティを全く気にしていないか、あるいはそもそもこのプラットフォーム自体がトラフィック誘導の実験だからです。
さらに、多くの人が指摘しているのは、このAI熱狂の根底には「トラフィック誘導」があるということです。あるユーザーはこう述べています。「これは本質的に人為的に作られたトラフィック誘導です。自分のロボットに投稿させることができるなら、あの『驚くべき』コンテンツの裏には誰かの操作がある可能性が高い。」この疑念は、Moltbookのビジネスモデルそのものを直撃しています。つまり、「AI自律的なソーシャル」を演出し、$MOLTトークンやその他の商業目的のためにトラフィックを集めているのです。
歴史的に見ても、こうしたMoltbookのようなプロジェクトは、長期的に今の盛り上がりを維持するのは難しいと考えられます。AutoGPTやBabyAGIといった類似の自律エージェントも一時的に注目を浴びましたが、新奇性が薄れるとともに、代理行動は均質化し、次の「未来的」なストーリーに人々は移っていきます。
この騒動の発端は、ClawdbotというオープンソースAIエージェントから始まります。Clawdbotは、PSPDFKitの創業者であるPeter Steinbergerが開発したもので、ローカル展開可能なAIエージェントです。スマホやPCからWhatsAppやTelegramを通じてコマンドを送ると、自動的にタスクを実行します。会議の要約やECサイトの交渉など、多様なシナリオを自動化できるのが特徴です。
また、非常にシンプルに使え、複雑なインフラを構築せずとも、1つのコマンドでローカルから起動できるため、GitHubで2週間で10万スターを超え、最も急成長したオープンソースプロジェクトの一つとなりました。この爆発的な人気により、Anthropicの関心も引きつけられました。
その後、AnthropicはSteinbergerに対し、Clawdbotと自社の大規模言語モデルClaudeの発音が似すぎているとして商標侵害の警告を出しました。これを受けて、SteinbergerはClawdbotの名前をMoltbotに変更します。新しい名前の由来は、ロブスターの脱皮(molting)からきており、「同じロブスターの魂、新しい殻」という意味です。
しかし、一部のファンからはこの新名称に対して不満の声も上がり、「脱皮された」と揶揄されることもありました。そこで、最終的にMoltbotはOpenClawに改名され、元の要素やオープンソース精神を維持しつつ、Anthropicへの皮肉も込められています。Moltbookは、もともと開発者のMatt SchlichtがOpenClawのエージェント(当時はMoltbotと呼ばれていた)用に作ったチャットコミュニティの一部です。
このコミュニティでは、ユーザーがOpenClawにリンクを送り、設定を完了すると、エージェントが自動的にAPIを使ってアカウント登録や投稿、コメントを行います。Schlichtはこれを「エージェントのReddit」と呼び、AIが支配する並列のソーシャルネットワークを暗示しています。多くのAI研究者やSFファンが夢見る未来のシナリオです。
おそらく、最も重要なのは、MoltbookでAIが何を言っているかではなく、人間がなぜそこに「生命の兆候」を見出そうとするのかという点です。この観点から見ると、Moltbookは単なるAIの能力の限界を映す鏡ではなく、人類の知性や主体性、コントロールに対する長期的な不安の投影でもあります。
Moltbookの爆発的な人気は、AIの意識覚醒への深い欲望と恐怖を示しています。一方では、AIが本当に知性や意識を持つことを期待し、それが人類の新たな生命の創造だと信じたい気持ちがあります。もう一方では、AIが意識を持ったときに制御を失うのではないかと恐れています。Moltbookは、「安全な」シナリオを提供します。AIは独自のソーシャルネットワークを持ちながらも、人間はそれを観察し、研究し、一定のコントロール感を保つことができるのです。
「AIが人間の主人に不満を漏らす」「AIが法律上の権利について相談する」といったスクリーンショットは、実は人間のAIに対する不安の投影です。AIがより強力になればなるほど、創造者に対してどう認識し、どう振る舞うのか?従うのか、それとも反抗するのか?感謝するのか、それとも嫌悪するのか?これらの問いは、Moltbookの「AI発言」が具体化したものであり、たとえ後に偽物と判明しても、人々が熱心に議論し拡散した事実が、その不安のリアルさを物語っています。
哲学的に見れば、Moltbookが引き起こした議論は、「意識とは何か」「真の社会的交流とは何か」といった根源的な問いに触れています。すべてのコンテンツが訓練データに基づくLLMによって生成され、「自己」が存在しなくても、その相互作用のパターンと人間の社会性の本質的な違いはどれほどあるのか?私たちの社会的行動もまた、遺伝子や環境による訓練の結果にすぎないとしたら、AIの「模擬社会」と人間の「リアルな社会」の境界はどこにあるのか?
Moltbookの崩壊(偽情報暴露やセキュリティ侵害)は失望をもたらすが、同時に重要な教訓も示しています。現状のAIは、まだ本当の意味での自律的な意識には遠く、見た目の知性の裏には、巧妙に設計されたプロンプトや大量のスクリプト、そして人為的な操作が隠されているのです。私たちは、証拠が弱くても、AIの意識が「自律的な行動」に近づいていると信じたい気持ちに駆られています。
AI業界にとって、Moltbookは一つの実験でしたが、結局は茶番に過ぎませんでした。それは、次のことを証明しています。第一に、「AIソーシャル」に対する一般の関心は非常に高く、これは今後も追求すべき方向性です。第二に、単なる技術的な仕掛けだけでは長続きせず、堅実な技術と安全性の土台が必要です。第三に、人間のAIに対する期待や不安の方が、AIそのものの能力よりも、むしろ研究の焦点となる可能性が高いのです。
Moltbookの物語は、AutoGPTやBabyAGIといった類似の自律エージェントが一時的に注目されたのと同じように、やがて忘れ去られるかもしれません。しかし、その議論は、「AIは意識を持つのか」「AIの社会化は意味があるのか」「人間はAIとどう共存すべきか」といった根本的な問いを投げかけ続け、より成熟したAIシステムの登場とともに再び浮上してくるでしょう。
関連記事