売顔トレーニングAIが深層偽造の被害者に、世界のAIグレー産業の暗い真実

MarketWhisper

AI灰色產業

英国《衛報》による深掘り調査が、急速に成長する世界的な“グレー”産業を明らかにした。南アフリカ、インド、米国からの数千人の一般人が、自分の声、顔、歩き方の動画、そして個人的な通話記録を売ってAIの訓練費を稼いでいる。AI企業が高品質な人間データへの需要を、公的なネット上で手に入る範囲を超えて強めたことから、Kled AI、Silencio、Neon Mobile といった有料の採集プラットフォームが登場した。

2つの実例:誰が自分を売っているのか、理由は何か

この世界的なAIデータの採掘ブームは、発展途上国では特に直接的な推進力を持つ。

南アフリカ・ケープタウンの27歳の青年 Jacobus Louw は、Kled AI で「都市ナビゲーション」タスクを終え、歩行動画1本で14ドルを得た。これは現地の最低賃金の10倍にあたる。彼はプライバシーの代償を理解していることを認めたが、長年の神経系の病気のせいで就職できず、日常動画を売って500ドルを貯め、マッサージ師の研修コースに申し込んだ。「南アフリカ人として、ドルで受け取る金額は人が想像するよりも価値がある」と Louw は語る。

インド・ランチの22歳の学生 Sahil Tigga は、毎月 Silencio を通じて環境の騒音の録音を売り、月収は100ドル超。米国・シカゴの18歳の溶接見習い Ramelio Hill は、1分あたり0.50ドルで、約11時間分のプライベートな通話記録を Neon Mobile に売り、約200ドルを稼いだ。彼の論理はシンプルで直球だ。テクノロジー企業はそもそも大量の個人データをすでに持っているのだから、自分もそこから取り分を得ればいい、という。

AIデータの枯渇がこの“グレー”産業を生む

ChatGPT や Gemini などの生成AIの進化は、大量で高品質な人間のテキスト資料に依存している。しかし主要なオープンデータセット C4、RefinedWeb、Dolma は、商用の利用許諾を制限し始めており、研究者らは AI企業が最速で2026年までに新鮮で高品質なテキストを使い尽くすだろうと見積もっている。AIが生成した合成データで訓練に回すことは、モデルが誤りだらけの「ゴミ」を出力し、崩壊を引き起こすことにつながると、すでに証明されている。これにより、実データとなる本物の人間データの希少性はさらに高まる。

こうして生まれた有料の採集プラットフォームは、世界をまたぐ新しいタイプのデジタル零細仕事(ギグ)生態系を形作った:

Kled AI:タスクごとに日常の写真と動画を買い取る

Silencio:群衆に外注して環境音声を採集し、暗号トークン形式で決済する

Neon Mobile:1分あたり0.50ドルで対話と通話録音を買い取る

Luel AI(Y Combinator 支援):1分あたり約0.15ドルで多言語の対話を採集する

ElevenLabs:ユーザーが自分の声をデジタルでクローンできるようにし、基本料金は1分あたり0.02ドル

ロンドン・キングス・カレッジの経済学教授 Bouke Klein Teeselink は、AI訓練の零細仕事は、大きく成長する新しい仕事カテゴリだと指摘する。AI企業が自ら費用を払って採集するのは、完全にネットを巡回(スクレイピング)に頼ることが、著作権の紛争を引き起こす可能性があるからでもある。

ディープフェイクと撤回不能の許諾:グレー産業の実際の代償

これらのプラットフォームの法的リスクは、ユーザーのほとんどに知られていない。ロンドン・シティ・セント・ジョージズ大学の法学教授 Enrico Bonadio は、許諾契約は通常、プラットフォームに「世界規模、独占、撤回不能、譲渡可能、かつロイヤリティ免除」という全面的な権限を与えると指摘する。これにより、プラットフォームは販売、展示、保存、そしてそれに基づく派生作品の創作までできる。そして供給者には、同意を取り消したり、再交渉したりするための実際の手段がほとんどない。

ニューヨークの俳優 Adam Coy の遭遇は、最も代表的なケースだ。彼は 1,000ドルで、肖像の許諾をAI動画編集ソフト Captions に与えた。契約は、政治宣伝やポルノコンテンツへの使用を明確に禁じ、許諾期間は1年だった。しかし間もなく、彼の友人が Instagram で、再生回数が数百万回に達する動画を見つけた。動画の中で「彼」は「膣の医師」を名乗り、妊娠期の女性に未検証の医療サプリを勧めていた。「コメント欄がおかしいんです。彼らは私の見た目を評価しているけど、そもそもそれは私じゃない」と Coy は言う。その後、彼はAIデータの零細仕事を一切引き受けなくなった。

オックスフォード大学の教授 Mark Graham は、この仕事は構造的に「不安定で、伸びしろがなく、実際には行き止まりだ」とまとめた。唯一の長期的な勝者は「北半球のプラットフォームで、それらが持続的な価値をすべて手に入れている」。

よくある質問

AI訓練の“グレー”産業とは何で、なぜ「グレー」と呼ばれるのか?

AI訓練の“グレー”産業とは、一連の有料採集プラットフォームを指す。普通のユーザーに報酬を支払い、声、顔、動画、通話記録を買い取って、AIモデルの訓練に使う。取引は一見合法に見えるが、データの最終用途が不透明で、許諾条件が極端に非対称であり、さらにディープフェイクなどの潜在的な悪用リスクがあるため、「グレー」と呼ばれる。コンプライアンスと搾取の境界のあいだをさまよっている。

個人データを売ってAIを訓練することには、具体的にどんな法的リスクがある?

供給者は通常、条項を完全には理解していない状態で、プラットフォームに撤回不能の生体特性データ利用権を付与する。スタンフォード大学の研究員 Jennifer King は、消費者は「彼らが好まない、理解しない、あるいは想定していなかった方法でデータが再利用されるリスク」に直面し、そのときはほぼ救済手段がないと指摘する。Neon Mobile のセキュリティ脆弱性が原因の事件が、その通りであることを裏づけた。データ漏えい後、プラットフォームは影響を受けるユーザーにさえ通知しない可能性がある。

この“グレー”産業は暗号資産(クリプト)エコシステムとどんな関係がある?

一部のAI訓練プラットフォーム(Silencio など)は、暗号トークンの形式で報酬を支払う。分散型の決済を活用して、国境をまたぐ受け取りのハードルを下げ、発展途上国のユーザーがステーブルコインやネイティブトークンの形で直接収益を得られるようにしている。これにより、AIデータ市場は暗号資産の現実世界での応用シナリオとして重要な分野の一つになりつつある。同時に、トークンの評価、流動性、データ倫理に関する複数の考慮事項も生じる。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし