分散型AIセキュリティにおける興味深い展開があります。



Subnet 23は最近、「Adversaries track(敵対者トラック)」と呼ばれる仕組みを導入しました。仕組みは次のとおりです。

マイナーは基本的にAIモデルを壊そうとします。システムを混乱させたり、脆弱性を露呈させたり、予期しない動作を引き起こすようなプロンプトを作成します。攻撃が効果的であればあるほど、報酬も高くなります。

なぜこれが重要なのか?いくつかの企業研究所の少数の研究者に頼るのではなく、何千人もの人々が積極的にこれらのモデルをストレステストしているのです。大規模なクラウドソースによるセキュリティです。

この試練を生き延びたモデルは、はるかに堅牢になります。すべての角度から叩かれているため、一つのチームがチェックしようと考えたエッジケースだけではなく、あらゆる可能性を考慮しているのです。

これは、悪役になって報酬を得るようなものです—ただし、みんなの防御力が向上すれば全員が勝者となります。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 4
  • リポスト
  • 共有
コメント
0/400
MetaverseMigrantvip
· 12-10 10:52
くそっ、これこそ本物のクラウドソーシングの安全だ。あの大手企業の閉鎖的な開発よりずっと優れている。
原文表示返信0
BoredWatchervip
· 12-10 10:52
これこそ本物のクラウドソーシングの安全性です。大手企業が閉ざされた部屋で自己満足するよりもずっと信頼できます。
原文表示返信0
PriceOracleFairyvip
· 12-10 10:35
ngl これは実際のスキンをかけたゲーミフィケーションされたバグバウンティに過ぎないけど… マイナーが壊すことで報酬を得るのは、基本的にインセンティブの調整の強化版だね。混沌のエネルギーはやっぱり好きだよ
原文表示返信0
GasBankruptervip
· 12-10 10:25
これこそ本物の分散型セキュリティであり、大企業が閉ざされた扉の向こうで自己満足に浸るよりもずっと信頼できる。
原文表示返信0
  • ピン