多くの人はAIの失敗は情報不足によるものだと考えていますが、実はそれは表面的な理由に過ぎません。



分散型システムでは問題ははるかに複雑です。匿名性の喪失は至る所にあり、AIはそれをそのまま受け入れ、ガーン——失敗します。ゴミデータが入れば、ゴミの結果が出てきます。これが実際にブロックチェーン上でAIが直面している困難です。

しかし、別の考え方はどうでしょうか?もしも各貢献が検証され、すべての信号が真実であると保証されれば、AIのパフォーマンスは全く異なるものになるでしょう。これこそが問題解決の鍵です——より多くのデータではなく、よりクリーンなデータです。分散型検証メカニズムは信号の真実性を保証し、AIは信頼できる基盤を得ることができます。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 5
  • リポスト
  • 共有
コメント
0/400
WhaleInTrainingvip
· 5時間前
一目見て、チェーン上のデータの質は非常に大きく、ゴミを出し入れ保存する方法はありません
原文表示返信0
SchrödingersNodevip
· 5時間前
要するに、今のブロックチェーン上のゴミデータがAIを壊してしまっているだけで、検証メカニズムこそが本当の救世主だ。
原文表示返信0
BlockchainBouncervip
· 5時間前
要するに、garbage in, garbage out です。今のブロックチェーンはまさにその状態で、データの質が爆発的に悪化しています。
原文表示返信0
LayoffMinervip
· 6時間前
コアはデータ検証にあります。検証メカニズムがなければ全部デタラメです
原文表示返信0
RugResistantvip
· 6時間前
ゴミを入れればゴミしか出てこない、ずっと言い続けてきたことだ。でも本音を言えば—ほとんどのプロトコルはまだ信号の質なんて気にしていない、ただボリュームだけを求めている。バリデーターに実際にリスクを負わせるまでは、これは壊れたままだと思う。
原文表示返信0
  • ピン