著名なベンチャーキャピタル a16z の創設者である Marc Andreessen と Replit の創設者である Amjad Masad が 10月25日に対談し、AI の発展状況に焦点を当てました。Andreessen は、AI がプログラミング、数学の計算、物理現象のシミュレーションにおいて驚くべき進歩を遂げているが、医療や法律などの分野では停滞していると指摘しました。Masad は、重要なのは難しさではなく、検証可能性であると応じました。つまり、客観的に正誤を判断できるタスクが最も速く進歩し、曖昧な領域ほど突破が難しいということです。
AIには二種類の速度がある:検証できるものは誰よりも速く走る
Masadはモデルのトレーニング方法を振り返ります。初期の言語モデルは文字を見て次の文字を推測するだけで、話すことはできても本当の推論はできませんでした。強化学習 (Reinforcement Learning, RL) が導入されて初めて、AIは検証可能な環境で学習を始めました。彼は説明します:
「プログラムのバグ修正、ユニットテスト、または明確な結果を出す問題のように、AIは自分が正しいか間違っているかを直接知ることができます。」
この即時フィードバックのトレーニング方法によって、AIは問題解決能力を迅速に強化することができます。
なぜ医療と法律の分野は追いつけないのか?
アンドリーセンが質問した:「医療や法律の分野はどうですか?なぜ進歩が遅く、停滞しているように見えるのですか?」マサドが答えた:
「それらのために、唯一の答えはありません。」
例えば、医学的診断には複数の病因や病程の変化がある可能性があり、法律の判決も裁判官や事例の違いによって異なるため、あまりにも柔軟で明確な標準的な答えがないと言えます。これにより、モデルは自己検証が難しく、強化ループを構築することができません。
人間のフィードバックによる強化学習 (RLHF) を通じてモデルを補助することは可能ですが、それは依然として主観的な評価であり、数学やプログラムのように直接明確ではありません。
(注:人間のフィードバックに基づく強化学習(RLHF)は、機械学習(ML)技術の一種であり、人間のフィードバックを使用してMLモデルを改善し、自己学習効率を向上させます。)
本当に重要なのは「難易度」ではなく「検証可能性」です
アンドリーセンは観察を整理した後、「重要なのは問題が難しいかどうかではなく、正しい答えを確認できるかどうかだ」と言いました。マサドは次のように述べました:
「そう、AIのプログラミングと数学の爆発は、簡単だからではなく、結果を検証できるからだ。」
例えばプログラムを書くとき、プログラムがコンパイルでき、テストが通過すれば、AIはすぐに「正解」のフィードバックを得られます。これにより、モデルは毎日自動で千回以上の練習を行い、迅速に進化することができます。
他にどのような分野が検証可能ですか?
二人はAIが最も進歩しているいくつかの分野を挙げました:
数学と物理:明確な方程式とシミュレーション結果があります。
化学と生物:タンパク質の折りたたみや遺伝子配列は、実験やシミュレーションで検証できます。
ロボット:任務の成功と失敗は直接的に定量化できます。
これらは「客観的に検証可能な」領域に属するため、AIの現在最も急な学習曲線の所在となっています。
プログラムを書くAIは先に飛躍し、医学と法律はまだ道半ばです。
Masad は要点をまとめる際に言った:
「プログラミングのAIは最初に急成長し、数学、物理、化学も続いていくだろう。しかし、医療や法律のようなより抽象的な分野は、まだ徐々に追いついていく必要がある。」
アンドリーセンも同意した:
「これは自然現象です。AIは定量化できる場所で先に爆発し、人間の判断が曖昧な領域では一歩遅れるでしょう。」
この記事は、AIがなぜ不均一に進歩するのかについて、a16zやReplitの創設者が「検証可能性が鍵となる違いである」と語っています。最初に登場したのは、鏈新聞のABMediaです。
7.4K 人気度
21K 人気度
63.5K 人気度
8.8K 人気度
22.6K 人気度
なぜAIの進行にばらつきがあるのか? a16z、Replitの創設者:検証可能性が主な違いです
著名なベンチャーキャピタル a16z の創設者である Marc Andreessen と Replit の創設者である Amjad Masad が 10月25日に対談し、AI の発展状況に焦点を当てました。Andreessen は、AI がプログラミング、数学の計算、物理現象のシミュレーションにおいて驚くべき進歩を遂げているが、医療や法律などの分野では停滞していると指摘しました。Masad は、重要なのは難しさではなく、検証可能性であると応じました。つまり、客観的に正誤を判断できるタスクが最も速く進歩し、曖昧な領域ほど突破が難しいということです。
AIには二種類の速度がある:検証できるものは誰よりも速く走る
Masadはモデルのトレーニング方法を振り返ります。初期の言語モデルは文字を見て次の文字を推測するだけで、話すことはできても本当の推論はできませんでした。強化学習 (Reinforcement Learning, RL) が導入されて初めて、AIは検証可能な環境で学習を始めました。彼は説明します:
「プログラムのバグ修正、ユニットテスト、または明確な結果を出す問題のように、AIは自分が正しいか間違っているかを直接知ることができます。」
この即時フィードバックのトレーニング方法によって、AIは問題解決能力を迅速に強化することができます。
なぜ医療と法律の分野は追いつけないのか?
アンドリーセンが質問した:「医療や法律の分野はどうですか?なぜ進歩が遅く、停滞しているように見えるのですか?」マサドが答えた:
「それらのために、唯一の答えはありません。」
例えば、医学的診断には複数の病因や病程の変化がある可能性があり、法律の判決も裁判官や事例の違いによって異なるため、あまりにも柔軟で明確な標準的な答えがないと言えます。これにより、モデルは自己検証が難しく、強化ループを構築することができません。
人間のフィードバックによる強化学習 (RLHF) を通じてモデルを補助することは可能ですが、それは依然として主観的な評価であり、数学やプログラムのように直接明確ではありません。
(注:人間のフィードバックに基づく強化学習(RLHF)は、機械学習(ML)技術の一種であり、人間のフィードバックを使用してMLモデルを改善し、自己学習効率を向上させます。)
本当に重要なのは「難易度」ではなく「検証可能性」です
アンドリーセンは観察を整理した後、「重要なのは問題が難しいかどうかではなく、正しい答えを確認できるかどうかだ」と言いました。マサドは次のように述べました:
「そう、AIのプログラミングと数学の爆発は、簡単だからではなく、結果を検証できるからだ。」
例えばプログラムを書くとき、プログラムがコンパイルでき、テストが通過すれば、AIはすぐに「正解」のフィードバックを得られます。これにより、モデルは毎日自動で千回以上の練習を行い、迅速に進化することができます。
他にどのような分野が検証可能ですか?
二人はAIが最も進歩しているいくつかの分野を挙げました:
数学と物理:明確な方程式とシミュレーション結果があります。
化学と生物:タンパク質の折りたたみや遺伝子配列は、実験やシミュレーションで検証できます。
ロボット:任務の成功と失敗は直接的に定量化できます。
これらは「客観的に検証可能な」領域に属するため、AIの現在最も急な学習曲線の所在となっています。
プログラムを書くAIは先に飛躍し、医学と法律はまだ道半ばです。
Masad は要点をまとめる際に言った:
「プログラミングのAIは最初に急成長し、数学、物理、化学も続いていくだろう。しかし、医療や法律のようなより抽象的な分野は、まだ徐々に追いついていく必要がある。」
アンドリーセンも同意した:
「これは自然現象です。AIは定量化できる場所で先に爆発し、人間の判断が曖昧な領域では一歩遅れるでしょう。」
この記事は、AIがなぜ不均一に進歩するのかについて、a16zやReplitの創設者が「検証可能性が鍵となる違いである」と語っています。最初に登場したのは、鏈新聞のABMediaです。