Maico AmorimによるUnsplashの写真* * *AI Actはまだ単なる草案ですが、欧州連合(EU)の投資家や事業主は、起こり得る結果についてすでに不安を抱えています。 それは、EUがグローバル領域で価値ある競争相手であり続けることを妨げるのでしょうか?規制当局によれば、そのようなことはありません。でも、何が起きているのか見てみましょう。 AI Actとリスク評価---------------------------------AI Actは、人工知能(AI)がもたらすリスクをさまざまなリスク区分に分けますが、その前に、人工知能の定義を絞り込み、機械学習とロジックに基づくシステムに含まれるものだけを対象とします。 これは、AIシステムをより単純なソフトウェアの部品と区別する目的に資するだけでなく、なぜEUがリスクを分類したいのかを理解する助けにもなります。 AIのさまざまな用途は、**許容できないリスク**、**高リスク**、そして **低い、または最小限のリスク**に分類されます。許容できないリスク区分に該当する行為は、**禁止**されたものとみなされます。この種の行為には、以下が含まれます: * 人の意識の範囲を超えて機能する技術が関わる行為、 * 人口の脆弱な部分を悪用しようとする行為、 * 個人の属性や行動にもとづいて人々を分類するために導入されたAIベースのシステム、 * 公共の場で生体認証による識別を行うAIベースのシステム。 禁止された活動に含まれるいくつかの行為と類似していると考えるべきユースケースのうち、「高リスク」な行為のカテゴリに入るものもあります。 これには、労働者を採用するために使われるシステム、または人々の信用力(そしてこれはフィンテックにとって危険になり得ます)を評価・分析するために使われるシステムが含まれます。これらのケースでは、この種のシステムを作成または利用するすべての企業が、システムの仕組みと、人々へのリスクを回避するために取られた措置、そして可能な限り透明性を高めるための対応について説明する詳細なレポートを作成しなければなりません。 すべてが明確で正しいように見えますが、規制当局が対処すべきいくつかの問題があります。同法はあまりにも一般的に見える-------------------------事業主や投資家が最も心配している側面の1つは、特定のAI分野への関心が欠けていることです。 たとえば、汎用目的のためにAIベースのシステムを製造し利用する企業は、そうした企業が人工知能を高リスクのユースケースで使っているものとみなされる可能性があります。 つまり、時間とお金がかかる詳細なレポートを作成する必要が出てきます。SME(中小企業)は例外ではなく、また欧州経済の最大の部分を占めるため、結果として時間の経過とともに競争力が低下する可能性があります。 そして、アメリカと欧州のAI企業の違いこそが、重大な懸念を引き起こしているのです。実際、欧州にはアメリカのような大規模なAI企業がありません。なぜなら、欧州のAI環境は主にSMEとスタートアップによって作られているからです。 appliedAIが実施した調査によると、大多数の投資家は「高リスク」とラベル付けされたスタートアップへの投資を避けるでしょう。まさにこの分類に伴う複雑さがあるためです。 ChatGPTがEUの計画を変えた--------------------------EUの規制当局は4月19日に文書を締め切るべきでしたが、AIベースのシステムのさまざまな定義とそのユースケースに関する議論が、最終草案の提出を遅らせました。 さらに、テック企業は、文書の現行版にすべてが同意しているわけではないことを示しました。 遅れの原因として最も大きかったのは、**ファウンデーションモデル**と**汎用AI**の区別です。 AIファウンデーションモデルの例としては、OpenAIのChatGPTがあります。これらのシステムは大量のデータを使って学習され、あらゆる種類の出力を生成できます。 汎用AIには、さまざまなユースケースや分野に適応できるようにすることができるシステムが含まれます。 EUの規制当局は、ファウンデーションモデルを厳格に規制したいと考えています。なぜなら、より大きなリスクをもたらし、人々の生活に悪影響を与える可能性があるからです。米国と中国はAIをどう規制しているか--------------------------------------EUの規制当局がAIをどのように扱っているかを見ると、際立っていることがあります。それは、規制当局が協力に前向きでないように見える点です。 たとえば米国では、Biden政権が、起こり得る規制枠組みを設計する前に、ChatGPTのようなシステムの安全性についての一般からの意見を求めました。 中国では政府が何年も前からAIとデータ収集を規制しており、最大の懸念は社会の安定にとどまっています。 現時点でAI規制の面でうまく位置づけられているように見える国は英国で、同国は「軽い」アプローチを選びました。しかし、英国がAIとフィンテックの導入でリーダーになりたいと思っているのは公然の秘密ではありません。 フィンテックとAI Act----------------------金融サービスを提供する企業やスタートアップに関しては、状況はさらに複雑です。 実際、この法律が現行のバージョンのままなら、フィンテックは現在の金融規制に紐づくだけではなく、この新しい規制枠組みにも対応する必要があります。 信用力評価が高リスクのユースケースとしてラベル付けされ得るという事実は、フィンテック企業が背負うべき負担の一例にすぎません。これは、これまでのように柔軟でいられなくなり、投資を集めたり競争したりするうえで不利になります。 結論 -----------Silo AIのCEOであるPeter Sarlinが指摘した通り、問題は規制そのものではなく、悪い規制です。 あまりにも一般的すぎると、AIベースの製品やサービスの製造、流通、利用に関わるすべての企業のイノベーションを損なう可能性があります。 もしEUの投資家が、「高リスク」に分類されるスタートアップや企業だと示すラベルによって生じ得るリスクを懸念するなら、欧州連合内のAI環境は悪影響を受けるかもしれません。一方、米国は技術を改善するための一般からの意見を求めており、中国はすでに人工知能をどう規制するかについて明確な見解を持っています。 Apherisの共同創業者であるRobin Röhmによれば、あり得るシナリオの1つは、スタートアップが米国へ移るというものです。米国は、ブロックチェーンや暗号資産の分野では失うものが多いかもしれませんが、その一方でAIレースに勝つ可能性もあります。 * * *フィンテックについてもっと知り、フィンテックのニュース、イベント、意見を見つけたいなら、FTW Newsletterに登録してください!
ヨーロッパにおけるAI:AI法が意味するもの
Maico AmorimによるUnsplashの写真
AI Actはまだ単なる草案ですが、欧州連合(EU)の投資家や事業主は、起こり得る結果についてすでに不安を抱えています。
それは、EUがグローバル領域で価値ある競争相手であり続けることを妨げるのでしょうか?
規制当局によれば、そのようなことはありません。でも、何が起きているのか見てみましょう。
AI Actとリスク評価
AI Actは、人工知能(AI)がもたらすリスクをさまざまなリスク区分に分けますが、その前に、人工知能の定義を絞り込み、機械学習とロジックに基づくシステムに含まれるものだけを対象とします。
これは、AIシステムをより単純なソフトウェアの部品と区別する目的に資するだけでなく、なぜEUがリスクを分類したいのかを理解する助けにもなります。
AIのさまざまな用途は、許容できないリスク、高リスク、そして
低い、または最小限のリスクに分類されます。許容できないリスク区分に該当する行為は、禁止されたものとみなされます。
この種の行為には、以下が含まれます:
禁止された活動に含まれるいくつかの行為と類似していると考えるべきユースケースのうち、「高リスク」な行為のカテゴリに入るものもあります。
これには、労働者を採用するために使われるシステム、または人々の信用力(そしてこれはフィンテックにとって危険になり得ます)を評価・分析するために使われるシステムが含まれます。これらのケースでは、この種のシステムを作成または利用するすべての企業が、システムの仕組みと、人々へのリスクを回避するために取られた措置、そして可能な限り透明性を高めるための対応について説明する詳細なレポートを作成しなければなりません。
すべてが明確で正しいように見えますが、規制当局が対処すべきいくつかの問題があります。
同法はあまりにも一般的に見える
事業主や投資家が最も心配している側面の1つは、特定のAI分野への関心が欠けていることです。
たとえば、汎用目的のためにAIベースのシステムを製造し利用する企業は、そうした企業が人工知能を高リスクのユースケースで使っているものとみなされる可能性があります。
つまり、時間とお金がかかる詳細なレポートを作成する必要が出てきます。SME(中小企業)は例外ではなく、また欧州経済の最大の部分を占めるため、結果として時間の経過とともに競争力が低下する可能性があります。
そして、アメリカと欧州のAI企業の違いこそが、重大な懸念を引き起こしているのです。実際、欧州にはアメリカのような大規模なAI企業がありません。なぜなら、欧州のAI環境は主にSMEとスタートアップによって作られているからです。
appliedAIが実施した調査によると、大多数の投資家は「高リスク」とラベル付けされたスタートアップへの投資を避けるでしょう。まさにこの分類に伴う複雑さがあるためです。
ChatGPTがEUの計画を変えた
EUの規制当局は4月19日に文書を締め切るべきでしたが、AIベースのシステムのさまざまな定義とそのユースケースに関する議論が、最終草案の提出を遅らせました。
さらに、テック企業は、文書の現行版にすべてが同意しているわけではないことを示しました。
遅れの原因として最も大きかったのは、ファウンデーションモデルと汎用AIの区別です。
AIファウンデーションモデルの例としては、OpenAIのChatGPTがあります。これらのシステムは大量のデータを使って学習され、あらゆる種類の出力を生成できます。
汎用AIには、さまざまなユースケースや分野に適応できるようにすることができるシステムが含まれます。
EUの規制当局は、ファウンデーションモデルを厳格に規制したいと考えています。なぜなら、より大きなリスクをもたらし、人々の生活に悪影響を与える可能性があるからです。
米国と中国はAIをどう規制しているか
EUの規制当局がAIをどのように扱っているかを見ると、際立っていることがあります。それは、規制当局が協力に前向きでないように見える点です。
たとえば米国では、Biden政権が、起こり得る規制枠組みを設計する前に、ChatGPTのようなシステムの安全性についての一般からの意見を求めました。
中国では政府が何年も前からAIとデータ収集を規制しており、最大の懸念は社会の安定にとどまっています。
現時点でAI規制の面でうまく位置づけられているように見える国は英国で、同国は「軽い」アプローチを選びました。しかし、英国がAIとフィンテックの導入でリーダーになりたいと思っているのは公然の秘密ではありません。
フィンテックとAI Act
金融サービスを提供する企業やスタートアップに関しては、状況はさらに複雑です。
実際、この法律が現行のバージョンのままなら、フィンテックは現在の金融規制に紐づくだけではなく、この新しい規制枠組みにも対応する必要があります。
信用力評価が高リスクのユースケースとしてラベル付けされ得るという事実は、フィンテック企業が背負うべき負担の一例にすぎません。これは、これまでのように柔軟でいられなくなり、投資を集めたり競争したりするうえで不利になります。
結論
Silo AIのCEOであるPeter Sarlinが指摘した通り、問題は規制そのものではなく、悪い規制です。
あまりにも一般的すぎると、AIベースの製品やサービスの製造、流通、利用に関わるすべての企業のイノベーションを損なう可能性があります。
もしEUの投資家が、「高リスク」に分類されるスタートアップや企業だと示すラベルによって生じ得るリスクを懸念するなら、欧州連合内のAI環境は悪影響を受けるかもしれません。一方、米国は技術を改善するための一般からの意見を求めており、中国はすでに人工知能をどう規制するかについて明確な見解を持っています。
Apherisの共同創業者であるRobin Röhmによれば、あり得るシナリオの1つは、スタートアップが米国へ移るというものです。米国は、ブロックチェーンや暗号資産の分野では失うものが多いかもしれませんが、その一方でAIレースに勝つ可能性もあります。
フィンテックについてもっと知り、フィンテックのニュース、イベント、意見を見つけたいなら、FTW Newsletterに登録してください!