マスク旗下の脳神経インターフェース企業Neuralinkは今朝、画期的な技術成果を正式に発表しました:N1脳チップが、進行性筋萎縮性側索硬化症(ALS)患者の一人の助けとなり、口を動かさずに脳神経信号とコンピュータプログラムの協力によって思考を実際に聞こえる音声に変換することに成功しました。これにより、神経退行性疾患患者に新たな希望をもたらしています。
(Neuralinkが空きオフィスから「心のタイピング」へ:脳神経インターフェース創業の全記録)
ALSとは何か?なぜ音声補助技術が患者にとって重要なのか
ALSは神経変性疾患で、筋肉の動きを制御する神経細胞を徐々に破壊し、歩行、嚥下、会話の能力を失わせます。ビットコインネットワークの最初の利用者であり、Satoshi Nakamotoに次ぐ最も早期のユーザーであるHal Finneyもこの病気で亡くなりました。そのため、喉や口の筋肉を介さずに脳信号から直接音声を再現する技術は、ALS患者にとって画期的な意義を持ちます。
ALSは徐々にケネス・ショックの話す能力を奪ってきました。NeuralinkのVOICE臨床試験を通じて、思考を音声に変換する脳-コンピュータインターフェースが彼の日常生活の自立を取り戻す手助けになるかどうかを探っています。
詳しくはこちらをご覧ください:pic.twitter.com/C9QufqhI6R
— Neuralink (@neuralink) 2026年3月24日
Neuralinkは、話すことに関係する脳内の神経信号を読み取り解析し、人工知能アルゴリズムを用いてそれを言語に復元し、最終的に患者本人の声で再生することで、「脳で話す」ことを実現しました。これにより、切実な医療ニーズに応えることができました。
Neuralinkの脳チップが言語障害を突破、ALS患者が初めて「思考」で声を出す
この偉業の主人公はケネス・ショックです。彼は2026年1月に手術を受け、Neuralink N1チップを脳に埋め込み、「VOICE臨床試験」の参加者の一人となりました。
Neuralinkが公開したデモ映像では、ショックが静かに座り、顔に明らかな動きはなくとも、チップとコンピュータシステムを通じて、自分の声で「私はあなたと脳で会話しています」と完全な文章を話す様子が映し出されました。
N1チップはどうやって脳信号を音声に変えるのか?
Neuralinkの機械学習エンジニア、スカイラー・グラナティアは、この音声デコーディングシステムの動作原理を詳しく説明しています。話す準備をしているとき、脳の特定の領域から神経信号が生成されます。これらの信号は本来、口や舌、声帯などの筋肉に伝わるはずですが、N1チップの役割はこれらの信号を捕捉し、読み取ることです。
訓練の核心は、「音素(phonemes)」の認識と再構築にあります。音素は言語の最小の発音単位で、例えば英語の単語「cat」は3つの音素から成ります。N1チップとNeuralinkのソフトウェアは、多くの訓練を通じて各音素の神経信号を識別し対応させ、順次結合して、最終的にコンピュータで再生可能な完全な音声を生成します。
技術はまだ進化中、リアルタイム変換が次の目標
成果は励みになりますが、Neuralinkはこの技術にはまだ遅延が存在すると認めています。患者が話す意図を発した後、システムは信号を処理し音声を出力するまでに時間がかかり、即時のスムーズな会話には至っていません。
しかし、グラナティアは、センサーの品質と数を積極的に改善し、「脳から直接リアルタイム音声への変換」完全システムの構築を最終目標としていると述べています。
VOICE臨床試験は継続中、商業化には数年を要す
今回の成果は、Neuralinkが進めている「VOICE臨床試験」の一環であり、一般患者への広範な適用にはまだ相当な時間が必要です。
それでも、Neuralinkの今回のデモは、脳神経インターフェース技術の潜在能力がマウスカーソル操作やロボットアーム操作を超えていることを明確に示しています。言語コミュニケーション能力を奪われた人々に再び言葉を取り戻すことは、BCI技術の最も人道的な一歩かもしれません。
この記事は、「話さなくても話せる!Neuralink脳チップが言語障害を突破、ALS治療に光明」最早は鏈新聞ABMediaに掲載されました。