AI脳波インターフェース、麻痺患者の「心の声」を74%の精度で解読

Gizmodo

スタンフォード大学の科学者たちは、脳コンピューターインターフェース(BCI)技術において画期的な進歩を遂げ、重度の麻痺を持つ人々の無言の心の声を解読することに成功しました。2025年8月14日にジャーナル『Cell』で発表されたこの先駆的な研究は、科学者が想像された発話を驚くべき精度で直接解釈した初めての事例であり、コミュニケーションに前例のない道を開きます。

この研究には、筋萎縮性側索硬化症(ALS)や脳幹脳卒中などの病状により重度の麻痺に苦しむ4人の参加者が関与しました。これらの人々にとって、コミュニケーション能力は著しく制限されることがあります。新しいシステムは、彼らの無言の思考を解釈し、それを言葉に変換する際に、最大74%という驚異的な精度を示しました。

これまでの脳コンピューターインターフェースの進歩は、主に「発話試行」の解読に焦点を当てていました。そのようなシステムでは、個人が物理的に発声しようと試み、発話に関連する筋肉を動かし、BCIがその結果生じる脳活動を解釈します。これは効果的であるものの、筋肉の制御が限られている人々にとっては、身体的に負担が大きく、疲労困憊する可能性があります。しかし、この新しい研究は、「内言」—私たちが物理的な発語なしに心の中で形成する無言の思考—に直接踏み込み、より負担が少なく、より自然なコミュニケーション形式を提供する可能性があります。

この画期的な成果を達成するために、スタンフォードのチームは、随意運動、特に発話に関わる複雑な動作の制御を担う脳領域である運動野の脳活動を正確に記録しました。4人の参加者には、この領域に微小電極が外科的に埋め込まれ、高感度かつ詳細なデータ収集が可能となりました。

分析の結果、発話試行と想像された発話に関連する脳パターンは、同一ではないものの、 significant な類似点を共有していることが明らかになりました。これらの知見を活用し、研究者たちは高度なAIモデルを訓練して、想像された発話の微妙な信号を解釈させました。この洗練されたシステムは、最大125,000語という広範な語彙から文章を解読でき、74%のピーク精度を達成しました。驚くべきことに、このシステムは、参加者がタスク中に黙って数えた数字のような、促されていない内言さえも拾い上げ、自発的な認知にアクセスする可能性を示しました。

プライバシーに対する深い影響を認識し、チームはBCIにパスワード制御メカニズムを統合しました。この機能により、システムは参加者が特定のパスフレーズを意図的に考えた場合にのみ内言を解読します。あるテストでは、「chitty chitty bang bang」というパスフレーズをシステムが98%以上の精度で認識しました。この安全策は、意図しない思考の露出に関する潜在的な懸念に対処します。

74%の精度はかなりのものですが、それでもかなりの数のエラーを意味します。しかし、研究者たちは将来の改善について非常に楽観的です。彼らは、記録装置の進歩とより洗練されたアルゴリズムがパフォーマンスを大幅に向上させると予測しています。

スタンフォード大学電気工学の大学院生であり、この研究の筆頭著者の一人であるエリン・クンツは、この画期的な成果の重要性を強調しました。「私たちがただ話すことを考えているときの脳活動がどのようなものか、理解できたのはこれが初めてです」とクンツは述べました。「重度の発話および運動障害を持つ人々にとって、内言を解読できるBCIは、彼らがはるかに簡単かつ自然にコミュニケーションをとるのに役立つでしょう。」

スタンフォード大学神経外科の助教授であり、もう一人の筆頭著者であるフランク・ウィレットもこの感情に共鳴し、BCIの未来に深い希望を表明しました。「BCIの未来は明るいです」とウィレットは断言しました。「この研究は、発話BCIがいつか、会話のように流暢で自然で快適なコミュニケーションを回復できるという真の希望を与えてくれます。」

この画期的な研究は、話す能力を失った人々が、身体的な努力ではなく、自分自身の心の静かな力によって再び「声」を取り戻す未来への極めて重要な一歩を表しており、人間とコンピューターの相互作用に新たな次元をもたらします。