LLMエージェント搭載AIラボ、抗ウイルス分子を発見
科学研究における人工知能の重要な進歩として、GPT-4oを搭載した自律型AIエージェントのチームが、SARS-CoV-2を阻害できるナノボディの開発と実験的検証に成功しました。スタンフォード大学とチャン・ザッカーバーグ・バイオハブの研究者らが『ネイチャー』誌に発表したこの画期的な論文は、AIがデータ分析やシミュレーションを超え、複雑な科学プロジェクトを積極的に主導・実行し、具体的で臨床的に関連する成果を生み出す新時代の幕開けを告げるものです。
「バーチャルラボ」と名付けられたこの新しいシステムは、人間研究者が大規模言語モデル(LLM)エージェントのチームと協力することで、新しいナノボディ(他のタンパク質に結合してその機能を阻害するように設計された、小さな抗体様のタンパク質)を設計できることを示しています。特に対処された課題は、KP.3やJN.1など、既存の治療法に耐性を持つ急速に変異するSARS-CoV-2変異株を標的とすることでした。これは単純なチャットボットとのやり取りではなく、専門知識と明確な役割を持つAIエージェントによって推進される、複雑で多段階の研究プロセスでした。その結果、疾患治療における下流研究の可能性を秘めた、実世界で検証された生物学的分子が生まれました。
アシスタントから自律型研究者へ
LLMが主に要約、執筆支援、基本的なデータ分析のツールとして使われていた従来のアプリケーションとは異なり、バーチャルラボではLLMが自律型研究者へと昇格します。その核心となる概念は、AIエージェントのみで構成される学際的な科学ラボをシミュレートすることです。各エージェントはGPT-4oからインスタンス化され、綿密なプロンプトエンジニアリングを通じて、免疫学者、計算生物学者、機械学習スペシャリストといった特定の科学的ペルソナが割り当てられます。
チームは仮想の主任研究者(PI)エージェントと科学評論家エージェントによって監督されます。PIエージェントは研究の方向性を主導し、評論家エージェントは仮説に異議を唱え、潜在的なエラーを特定することで、内部の懐疑的なレビュー担当者として重要な役割を果たします。論文では、この機能がプロジェクトの成功に不可欠であると強調されています。人間研究者の役割は、高レベルの研究課題を定義し、ドメイン固有の制約を導入し、最終的にAIの計算出力を検証するために必要なウェットラボ実験を実施することです。
ナノボディ設計プロセス
進化したSARS-CoV-2変異株に対するナノボディ設計という課題に直面し、AIエージェントは、祖先株には有効だったものの効果を失っていた既存のナノボディを変異させることを自律的に決定しました。この決定は、より迅速なタイムラインと既存の構造データの利用可能性という可能性によって推進されました。
人間研究者は、PIエージェントと評論家エージェントのみを定義することでプロジェクトを開始しました。その後、PIエージェントは専門の科学チームを編成し、免疫学者、機械学習スペシャリスト、計算生物学者を生み出しました。共同チーム会議で、エージェントたちは最適なアプローチについて議論し、最終的にde novo設計ではなくナノボディ変異を選択しました。次に、点変異のスコアリングにESMタンパク質言語モデル、タンパク質構造予測にAlphaFold-Multimer、結合エネルギー計算にRosettaを含む計算ツールを選択しました。エージェントたちはPythonコードを使用して戦略を実装することを決定し、このコードは非同期会議中に評論家エージェントによる複数のレビューと改良のラウンドを受けました。
PIエージェントによって考案された計算パイプラインは反復的でした。ESMがナノボディ配列上の点変異をスコアリングし、上位の変異体の構造がAlphaFold-Multimerによって予測され、界面がipLDDTを使用してスコアリングされ、Rosettaが結合エネルギーを推定しました。これらのスコアはその後組み合わされ、提案された変異がランク付けされ、必要に応じてさらに変異を導入するためにサイクルが繰り返されました。
結果と効率
この洗練された計算パイプラインは、92のナノボディ配列を生成しました。これらはその後、物理的なラボで合成され、実験的にテストされました。結果は有望でした。生成された配列のほとんどが生産可能で管理しやすいタンパク質であることが証明されました。決定的に重要なのは、これらのタンパク質のうち2つが、設計されたSARS-CoV-2タンパク質に対する親和性を獲得し、現代の変異体とウイルスの祖先型の両方に対して有効性を示したことです。
バーチャルラボが達成した成功率は、人間のチームによって実施された類似のプロジェクトの成功率に匹敵しました。しかし、AI駆動型のアプローチは、完了に必要な時間を大幅に短縮し、人間の関与が減少したため、全体的なコストを削減する可能性を秘めています。
人間との協業を模倣する
バーチャルラボの運用モデルは、人間の科学的協力と密接に類似しています。構造化された学際的な会議を利用します。「チーム会議」は広範な議論のためで、PIが主導し、他のメンバーが貢献し、評論家がレビューします。また、「個別会議」では、単一のエージェント(時には評論家と共に)がコーディングや出力の採点といった特定のタスクに集中します。AIの「幻覚」や矛盾などの問題を軽減するために、システムは同じタスクを異なるパラメータで複数回実行する並行会議も採用しています。その後、結果は単一の、より決定論的な「マージ会議」で統合され、最も一貫性のある結論が導き出されます。
人間の労力という点では、プロジェクトの計算フェーズでは、直接的な人間の介入は驚くほど少なかったです。LLMエージェントが総単語数(12万トークン以上)の98.7%を執筆し、人間研究者の貢献はプロジェクト全体でわずか1,596語でした。エージェントが計算ツールのすべてのスクリプトを記述し、人間は主にコードの実行と実世界での実験を促進しました。バーチャルラボのパイプライン全体は、プロンプトと会議から1〜2日以内に確立され、ナノボディ設計の計算は約1週間で完了しました。
自律科学の未来
バーチャルラボは、計算タスクが自動化され、人間が重要な意思決定と高レベルのガイダンスに集中できる、根本的に新しい研究パラダイムのプロトタイプです。これは、LLMが受動的なツールから、構想から実装まで複雑な学際的プロジェクトを推進できる、能動的で自律的な共同作業者へと移行することを示しています。
このモデルの次の野心的なフロンティアは、ロボット実験室技術者によるウェットラボ実験の自動化です。完全に自律的な研究パイプラインを想像してみてください。人間のPIが高レベルの生物学的目標を定義し、AIエージェントのチームが既存の情報を調査し、アイデアをブレインストーミングし、計算ツールを選択し、コードを記述・実行し、実験を提案します。次に、ロボット実験室技術者が物理的なプロトコル(ピペッティング、遠心分離、イメージング、データ収集)を実行します。最後に、結果はバーチャルラボに戻され、AIエージェントが分析、適応、反復を行い、発見のループを閉じます。
ロボット生物学ラボはすでに開発が進んでおり、Emerald Cloud Lab、Strateos、Colabra(旧Transcriptic)などの企業が「ウェットラボ・アズ・ア・サービス」を提供しています。Future Houseのような非営利団体は自動化された研究のためのAIエージェントを構築しており、一部の学術機関は自律型化学ラボを保有しています。知的なAIとロボット自動化のこの統合は、科学技術の進歩を根本的に変革する可能性があります。このようなシステムは、疲労することなく24時間年中無休で稼働し、何千もの並行するマイクロ実験を実施し、人間が現在のラボでは実現不可能な広大な仮説空間を迅速に探索することができます。
課題は依然として残っています。現実世界の科学は本質的に複雑であり、ロボットプロトコルは非常に堅牢でなければならず、予期せぬエラーには依然として人間の判断が必要です。しかし、AIとロボット工学の継続的な進化は、これらのギャップを縮めることが期待されています。この発展は、人工知能の能力における深遠な変化を強調しており、反復的な物理的タスクを支援するだけでなく、人類の最も知的に要求の厳しい努力の一部で優位に立つ能力を示し、AIがますます問い、議論し、決定し、最終的に発見する時代を到来させるでしょう。