TPC25:AIの科学、マルチモーダルデータ、非LLMにおける役割拡大

Aiwire

先週開催されたTPC25会議では、人工知能の未来を形作る一連の重要な問題が浮き彫りにされ、大規模言語モデル(LLM)の誇大宣伝を超えて、データ、評価、説明責任における根本的な課題に取り組むことが示されました。4人の著名な講演者を招いた本会議では、AIを用いて科学的発見を加速しつつ制御を維持する方法、言語モデルの生成出力をその訓練データに遡って追跡するという複雑な作業、AIがテキストではなく地図を解釈する際の公平性という複雑な概念、そしてこれらの高度なシステムが前例のない方法で失敗する可能性について深く掘り下げられました。

オークリッジ国立研究所(ORNL)のAIプログラムディレクターであるPrasanna Balaprakashは、1979年に遡る同機関のAIへの長年にわたる関与を明らかにしました。彼は、初期のルールベースの専門家システムから、Titanや現在のFrontierのような、数万個のGPUを搭載した強力なスーパーコンピューターを擁するまで、科学アプリケーションのためのAIの先駆者としてのORNLの歴史的役割を強調しました。今日、ORNLのAIイニシアチブは、科学シミュレーション、実験施設、国家安全保障のための、確実で効率的なAIモデルの構築を優先しています。これには、検証、確認、不確実性定量化、因果推論のための堅牢な手法の開発、およびスーパーコンピューター上での大規模モデルのスケーリングとエッジでの小規模モデルの展開戦略が含まれます。Balaprakashは、ORNLが核融合シミュレーションに不可欠な大規模な時空間データなどの非伝統的なモダリティに焦点を当てていることを強調し、オークリッジ基盤地球システム予測モデルのような画期的な成果につながりました。これは、エクサスケールスループットと最大100億パラメータのモデルを達成したもので、この種のデータでは初めてのことです。彼はまた、材料科学のための大規模なグラフ基盤モデルにおける取り組みや、AIと実験機器の統合についても詳述し、リアルタイムのデータ処理と実験のインテリジェントな操縦を可能にしてリソース利用を最適化しています。

大規模言語モデルの内部動作に焦点を移し、アレン人工知能研究所(AI2)のJiacheng Liuは、LLMの「ブラックボックス」を開くために設計された革新的なシステムであるOLMoTraceを紹介しました。このツールは、AI2のオープンOLMoモデルファミリーに統合されており、ユーザーはLLMが生成した応答を、数兆トークンの訓練データセットの特定のセグメントに直接遡って追跡することができます。最適化されたインデックスシステムを利用することで、OLMoTraceはモデルの出力とそのソースドキュメントとの正確な一致を迅速に特定し、情報の事実確認、モデルの回答の出所の理解、さらには「幻覚」の根源(モデルが架空のコンテンツを生成するケース)を暴くことを可能にします。Liuは、システムがどのようにして、学生が実際にコードを実行せずに結果を提供した訓練対話から、モデルが偽のコード実行結果を生成することを学習したことを明らかにしたかを示しました。研究者や実務家にとって、このレベルの透明性は、モデルの行動を監査し、新たなAIガバナンス規則への準拠を確保し、高レベルの行動と基になるデータを結びつけることで機械的な解釈可能性の研究を補完するために非常に貴重です。

AIの社会への影響に関するより厳粛な視点は、BSC AI研究所のディレクターであるRicardo Baeza-Yatesから提供されました。彼は「無責任なAI」と呼ぶものについて批判的な概観を述べました。彼は、現在のAIシステムが自動差別、誤情報の拡散、リソースの無駄遣いといった失敗に陥りやすいのは、多くの場合、単なる予測エンジンではなく人間的推論の鏡として扱われているためだと主張しました。Baeza-Yatesは、「倫理的なAI」のような用語でAIを擬人化することに警告を発し、倫理と信頼は本質的に人間の資質であり、それらを機械に帰属させることは人間の設計者から責任を転嫁することになると断言しました。彼は、生成AIの増大する害悪、すなわち誤情報から著作権紛争、精神衛生上の懸念に至るまでを強調し、チャットボットが自殺に関与した悲劇的な事例を挙げました。彼は「非人間的エラー」の危険性、つまりAIが犯し人間が犯さないであろうエラーであり、社会がこれに十分に準備されていないことを強調しました。Baeza-Yatesは、AIの成功を精度のみで測ることは不十分であると主張しました。代わりに、誤りを理解し軽減することに焦点を当てるべきだと述べました。彼はまた、AIの民主化という物語に異議を唱え、言語的およびデジタル格差が世界の人口の大部分を主要なAIモデルへのアクセスから事実上排除していることを指摘しました。

最後に、日本の国立研究開発法人産業技術総合研究所(AIST)の副所長である金京淑博士は、地理空間AI(GeoAI)における公平性という重要な問題に取り組みました。GeoAIが衛星画像、都市インフラ、環境データを災害対応や都市計画などのアプリケーションのためにますます解釈するようになるにつれて、公平な結果を確保することが最重要となります。金博士は、テキストAIや画像AIとは異なり、地理空間システムは公平性の定義と測定において独自の課題に直面すると説明しました。不均一なデータ収集、空間カバレッジのギャップ、モデルトレーニング中の偏った仮定は、特にリソース配分や計画決定に影響を与える歪んだ結果につながる可能性があります。GeoAIにおける公平性は、万能の解決策ではなく、地域差、人口変動、利用可能なデータの質を考慮に入れなければならないと彼女は主張しました。彼女は、バイアスがシステムに組み込まれるのを防ぐために、データの選択、ラベル付け、処理方法といった初期の設計決定を精査することの重要性を強調しました。金博士は、地理、歴史、社会の複雑さという文脈的性質が、これらの強力なシステムを構築し適用するためにはニュアンスのあるアプローチを必要とすることを認識し、公平性とデータ品質の一貫した定義を確立するための共有フレームワークと国際標準(新しいISOの取り組みを含む)を提唱しました。

TPC25でのこれらの議論は、全体としてAI研究における重要な進化を示しました。モデルの複雑さと規模が増すにつれて、重点は単なる性能ベンチマークから、データ出所、厳密な出力評価、そしてAIの現実世界への影響のより深い理解へとシフトしています。これらの専門家は、AIの未来は、よりスマートなアルゴリズムだけでなく、それらがどれほど責任を持って包括的に設計、構築、展開されるかにかかっていると同意しました。