AIの未来:産業界、学術界、政府が科学的発見のために連携

Datanami

Trillion Parameter ConsortiumのTPC25会議が最近、カリフォルニア州サンノゼで開催され、産業界、学術界、政府のリーダーたちが一堂に会し、AIの未来、特に科学技術計算への応用について議論しました。最近のAIの進歩の多くは、大規模な民間テクノロジー企業によって推進されてきましたが、この会議では、これらの進歩をより広範な科学的発見に活用し、米国と人類の両方に利益をもたらすための共同の取り組みが強調されました。

7月30日には、ミシガン大学のKarthik Duraisamyが司会を務めるパネルディスカッションが開催され、様々なステークホルダーがどのように協力してAIを科学的ブレークスルーに活用できるかを探りました。パネリストには、エネルギー省(DOE)、量子コンピューティングプラットフォーム開発者、データ管理ソリューションプロバイダー、国立科学財団(NSF)、Intel Labsの代表者が含まれていました。

DOEの計算科学研究・パートナーシップ部門のディレクターであるHal Finkelは、AIに対する同省の深く長年にわたるコミットメントを強調しました。「DOEのすべての部門がAIに極めて重要な関心を持っています」とFinkelは述べ、この分野への多大な投資を指摘しました。彼は、DOEが核融合エネルギーや超伝導体から、高度なロボット工学やフォトニクスに至るまで、多様な分野で科学的生産性を加速するためにAIをどのように探求しているかを詳述しました。Finkelは、国立研究所のエクサスケールシステムを含むDOEの広範なスーパーコンピューティングの専門知識と、AIテストベッドやニューロモルフィックコンピューティングのような新興技術への投資を強調しました。後者は、エッジAIアプリケーションや組み込み実験システムに対してより高いエネルギー効率を約束します。

量子コンピューティングプラットフォーム開発者であるQuantinuumの事業開発担当エグゼクティブであるVishal Shrotriyaは、量子コンピューターがAIアルゴリズムと統合され、材料科学、物理学、化学における複雑な計算問題を解決する未来を envisionしました。Shrotriyaは、量子コンピューターが小型分子の正確なシミュレーションと新しい合成データの生成を可能にすることで、分子科学に革命をもたらす可能性があると示唆しました。この合成データはAIモデルにフィードバックされ、強力なフィードバックループを作成し、科学的発見とイノベーション、特に医薬品開発のような分野で、試行錯誤の方法を超えて分子相互作用の正確な計算へと加速させることができます。

Molly Presley、Hammerspaceのグローバルマーケティング責任者は、AIエコシステムにおけるデータの極めて重要な役割を強調しました。彼女は、データが不可欠である一方で、その配布とアクセス可能性が不均一であることを指摘しました。Hammerspaceは、データの人間による理解と物理的な実体との間のギャップを埋め、より広範なアクセスを促進することを目指しています。Presleyは、特にデータアクセスとメタデータ定義における業界標準の重要性を強調しました。彼女は、自身のポッドキャスト「Data Unchained」で繰り返し取り上げられるテーマが、ゲノミクス、高性能コンピューティング(HPC)、金融サービスなど、異なる科学分野間での標準化されたメタデータの欠如であると述べました。Presleyは、TPC25のようなコンピューティングコミュニティが、ワークフローや場所を越えてメタデータが標準化され、検索可能であることを保証するために、この課題に対処するのに最も適した立場にあると示唆しました。

国立科学財団(NSF)の先進サイバーインフラストラクチャオフィスディレクターであり、ローレンス・バークレー国立研究所の職員でもあるKatie Antypasは、人材育成を重要な課題として強調しました。彼女は、次世代のAI人材を育成するために、業界パートナーシップと連邦政府からの投資が必要であることを強調しました。Antypasは、この取り組みにおける主要なイニシアチブとして、National Artificial Intelligence Research Resource(NAIRR)プロジェクトを挙げ、全国およびすべての分野の研究者が重要なAIリソースにアクセスできるようにし、最大手のテクノロジー企業を超えて健全なAIイノベーションエコシステムを育成することを目指しています。

Intel Labsのインテルシニアフェローであり、Parallel Computing LabのディレクターであるPradeep Dubeyは、AIスタック内のいくつかの課題について議論しました。彼は、アルゴリズムレベルでの根本的な対立を特定しました。それは、高度な能力と信頼性を兼ね備えたモデルを開発することです。Dubeyはまた、AIモデルにおける「幻覚」の問題にも言及し、それはバグではなく、AIの現在の能力に貢献する固有の特性であると示唆しました。彼はまた、低レベルのGPUプログラミングインターフェースに限定されるのではなく、MATLABのような高レベルのプログラミング環境を好む非コーダーにAIをアクセス可能にするという課題も指摘しました。

しかし、TPC25で繰り返し議論された最も喫緊の課題は、差し迫った電力不足でした。Dubeyは、大規模なAIファクトリーを稼働させるための膨大なエネルギー需要が、利用可能なリソースを圧倒する可能性があると警告しました。彼は、大規模なAIシステムにおけるエネルギーの大部分(30〜40%、潜在的には70〜80%に増加する可能性)が計算ではなくデータ移動によって消費されており、エネルギー使用の非効率性につながっていると指摘しました。

アルゴリズムの複雑さや人材育成から、データの標準化やエネルギー消費に至るまで、これらの課題に対処することは、コンピューティングコミュニティがAIの可能性を最大限に活用し、科学的発見を推進するために不可欠です。DOEのHal Finkelが結論付けたように、政府、国立研究所、産業界、大学といったすべてのステークホルダー間の協力と理解を促進する、広範で集約された関心とコミュニティ主導の努力は、この共有されたAIの未来にとって不可欠です。