AGIの定義がマイクロソフトとOpenAIの巨額契約を揺るがす
マイクロソフトとOpenAIの数十億ドル規模の提携は、汎用人工知能(AGI)の曖昧な定義を巡って、大幅な再交渉が行われていると報じられています。現在の契約は、報じられているところによると137.5億ドルと評価され、マイクロソフトにOpenAIのモデルに対する権利を2030年まで、またはOpenAIがAGIを達成したと宣言するまで与えています。この条項はかつては理論的なものに過ぎませんでしたが、AGIがサイエンスフィクションから具体的な可能性へと移行するにつれて、重要な法的境界線となっています。
もしOpenAIが現在の契約条件の下でAGIの達成を宣言した場合、マイクロソフトは、その将来の戦略の大部分が依存している基盤技術へのアクセスを失うリスクを負います。これには、Azureクラウドプラットフォーム、Officeソフトウェアスイート、GitHub開発ツール、そしてCopilotの生成AIへの野心といった主要な製品やイニシアチブが含まれます。この莫大な利害関係が、これら2つのAI大手の間で集中的な議論を促しています。
ブルームバーグやTechCrunchの報道によると、マイクロソフトはAGI達成後もOpenAIの技術への継続的なアクセスを確保しようとしており、OpenAIへのより大きな株式取得(噂では30%台前半から半ばの範囲)を通じてこれを実現する可能性があります。一方、OpenAIはより大きな自律性を求めています。これには、モデルの販売方法や場所に関する制限の緩和、マイクロソフトによる自社技術の展開に対するより厳格な管理、そしてより大きな収益シェアが含まれます。
さらに複雑なことに、OpenAIは完全に商業的な構造への移行も進めています。現在は、投資家へのリターンを制限するために設計された、利益制限付きの会社を統治する非営利団体として運営されていますが、IPOの噂や莫大なインフラ需要の中で、この構造は持続不可能であるとますます見なされています。
交渉には摩擦がなかったわけではありません。マイクロソフトはOpenAIによる一部の買収試みを阻止したと報じられており、これはマイクロソフト自身のAIへの野心の拡大を示唆しています。DeepMindとInflection AIの共同創設者であるムスタファ・スレイマンが現在マイクロソフトAIを率いていることから、同社はOpenAIに対するヘッジ、あるいは直接競合する可能性のある位置づけをしているようです。さらに事態を複雑にしているのは、OpenAIがマイクロソフトが提供できる以上の追加の計算リソースを求めており、GoogleやOracleなどの他のプロバイダーとの潜在的な取引を模索していると報じられていることです。これは、囲い込まれることを避けたいという願望を示しています。
これらの高利害な議論の中心にあるのは、AGIに対する明確で普遍的に受け入れられた定義の欠如です。彼らの合意の目的のために、マイクロソフトとOpenAIは相互に合意できる標準に到達しなければなりません。業界の議論で頻繁に引用されるあるベンチマークでは、AGIを、経済的に価値のあるほとんどの仕事で人間を上回ることができるAIと定義しています。
しかし、そのような定義の実践的な適用は依然として課題です。より広範なAI業界で注目を集めている新たな概念は、AI安全研究者でありAnthropicの共同創設者であるベン・マンが提案した「経済的チューリングテスト」です。Lenny’s Podcastで述べられたように、このテストは、AIエージェントが1〜3ヶ月間仕事をこなし、雇用主がそれが機械であると気づかずに人間よりも採用された場合、そのAIはテストに合格したと示唆します。これをさらに拡張して、マンは、AIが「金銭的に重み付けされた」仕事の50%でこのテストに合格した場合、それは変革的AIの到来を意味し、GDP成長の大幅な増加につながる可能性があると示唆しています。マンは、これが早ければ2027年か2028年に起こりうると予測しています。
AGIの定義は役員室や研究室でまだ議論されていますが、一部の観察者は、AGIレベルのパフォーマンスがすでに経済に微妙な影響を与えている可能性があると示唆しています。個人がAIを利用して職務評価を完了させたり、採用ワークフローを不正に利用したり、実際の仕事を裏でAIエージェントにオフロードしたりする事例は、雇用主が知らず知らずのうちにAIを雇用または利用している例として挙げられており、これは経済的チューリングテストの奇妙なひねりと言えます。
これらの複雑な交渉は、AGIの潜在的な出現が、世界の最も影響力のある2つのテクノロジー企業の将来だけでなく、より広範な経済、そして人間が行う仕事の定義そのものに与える深い影響を浮き彫りにします。