ヒントン氏:人類保護のためAIに「育む本能」を設計せよ

Decoder

人工知能の安全性に関する現在の議論において、広く「AIのゴッドファーザー」として認識されているジェフリー・ヒントン氏は、根本的に新しいアプローチを提唱しています。それは、将来のAIシステムに人類を保護するための固有の「育む本能」を設計するというものです。ラスベガスで開催されたAi4会議で、ヒントン氏は、高度に発達したAIシステムを永久に人間に従属させようとする従来の戦略は、これらの機械が必然的に人間の知能を凌駕するため、最終的には維持不可能であると主張しました。

代わりにヒントン氏は、人間が超知能AIと、まるで子供が母親と関係するように相互作用する、異なる関係ダイナミクスを提案しています。このビジョンは、AIがより有能な存在である一方で、人類に対する深いケアと保護の感覚を植え付けられることを意味します。彼はさらに、逆説的に、知能が劣る存在がより賢い存在を導くことができるという微妙な視点も提示しました。これは、子供が親に影響を与えるのとよく似ています。ヒントン氏にとって、AI研究の焦点は、単に機械をより賢くするだけでなく、それらをより思いやりのあるものにし、彼らの「赤ちゃん」である人類の世話をできるように優先すべきです。彼は、すべての国がAIが自国民を支援し、排除しないことを望んでいるため、このアプローチが真の国際協力の可能性を秘めていると信じています。ヒントン氏が最近Googleを退社したのは、AIがもたらす潜在的なリスクについてよりオープンに話すことを可能にするためでした。

この視点は、Metaの主任AI科学者であるヤン・ルカン氏が提唱する同様のアイデアと共鳴しています。ルカン氏は、ヒントン氏の提案を、彼が長年擁護してきたアプローチの簡略版と表現しました。ルカン氏は「目標駆動型AI」を提唱しており、これは、厳格な「ガードレール」によって強制される特定の、事前に定義された目標に貢献する場合にのみ行動を許可する、ハードコードされたアーキテクチャでシステムが設計されるものです。

ルカン氏が説明するには、これらのガードレールには、人間への従属や共感といった基本的な原則に加え、安全のために設計された多数の単純な低レベルのルールが含まれる可能性があります。例えば、「人をひかないこと」や「近くに人がいるときは腕を振り回さないこと、特に包丁を持っている場合は」といったルールです。ルカン氏は、これらのハードコードされた目標を、動物や人間に見られる本能や衝動に例えています。彼は、進化が、ケア、保護、そして時には子孫への敬意を促す親の本能を組み込む役割を果たしていることを指摘します。興味深い副次効果として、人間や他の多くの種は、他の種の無力な、あるいは「かわいい」生き物を保護し、友達になり、育てる傾向があります。たとえ、そうでなければ獲物と認識するかもしれない生物であってもです。

これら二人の著名なAI研究者が、AIシステムに慈悲深い「本能」を組み込むというアイデアで一致したことは、重要な概念的転換を示しています。これは、AIの巨大な知能が単に外部からの命令によって制御されるのではなく、設計されたケアと責任感によって本質的に導かれ、その力が人類の幸福を脅かすのではなく、奉仕することを保証する未来を示唆しています。