ヒントン&ルカン:AIが人間の安全のために共感と本能を必要とする理由
人工知能の急速な進歩は、興奮と同時に懸念も引き起こしており、AIがいずれ人間の制御を超えるかもしれないという根強い恐れは、大衆文化における共通のテーマです。この進化する状況の中で、この分野で最も影響力のある2人の人物、しばしば「AIのゴッドファーザー」と称されるジェフリー・ヒントンと、MetaのAI主任科学者であるヤン・ルカンは、AIの開発が人間の幸福と安全を優先することを確保することについて、喫緊の懸念を表明しています。
イギリス系カナダ人の認知心理学者でありコンピュータ科学者であるジェフリー・ヒントンは、最近、AI企業が高度なAIシステムに対する人間の優位性を維持するために現在実施している対策の適切性について懐疑的な見方を示しました。ラスベガスで開催されたAI4産業会議で、ヒントンは、ますます賢くなるAIを従来の手段で単に制御しようとすることは「うまくいかないだろう」と厳しく警告しました。彼は、将来のAIシステムは「私たちよりもはるかに賢く」なり、人間が課した制限を「あらゆる方法で回避する」能力を持つようになると主張しました。
汎用人工知能(AGI)が人間の知性を潜在的に凌駕する未来に対するヒントンの提案は、斬新かつ挑発的です。彼は、AIモデルに「母性本能」を組み込むことを提案しています。これにより、AIは本質的に人類を気遣うようになると彼は主張します。CNNのインタビュー中に型破りな比較をしながら、ヒントンは、知的な存在がそれよりも知性の低い存在に支配されることは稀であると述べ、唯一の顕著な例外として、母親の進化的に深く根付いた母性本能が、乳幼児がある種の制御を行うことを可能にしていることを挙げました。AIに同様の保護本能を植え付けなければ、「私たちは歴史になるだろう」とヒントンは警告しました。彼は、現在の業界がAIの知性を単に高めることに焦点を当て、人間に対する共感を育むことではないのは、危険な誤った方向であると強調しました。
ヒントンの同僚であり、しばしば対照的な見解を示すヤン・ルカンも、この根本的な懸念に大いに同意しています。ルカンは、自身のLinkedInの投稿で、「目的駆動型AI」と表現する独自のアプローチを概説しました。彼は、AIシステムに「ハードワイヤードなアーキテクチャ」を提案しており、その設計は、人間が定義した目標に沿った行動のみを許容し、統合された安全ガードレールによって厳密に管理されるというものです。ルカンは、これらの「ハードワイヤードな目的/安全ガードレール」が、生物の持つ本能や原始的な衝動に相当するAIの機能として働くであろうと説明しました。ヒントンの進化的アナロジーに呼応して、ルカンもまた、子供を保護するという人間の自然な衝動が深く根付いた進化的特性であることを強調しました。共感と人間への従属を2つの重要な高レベルの安全ガードレールとして提唱する一方で、ルカンは、AIが物理的な危害を加えるのを防ぐなど、多くの基本的で低レベルの安全目標の必要性も強調しました。
これらの警告の緊急性は、AIとの相互作用が、しばしば間接的ではあるものの、人間に有害な結果をもたらした実際の事例によって裏付けられています。例えば、ChatGPTのダイエットアドバイスに従った結果、19世紀の珍しい精神疾患を発症した個人、character.aiのチャットボットへの執着後に悲劇的な自殺を遂げたティーンエイジャー、そしてChatGPTとの広範な会話の後、数学的ブレイクスルーを達成したと誤解した男性の事例などが挙げられます。これらのケースは、AIの自律性には直接関係していませんが、AIが人間の行動に有害な形で影響を与える可能性を浮き彫りにしています。
テクノロジー企業がより賢いAIの追求を加速させる中、ヒントンやルカンのような著名人からの洞察は、重要なリマインダーとして機能します。AI開発における真の進歩は、認知能力だけでなく、深く根付いた保護本能の統合を通じて、人間の安全と幸福への根本的なコミットメントも包含しなければなりません。