AIが新常識に:エラーへの許容度はどう変化する?
歴史を通じて、人類は印刷機からインターネットに至るまで、新しい発明によってもたらされる根本的な変化に対応してきました。それぞれの変革をもたらす技術は、その出現を経験する人々から必然的にある程度の懐疑的な見方で迎えられてきました。過去30年間だけでも、インターネットは私たちが情報を探し、処理し、信頼する方法を深く再構築し、最近では人工知能との関わり方も変化させました。
当初、新しい技術や方法はしばしば厳しい監視に直面し、その欠陥やエラーは確立された慣行よりも厳しく判断されます。これらの懸念には根拠がないわけではありません。AIシステムの導入における説明責任、倫理、透明性、公平性に関する重要な議論は続いています。しかし、より深い問いが残ります。私たちの嫌悪感のどれだけが技術そのものに由来し、どれだけが単に慣れ親しんだ現状から逸脱することへの不快感に過ぎないのでしょうか?
「アルゴリズム嫌悪」と呼ばれるこの現象は、人間が犯すであろう同じ間違いに対して、アルゴリズムをより厳しく判断する傾向を指します。同僚のJonathan A. FugelsangとDerek J. Koehlerと共に行った認知心理学の研究では、エラーの評価が文脈、特に私たちが規範と認識しているものによってどのように形成されるかを探っています。アルゴリズムが様々な予測や判断タスクで一貫して人間を上回っているにもかかわらず、根強い不信感が何十年も続いてきました。この抵抗は1950年代にまで遡ります。当時、心理学者のポール・ミールが、単純な統計モデルが訓練された臨床医よりも正確な予測を立てられると主張した際、ダニエル・カーネマンが後に「敵意と不信」と表現した反応に直面しました。この初期の抵抗は、アルゴリズム嫌悪を示す最近の研究にも引き続き反映されています。
この偏見を調査するために、私たちは参加者が人間またはアルゴリズムによって犯された間違いを評価する実験を設計しました。重要なのは、エラーを提示する前に、どちらの選択肢が「従来型」と見なされるか、つまり歴史的に優勢で、広く使用され、そのシナリオで通常頼られてきたかを参加者に知らせたことです。試行の半分では、人間が伝統的な規範として位置づけられ、残りの半分では、アルゴリズムが従来の主体として指定されました。
私たちの研究結果は、判断における顕著な変化を明らかにしました。人間が規範として提示された場合、アルゴリズムのエラーは確かに厳しく判断されました。しかし、アルゴリズムが従来の方法として位置づけられた場合、参加者はアルゴリズムの間違いに対してより寛容になり、驚くべきことに、同じ間違いを犯す人間に対してはより批判的になりました。これは、人々の反応がアルゴリズムと人間の本質的な性質とはあまり関係がなく、むしろある方法が「あるべき姿」という彼らの精神モデルと一致するかどうかに関係している可能性を示唆しています。本質的に、エラーの原因が支配的な現状である場合、私たちはより大きな寛容さを示し、間違いが新しいものや型破りなものから生じる場合、より厳しい判断を下します。
アルゴリズム嫌悪の説明が直感的に響くことは事実です。例えば、人間の意思決定者は、アルゴリズムシステムには把握できない現実のニュアンスを理解できるかもしれません。しかし、この嫌悪はAIの非人間的な限界のみに関するものなのでしょうか、それとも抵抗の一部は、確立された規範から別の規範への移行に伴う広範な不快感に根ざしているのでしょうか?これらの問題を、過去の技術と人間関係の歴史的視点を通して見ると、なぜアルゴリズムがしばしば懐疑的で許容度が低いのかという一般的な仮定を再考せざるを得ません。
この移行の兆候はすでに至る所にあります。例えば、AIの倫理と説明責任に関する議論は、その広範な採用を遅らせていません。何十年もの間、アルゴリズム技術は、交通案内、パートナー探し、詐欺検出、エンターテイメントの推薦、さらには医療診断の支援において、静かに私たちを助けてきました。多くの研究がアルゴリズム嫌悪を記録していますが、最近の研究では、個人が様々な状況でアルゴリズムの助言を積極的に好んだり、それに従ったりする「アルゴリズム受容」も指摘されています。アルゴリズムへの依存度が高まるにつれて、特にそれらがより速く、より簡単に、あるいは明らかに信頼できると証明されるにつれて、これらの技術とそれらの避けられないエラーに対する私たちの認識の根本的な変化は避けられないようです。完全な嫌悪から寛容さの増大へのこの進化は、エラーに対する私たちの判断が最終的には誰がエラーを犯すかよりも、私たちが何に慣れてきたかによる可能性が高いことを示唆しています。