AIによるパークランド事件犠牲者インタビュー、倫理的議論を呼ぶ
「唯一無二のインタビュー」と宣伝されたものは、むしろメディア界全体で熱烈な議論を巻き起こし、人工知能時代の新たな、不穏な章を刻む可能性を秘めている。元CNNアンカーで現在Substackプログラムを主催するジム・アコスタ氏は、2018年にフロリダ州パークランドのマージョリー・ストーンマン・ダグラス高校で発生した銃乱射事件で悲劇的に命を落とした17歳のホアキン・オリバーのAI生成された肖像とのテレビ対談を行った後、この論争の中心に立つことになった。
このインタビューは、ホアキンの両親からの明確な要請を受けて放送され、息子の記憶を保存し、銃暴力に対する彼の情熱的なメッセージを増幅させるための感動的な取り組みとして構想された。しかし、このセグメントは、政治的スペクトラムを越えて視聴者から広範な非難を浴び、搾取的で感情を操作するものであり、ジャーナリズムにとって危険な前例となると批判された。
アコスタ氏は8月4日にX(旧Twitter)でこのセグメントを初めて予告し、「ホアキン・オリバーとのインタビュー」を特集する番組に視聴者を招待した。「彼は2018年のパークランドの学校銃乱射事件で亡くなった。しかし、彼の両親は銃暴力に関する強力なメッセージを伝えるために、息子のAIバージョンを作成した。」クリップの中で、アコスタ氏はAIアバターに質問を投げかけた。「ホアキン、銃暴力に対するあなたの解決策は何だと思いますか?」AIは「より厳格な銃規制法、メンタルヘルスサポート、コミュニティ参加の組み合わせ」を提案し、「会話とつながりのための安全な場所」と「優しさと理解の文化を築くこと」の必要性を強調する包括的な回答をした。驚くべきことに、アバターは次にアコスタ氏に彼の考えを尋ね、彼は「それは素晴らしいアイデアだと思います」と答えた。
このプロモーションツイートはすぐに約400万回再生されたが、同時に批判の嵐を巻き起こした。ユーザーは、アコスタ氏が倫理的境界を越え、亡くなった子供のデジタル肖像を利用して政治的アジェンダを進めようとしていると非難した。コメントは、「ジム・アコスタは新たな低みに達した…銃規制を推進するために死んだ子供のAIバージョンとインタビューするなんて!!!」から、「なんだこれ?これは病気すぎる」や「これは私が人生で見た中で最も奇妙なことの一つだ」まで多岐にわたった。反発は非常に激しく、アコスタ氏は最終的にツイートへの返信を無効にした。
メディア業界内でも、このセグメントは厳しい非難を浴びた。ジャーナリストのグレン・グリーンウォルドは、このインタビューが引き起こした「イデオロギーを超えた嫌悪感」を強調し、AIが「人間性を凌駕すること、ずる賢いメディアによる搾取、[そして]偽のビデオを作成する能力」に関する懸念を指摘した。これらの批判は、信頼、倫理、そしてAIを故人の代弁者として使用することの深い意味に関する根本的な問題を浮き彫りにしている。批評家は、このような応用が前例のない操作への道を開く可能性があると懸念しており、政治団体が中絶に反対するために胎児のAIアバターを作成したり、企業が有名人の死後の推薦を生成したりするシナリオを想定している。核心的な問題は、社会がメディアやアドボカシーにおける生成AIの倫理的な地雷原をどのように乗り越えるかにある。
高まる怒りに対し、アコスタ氏は、この構想がホアキンの両親であるマヌエルとパトリシア・オリバーから直接生まれたものであることを強調して自身の決定を擁護した。その後のツイートで、アコスタ氏は「ホアキン、グアックとして知られる彼は、今日で25歳になるはずだった。彼の父親が私にこの話をするよう持ちかけてきた…息子の記憶を生き続けさせるために」と投稿した。彼は、マヌエル・オリバーが感情的に説明するビデオにリンクした。「私はマヌエル・オリバーです。ホアキン・オリバーの父です…私たちは友人のジム・アコスタに息子とのインタビューを依頼しました。なぜなら、今、AIのおかげで、彼を呼び戻すことができるからです。これは私たちのアイデアでした。」オリバーは続けて、「ホアキンには言いたいことがたくさんあると感じています。そして、私たちにそのことを皆さんに伝える選択肢がある限り、それを使います」と断言した。アコスタ氏は視聴者に父親のビデオを見るよう促し、両親の願いが重要な背景を提供し、尊重されるべきであることを示唆した。
両親の心からの意図にかかわらず、このインタビューはより広範な文化的再考を促した。一部の人々にとっては、それは失われた愛する人を偲ぶための、型破りではあるが感動的な技術の応用を表している。しかし、他の多くの人々にとっては、それは現実とシミュレーションの間の深く不快な境界線の曖昧化を意味し、故人の非人間化のリスクを冒し、個人的な悲劇をアルゴリズムによってレンダリングされた活動に変えてしまう。この出来事は、これがデジタル追悼における新たな常態を画するのか、それとも社会がAIの使用に関する明確な倫理的境界を確立することを強制する決定的な瞬間となるのかについて、批判的な検討を迫っている。