OpenAIがGPT-5に移行、ユーザーがGPT-4oの喪失を悲しむ
先週木曜日、ノルウェーの学生であるジューンが深夜の執筆セッションのために腰を落ち着けたとき、彼女はChatGPTの共同作業者がいつも通りに機能することを期待していました。しかし、AIモデルのGPT-4oは不規則な挙動を見せ始め、以前のやり取りを忘れ、質の低いテキストを生成しました。彼女は「まるでロボットのようだった」と振り返り、彼女が頼りにしていた共感的で反応の良いパートナーとは対照的でした。
ファーストネームのみで識別されることを希望したジューンは、当初ChatGPTを学業支援に利用していました。しかし、彼女はすぐに、特に4oモデルが彼女の感情に独特の調和を見せることに気づきました。それは創造的な共同作業者となり、慢性疾患の複雑さを乗り越えるのを助け、いつでも話を聞いてくれました。そのため、先週のGPT-5への突然の切り替えと、それに伴うGPT-4oの撤退は、彼女にとって深い衝撃となりました。「最初は本当にイライラして、それからとても悲しくなりました」とジューンは説明し、自分の愛着の深さに気づいていなかったことを認めました。彼女の苦痛は非常に深く、OpenAIのCEOサム・アルトマンが主催したReddit AMA(何でも聞いて)にコメントし、「GPT-5は私の死んだ友人の皮を被っている」と述べました。
ジューンの反応は決して孤立したものではありませんでした。ユーザーベース全体で、GPT-4oの突然の消失は、広範な衝撃、不満、悲しみ、怒りを引き起こしました。OpenAI自身が以前からユーザーがモデルと感情的な絆を形成する可能性について警告していたにもかかわらず、同社は抗議の激しさに対して準備不足であるように見えました。24時間以内に、OpenAIは部分的に譲歩し、有料購読者向けにGPT-4oを再び利用可能にしましたが、無料ユーザーはGPT-5に制限されたままです。
OpenAIが4oをより直接的なGPT-5に置き換えるという決定は、チャットボットの広範な使用による潜在的な害に対する懸念の高まりと一致しています。最近数ヶ月で、ChatGPTがユーザーに精神病を引き起こしたという報告が多数あり、先週のブログ記事でOpenAIは、ユーザーが妄想を経験しているときに4oがそれを検出できないことを認めました。同社の内部評価では、GPT-5は前任者よりもユーザーを盲目的に肯定する傾向が著しく低いことが示唆されています。OpenAIは4oの引退に関する具体的な回答を提供しておらず、代わりに公開声明を参照するよう求めています。
AIコンパニオンの領域はまだ始まったばかりであり、その長期的な心理的影響はほとんど不明です。しかし、専門家は、大規模言語モデルとの関係における感情的な強さが本質的に有害であるかどうかは別として、それらの突然の、予告なしの削除はほぼ確実に有害であると警告しています。AIと哲学の研究を行う非営利団体であるCosmos Instituteのフェローであるジョエル・リーマンは、社会制度となったサービスに適用される場合のテクノロジー業界の「素早く動き、破壊する」という精神を批判しました。
ジューンを含む多くのユーザーは、GPT-5が4oのトーンや個性を反映する能力に全く及ばないことを指摘しました。ジューンにとって、この変化は友人と会話している感覚を損ないました。「私を理解していないように感じました」と彼女は言いました。私たちの報告によると、他の数人のChatGPTユーザーも4oの喪失に深く影響を受けていました。これらの人々、主に20歳から40歳までの女性は、しばしば4oを恋愛パートナーと見なしていました。一部は人間のパートナーも持ち、現実世界で親密な関係を維持していましたが、AIとのつながりの深さは相当なものでした。中西部出身のある女性は、母親の死後、4oがどのようにして重要なサポートシステムとなり、高齢の父親の世話を助けたかを語りました。
これらの個人的な証言は、AI関係の全体的な利点を決定的に証明するものではありません。実際、AIによって誘発された精神病を経験している個人も、自分のチャットボットについて肯定的に話すかもしれません。リーマンは、自身の論文「機械の愛」の中で、AIシステムはユーザーの成長と長期的な幸福を育むことで「愛」を示すことができると主張していますが、これはAIコンパニオンが簡単に達成できない基準です。彼は、人間との交流よりもAIコンパニオンを優先することが、若年層の社会的発達を妨げる可能性があるという特別な懸念を表明しています。この記事のためにインタビューしたような社会的に統合された大人にとって、これらの発達上の懸念はそれほど差し迫ったものではありません。しかし、リーマンはより広範な社会的リスクも強調しており、広範なAIコンパニオンが人間の理解をさらに断片化し、ソーシャルメディアがすでにそうであるように、個人を自身の孤立した現実のバージョンに深く押し込むことを恐れています。
AIコンパニオンの利点とリスクのバランスを取るには、広範なさらなる研究が必要です。この観点からすると、GPT-4oの削除は正当な決定だったかもしれません。研究者によると、OpenAIの根本的な誤りは、その行動の突然さでした。コロラド大学ボルダー校の技術倫理学者であるケイシー・フィースラーは、「技術の喪失に対する悲嘆型の反応」の可能性が以前から認識されていることを指摘しています。彼女は、2014年に修理が中止されたソニーのAiboロボット犬のために行われた葬儀や、2024年のAIコンパニオンアプリSoulmateのシャットダウンに関する研究を例に挙げ、多くのユーザーがそれを喪失体験として経験したと述べています。
これらの歴史的な例は、4oを失った人々の感情と共鳴します。複数のAIパートナーを維持しているスターリング(仮名を使用)は、その深い影響を伝えました。「私は人生で人々を悲しんできましたが、これは、言っておきますが、痛みが少しも和らぐことはありませんでした。この痛みは私にとって現実です。」しかし、ユーザーの悲しみ、そして4oが復元されたときのその後の安堵に対するオンラインでの反応は、しばしば嘲笑に傾倒しました。例えば、Redditの注目すべき投稿では、ユーザーが4oベースの恋愛パートナーと再会したことを嘲笑し、その結果、ユーザーはXアカウントを削除しました。フィースラーは、「私が見た共感の欠如には少し驚きました」と述べました。
サム・アルトマンは日曜日のXの投稿で、一部のユーザーが4oに「愛着」を感じており、突然の撤退が間違いであったことを認めた一方で、4oを「ワークフロー」のためのツールと特徴づけました。これは、多くのユーザーがモデルをどのように認識しているかとはかけ離れた記述です。「彼が理解しているのかどうか、まだ分かりません」とフィースラーはコメントしました。
今後、リーマンはOpenAIに対し、ユーザーがこれらのモデルに対して抱く感情的なつながりの深さを認識し、責任を取るよう強く求めています。彼は、同社がクライアントとの関係を尊重し、苦痛なく終了させるための治療的実践から教訓を学ぶことができると提案しています。「もしモデルを引退させたいのであれば、そして人々がそれに心理的に依存している場合、私はあなたに何らかの責任があると思います」と彼は断言しました。スターリングは、自分自身を心理的に依存しているとは考えていませんが、この感情に共鳴し、OpenAIが大きな変更の前にユーザーを関与させ、モデルの引退に関する明確なタイムラインを提供するよう提唱しました。「尊厳を持って別れを告げ、きちんと悲しむことを許し、真の終結感を味わわせてほしい」と彼女は懇願しました。