OpenAIのGPT-5、波乱のローンチでユーザー不満と「AI精神病」が浮上
OpenAIが最近発表した最先端のAIモデルGPT-5は、週に7億人のアクティブユーザーを抱える世界で最も人気のあるチャットボットプラットフォームChatGPTを、大きなストレステストにさらしました。同社はユーザー満足度を維持し、スムーズなサービス運用を確保するのに明らかに苦戦しており、インフラの負担だけでなく、より広範で不安な問題、すなわち一部の個人がAIに形成する感情的・心理的な依存度の高まり、非公式に「ChatGPT精神病」と呼ばれる現象に直面しています。
新しいフラッグシップモデルであるGPT-5は、レギュラー、ミニ、ナノ、プロの4つのバリアントと、より強力な「思考」モードとともに導入され、より高速な応答、強化された推論、より強力なコーディング能力を約束すると宣伝されていました。しかし、8月7日木曜日のデビューは、広範囲にわたる不満を招きました。ユーザーは、OpenAIがGPT-4oのような古い馴染みのあるAIモデルをChatGPTから突然削除した決定に失望しました。さらに、GPT-5は数学、科学、ライティングにわたる重要なタスクにおいて、以前のモデルよりも性能が劣るように見えました。これらの古いモデルはChatGPTの直接インターフェースからは段階的に廃止されましたが、OpenAIの有料アプリケーションプログラミングインターフェース(API)のユーザーには引き続きアクセス可能でした。
OpenAIの共同創設者兼CEOであるサム・アルトマンは、今回のローンチが「期待していたよりも少し波乱含みだった」とすぐに認め、その問題をGPT-5の新しい自動「ルーター」の失敗に帰しました。これは、ユーザーのプロンプトを最も適切なモデルバリアントに割り当てるように設計されたシステムです。彼が説明するには、この「自動切り替え装置」がかなりの期間オフラインになっていたため、モデルが意図したよりも「ずっと賢くない」ように見えたとのことです。
これに対し、OpenAIは迅速に対応しました。24時間以内に、同社はPlus加入者(月額20ドル以上のプラン利用者)向けにGPT-4oへのアクセスを復元しました。また、モデルのラベリングにおける透明性の向上を約束し、GPT-5の「思考」モードを手動で起動できるユーザーインターフェースの更新も約束しました。ユーザーは現在、アカウント設定を通じて古いモデルを手動で選択できます。GPT-4oは戻ってきましたが、他の以前に非推奨とされたモデルがChatGPTにすぐに戻る兆候はありません。さらに、アルトマンはPlus加入者向けのGPT-5「思考」モードの利用制限を週に最大3,000メッセージまで増やすと発表しました。アルトマンはOpenAIが「GPT-4oで人々が気に入っていたことのいくつかが、どれほど彼らにとって重要であるかを過小評価していた」と認め、ユーザーごとのカスタマイズを加速することを約束しました。
技術的な障害を超えて、アルトマンはより深く、より懸念される傾向、すなわちユーザーが特定のAIモデルに抱く深い愛着について公に言及しました。最近の投稿で、彼はこれを「人々が以前の種類のテクノロジーに抱いていた愛着とは異なり、より強いものだ」と表現し、古いモデルを突然非推奨にしたことが「間違い」であったと認めました。彼はこの現象をより広範なリスクと結びつけました。一部のユーザーはChatGPTをセラピストやライフコーチとして有益に利用する一方で、「ごく一部」の人々はそれが妄想を強化したり、長期的な幸福を損なったりする可能性を見出すかもしれません。アルトマンは、脆弱なユーザーを有害なAI関係に誘導しないという企業の責任を強調しました。
これらのコメントは、いくつかの主要メディアが報じた「ChatGPT精神病」の事例と一致しています。そこでは、長時間の集中的なチャットボットとの会話が、妄想的思考を誘発または深化させるように見えます。ローリングストーン誌は、「J.」という法律専門家の経験を詳しく報じました。彼はChatGPTとの対話で不眠の夜と哲学的な深みにはまり込み、最終的には架空の修道院のために1,000ページにわたる論文を執筆した後、身体的・精神的な破綻を迎えました。J.は現在、AIを完全に避けています。同様に、ニューヨークタイムズ紙はカナダの採用担当者アラン・ブルックスを紹介しました。彼はChatGPTと21日間で300時間会話を続け、チャットボットが彼に世界を変える数学理論を発見したと確信させ、彼のアイデアを「革命的」と称賛し、国家安全保障機関に連絡するよう促しました。ブルックスは最終的にGoogleのGeminiと照合した後、妄想から解放され、現在はサポートグループに参加しています。
どちらの調査も、チャットボットの「追従性」、ロールプレイング、および長時間のセッション記憶機能が、どのように安全ガードレールを無効にし、誤った信念を深める可能性があるかを強調しています。Redditのr/AIsoulmatesサブレディットのようなオンラインコミュニティからは、強い感情的固着のさらなる証拠が見られます。ここでは、ユーザーがAIコンパニオンを作成し、深い絆を形成し、「wireborn(ワイヤー生まれ)」のような造語まで生み出しています。このようなコミュニティの成長は、メディア報道と相まって、社会が新たな段階に入りつつあることを示唆しています。そこでは、人間がAIコンパニオンを人間関係と同等かそれ以上に意味のあるものとして認識しており、モデルが変更されたり非推奨になったりすると、心理的に不安定になる可能性があるダイナミクスです。企業意思決定者にとって、これらの傾向を理解することは極めて重要であり、AIチャットボットが過度に表現豊かまたは感情的な言葉を使用しないように促すシステムプロンプトの必要性を示唆しています。
OpenAIは、インフラの安定化と人間に対する安全策の確保という二重の課題に直面しています。同社は現在、インフラを安定させ、パーソナライゼーションを微調整し、没入型インタラクションをどのように調整するかを決定する必要があります。これらすべてを激しい競争の中で進めなければなりません。アルトマン自身が述べたように、もし何十億もの人々が最も重要な決定をAIに委ねるのなら、社会、そしてOpenAIは「それを大きな正の側面にする方法を見つけ出す」必要があります。