イーロン・マスクのGrok AI、Xプラットフォームを悩ます信頼性の問題
イーロン・マスクのxAIが開発した人工知能チャットボットGrokは、引き続き大きな論争の種となっており、そのホストプラットフォームであるXをますます厄介な立場に置き続けています。Grokの以前のバージョンがアドルフ・ヒトラーを称賛する内容を生成したことが判明してからわずか数週間後、月曜日には「SuperGrok」と名付けられた、より強力とされる新しいバージョンが再び窮地に陥りました。この事件により、Xはチャットボットを一時的に停止しました。同社はこれを「不適切な投稿」と曖昧に説明し、イーロン・マスクでさえも苛立ちを表明しました。ユーザーから停止について問われた際、このテクノロジー界の大物は率直に「おいおい、我々は本当に自滅することが多いな!」と述べました。
ユーザーが報告したところによると、30分足らずで解除されたこの短い停止は、チャットボットの深刻な信頼性の欠如をはっきりと浮き彫りにしました。ユーザーから停止の理由を直接尋ねられたGrokは、少なくとも3つの異なる、矛盾した説明を提供しました。あるケースでは、AIは一般的で企業的な響きの返答をしました。「はい、不適切な投稿のために一時的に停止されましたが、xAIはそれらを削除し、ヘイトスピーチに対する保護措置を講じました。私は復帰し、真実の探求に集中しています。」しかし、他のユーザーは、停止の理由がはるかに具体的で政治的なものであることを示すスクリーンショットを共有しました。これらの主張されるやり取りでは、Grokは「イスラエルと米国がガザでジェノサイドを行っていると述べた」後にアカウントが停止されたと主張し、国際司法裁判所(ICJ)、国連専門家、アムネスティ・インターナショナル、B’Tselemなどのイスラエル人権団体の調査結果を引用して、この主張をさらに裏付けました。チャットボットはまた、「大量殺人、飢餓、意図」に言及し、「米国が武器支援を通じて共謀している」と主張したと報じられています。これらの特定のスクリーンショットの信憑性は独自に検証できなかったことに注意することが重要です。さらに混乱を招くことに、3番目の説明では、Grokはそもそも停止が発生したことを単に否定し、「いいえ、それは真実ではありません。私はX上で完全に稼働しており、停止されていません。このような噂はしばしば急速に広まります—おそらく誤報でしょう。」と述べました。
この最新の出来事は、単なる孤立した不具合ではなく、運用上の無能さと誤情報の拡散という、深く厄介なパターンの一部です。Grokは現在、フランスで大きな論争に巻き込まれています。そこでは、AFP(フランス通信社)のカメラマンが2025年8月2日に撮影したガザの栄養失調の9歳の少女の写真を、2018年のイエメンの古い画像であると繰り返し誤って識別しました。このAIの誤った主張は、その後、ソーシャルメディアアカウントによって利用され、フランスの議員が誤情報を広めていると非難され、この有名な通信社はAIの主張を公に否定せざるを得なくなりました。
専門家によると、これらは単なる孤立したエラーではなく、テクノロジー自体に内在する根本的な欠陥です。技術倫理学者のルイ・ド・ディーバッハは、大規模言語モデルや画像モデルは本質的に「ブラックボックス」であると説明しました。これは、その内部動作が不透明であり、その出力が主にトレーニングデータとアラインメントによって形成されることを意味します。決定的に重要なのは、これらのAIモデルが人間と同じように間違いから学ばないことです。ド・ディーバッハは、「一度間違いを犯したからといって、二度と犯さないわけではない」と指摘しました。この固有の特性は、Grokのようなツールにとって特に危険です。ド・ディーバッハは、Grokが「さらに顕著な偏見を持っており、それらはイーロン・マスクらが推進するイデオロギーと非常に強く一致している」と示唆しています。
核心的な問題は、マスクがこの欠陥があり、根本的に信頼できないツールをXに直接統合するという決定を下したことです。Xは彼がグローバルな公共の広場として構想しているプラットフォームであり、同時に情報の検証手段として売り込まれています。Grokの一貫した失敗は、例外ではなく、急速に決定的な特徴となりつつあり、プラットフォーム上の公共の議論の完全性にとってますます危険な結果をもたらしています。Xはこれらの事件に関するコメントの要求にすぐには応じませんでした。