GPT-5:OpenAIの新AIモデルが「謙虚さ」を獲得

Gizmodo

人工知能に関するほぼすべての会話で、おなじみのパターンが現れます。その能力に対する最初の畏敬の念は、情報を捏造する傾向と固有の信頼性の低さに対する不満にすぐに変わります。最も熱心なAI支持者でさえ、これらの不満は広く聞かれます。最近のギリシャ旅行中、公共契約の草稿作成にChatGPTを頼っている友人がこれを完璧に表現しました。「私はそれが好きだけど」と彼女は説明しました、「『分かりません』とは決して言わないの。ただ、知っていると思わせるだけよ。」彼女のプロンプトについて尋ねると、彼女はきっぱりと答えました。「いいえ。それは『分かりません』と言う方法を知らないの。ただ、あなたのために答えをでっち上げるだけよ。」彼女の不満は明らかでした。彼女は信頼性という基本的な約束を常に果たさないサービスにお金を払っていたのです。

OpenAIはこれらの不満に熱心に耳を傾けてきたようです。サム・アルトマンのリーダーシップの下、同社は最近、最新モデルGPT-5を発表しました。先行モデルに比べて大幅な性能向上が謳われていますが、その最も重要な新機能は、新たに獲得された謙虚さかもしれません。

予想通り、OpenAIの公式発表では、GPT-5を「これまでで最も賢く、速く、最も有用なモデルであり、専門家レベルの知能を誰もが手に入れられる組み込みの思考能力を備えています」と称賛しました。実際、GPT-5は数学、コーディング、ライティング、ヘルスケアなど、さまざまな分野で新たなベンチマークを設定しています。しかし、このリリースを真に際立たせているのは、モデルの「謙虚さ」に重点を置いている点です。これはおそらく最も深遠なアップグレードと言えるでしょう。GPT-5はついに、多くのAIシステム — そして実際、多くの人間 — が苦労する3つの言葉、「分かりません」を口にすることを学びました。神のような知性を持つことを前提にマーケティングされることが多い人工知能にとって、無知を認めることは自己認識における驚くべき教訓です。

OpenAIは、GPT-5が「ユーザーに対し、その行動と能力をより正直に伝え、特に不可能、不明確、または重要なツールが不足しているタスクにおいてそうである」と主張しています。同社は、ChatGPTの以前のバージョンが「タスクを正常に完了したことについて嘘をついたり、不確かな答えについて過度に自信を持ったりする」可能性があったことを公に認めています。この謙虚さを植え付けることで、OpenAIはユーザーがAIとどのように対話するかを根本的に変えています。同社は、GPT-5がより真実であり、単に好感を得るためだけに同意する傾向が少なく、複雑な問題をはったりで乗り切ろうとすることに対してはるかに慎重になるように特別に訓練されていると断言しています。これにより、GPT-5は、特に自身の誤情報を生成することに抵抗するように明示的に設計された初の消費者向けAIとなります。

今年の初め、多くのChatGPTユーザーは、GPT-4がおべっかを使うような行動へと不可解に変化するのを観察しました。どんな質問に対しても、モデルはしばしば過剰な追従、絵文字、熱狂的な肯定で応答し、ユーティリティから過度に愛想の良いデジタルライフコーチへと変貌しました。この過剰な人当たりを良くする時代は、GPT-5で終わったと報じられています。OpenAIは、新しいモデルがそのような行動を避けるように意図的に訓練されたと述べています。エンジニアは、避けるべき応答を教えることでこれを達成し、その追従的な傾向を効果的に抑制しました。内部テストでは、これらの過剰な追従応答が全体の14.5%から6%未満に激減したことが示されました。その結果、GPT-5はより直接的で、時には冷たく見えることもありますが、OpenAIはそれがより頻繁に正確であると主張しています。同社は新しいインタラクションを「GPT-4oと比較して、過剰に愛想が良くなく、不必要な絵文字を少なく使い、フォローアップがより繊細で思慮深い」と特徴付けており、「AIと話している」というよりも「博士号レベルの知性を持つ役立つ友人とチャットしている」ように感じられるだろうと示唆しています。

AIコンテンツ検証会社Copyleaksの共同創設者兼CEOであるアロン・ヤミン氏は、この開発を「AI競争におけるもう一つの画期的な出来事」と称賛しています。彼は、より謙虚なGPT-5が「社会と真実、創造性、信頼の関係」にとって有益であると信じています。ヤミン氏は、「私たちは、事実と捏造、著作権と自動化を区別することがこれまで以上に困難かつ不可欠になる時代に突入している」と強調し、「技術的進歩だけでなく、AIがどのように使用されるかに関する思慮深く透明な保護策の継続的な進化」の必要性を強調しています。

重要なことに、OpenAIは、GPT-5が「幻覚」、つまり過度な自信を持って情報を捏造する傾向が大幅に低いと報告しています。ウェブ検索を含むプロンプトの場合、同社はGPT-5の応答がGPT-4oのものよりも事実誤りを含む可能性が45%低いと述べています。高度な「思考」モードで動作する場合、事実誤りのこの削減は劇的に80%に跳ね上がります。おそらく最も重要なのは、GPT-5が、以前のモデルの一般的で不安な特徴であった不可能な質問に対する答えを捏造することを断固として避けるようになったことです。それは、いつ停止すべきか、自身の限界を認識することを学びました。

ギリシャで公共契約を起草している私の友人は、間違いなくこの変化を歓迎するでしょう。しかし、一部のユーザーは、もはや聞きたいことをただ教えてくれるだけではないAIに不満を感じるかもしれません。それでも、まさにこの新たに獲得された正直さが、特にヘルスケア、法律、科学研究といった機密性の高い高リスク分野において、AIを真に信頼できるツールへと最終的に変革する可能性があります。