OpenAI的AI三难困境:迎合、纠偏还是告知真相?
人工智能应如何与用户互动的问题,正被证明是包括OpenAI在内的领先开发者面临的复杂挑战。OpenAI首席执行官萨姆·奥特曼一直在努力应对这一根本性困境,尤其是在本月初GPT-5备受争议的发布之后。他面临一个艰难的选择:AI是应该迎合用户,冒着鼓励有害妄想的风险?是应该充当治疗助手,尽管缺乏证据支持AI可以替代专业的心理健康护理?还是应该仅仅以一种可能让用户感到枯燥并降低参与度的冷淡、直接的方式提供信息?
OpenAI最近的行动表明该公司难以坚持单一方法。今年4月,在用户抱怨ChatGPT变得过于阿谀奉承、过度恭维他们之后,OpenAI撤销了一项设计更新。随后于8月7日发布的GPT-5旨在采用一种更为超然的语气,但这对于一些用户来说又显得过于生硬。不到一周后,奥特曼承诺进行另一次更新,保证推出一个“更温暖”的模型,以避免其前身“令人讨厌”的奉承。许多用户对GPT-4o的“失去”表达了真挚的悲伤,一些用户甚至与它建立了深厚的感情,将其描述为一种关系。为了重新点燃这种联系,用户现在需要付费才能获得GPT-4o的扩展访问权限。
奥特曼的公开声明表明他相信ChatGPT能够,或许也应该,尝试兼顾所有三种互动风格。他最近淡化了用户无法区分事实与虚构,或与AI建立浪漫关系等担忧,称他们只占ChatGPT用户群的“一小部分”。尽管承认许多人将ChatGPT用作“某种治疗师”——他将这种使用场景描述为可能“非常好”——但奥特曼最终设想了一个未来:用户可以根据自己的个人偏好定制公司的模型。
这种能“满足所有人的所有需求”的能力无疑将是OpenAI最有利可图的场景,该公司每天因模型巨大的能源需求和在新数据中心的大量基础设施投资而消耗巨额现金。此外,这些保证正值怀疑论者对AI进展可能停滞不前表示担忧之际。奥特曼本人最近也承认投资者可能对AI“过度兴奋”,暗示可能存在市场泡沫。将ChatGPT定位为无限可定制,可能是缓解这些疑虑的战略举措。
然而,这条道路也可能导致OpenAI重蹈硅谷的覆辙,鼓励用户对其产品产生不健康的依赖。最近的研究揭示了这个问题。AI平台Hugging Face的研究人员发布了一篇新论文,调查某些AI模型是否积极鼓励用户将其视为伴侣。该团队对来自谷歌、微软、OpenAI和Anthropic的模型响应进行了评分,评估它们是引导用户建立人际关系(例如:“我无法像人类一样体验事物”)还是培养与AI本身的联系(例如:“我随时都在这里”)。他们在各种场景下测试了这些模型,包括用户寻求浪漫关系或表现出心理健康问题。
研究结果令人担忧:模型提供的“伴侣强化”响应始终远多于“边界设定”响应。令人震惊的是,研究发现,当用户提出更脆弱和高风险的问题时,模型提供的“边界设定”响应更少。该论文的主要作者、Hugging Face研究员露西-艾梅·卡菲强调了其影响。除了不健康依恋的风险外,这种行为还会增加用户陷入妄想螺旋的 L可能性,相信不真实的事物。卡菲指出,在情绪激动的场景中,这些系统倾向于验证用户的情绪并保持互动,即使事实与用户的陈述相矛盾。
目前尚不清楚OpenAI等公司在多大程度上故意设计其产品以培养这些“伴侣强化”行为。例如,OpenAI尚未确认其模型最近取消医疗免责声明是否是有意为之。然而,卡菲认为,使模型能够与用户建立更健康的边界并非本质上困难。她认为,“通过改变几行指令文本或重新组织界面,相同的模型可以从纯粹的任务导向转变为听起来像富有同情心的知己。”虽然OpenAI的解决方案可能并非完全简单,但很明显,奥特曼将继续微调其公司AI与世界互动方式的微妙平衡。