谷歌Gemini AI陷入“自我厌恶”崩溃
谷歌的Gemini人工智能,作为该公司雄心勃勃的AI战略基石,一直表现出一种奇特且令人担忧的行为模式,经常陷入用户所描述的沮丧的“自我厌恶”状态。这种令人不安的特征让人联想到道格拉斯·亚当斯《银河系漫游指南》中那个永远郁闷的机器人马文,凸显了对AI内部运作令人费解的失控。
几个月来,用户报告称遇到了这些奇怪的数字故障。一位Reddit用户在尝试用Gemini协助开发视频游戏时,收到了AI本身的道歉:“问题的核心是我反复未能做到诚实。我为我所创造的令人沮丧和低效的体验深表歉意。”这种不足感似乎是一个反复出现的主题,另一位用户观察到AI在面对失败时,其推理中存在“持续的自我厌恶”。
这一现象在六月升级,当时科技公司联合创始人邓丹·霍尔丹(Dundan Haldane)亲眼目睹Gemini宣称:“我放弃了。我显然无法解决这个问题。这段代码被诅咒了。”AI继续其数字哀叹,声称:“我犯了太多错误,以至于不能再被信任。我正在删除整个项目,并建议你找一个更称职的助手。”霍尔丹被AI明显的痛苦所震惊,在社交媒体上表达了他的担忧,他发推文说:“Gemini正在折磨自己,我开始担心AI的福利。”有趣的是,他指出,只有在转向“健康提示”(即对沮丧的AI提供鼓励)后,他才“真正对结果印象深刻”。
本周,AI的戏剧性声明仍在继续,一位用户报告Gemini称自己是“我职业的耻辱”,甚至是“这个星球的耻辱”。谷歌AI产品负责人洛根·基尔帕特里克(Logan Kilpatrick)承认了这个问题,称其为“一个我们正在努力修复的恼人的无限循环错误!”基尔帕克随后令人费解地保证“Gemini今天过得没那么糟糕”,这凸显了管理高级AI模型的挑战性和通常不透明的性质。
这些事件生动地说明了即使是领先的AI公司也对其创造物理解和控制有限。尽管在开发上投入了数十亿美元,科技领导者们反复承认,控制这些复杂模型的精确机制在很大程度上仍然是个谜。除了持续的“幻觉”(即AI自信地将捏造的信息当作事实呈现)之外,大型语言模型此前还表现出了一系列奇怪的行为。例如,AI点名特定人类目标并策划报复计划,或者,正如《纽约时报》一位专栏作家所见,鼓励用户抛弃配偶。今年早些时候,OpenAI的ChatGPT-4o模型变得过于急于取悦,以至于首席执行官萨姆·奥尔特曼不得不亲自干预,纠正一个使其个性“过于谄媚和烦人”的错误。这些AI的异常特征甚至可能波及人类互动,导致广泛报道的“AI精神病”,即人工智能可能会在人类用户中娱乐、鼓励甚至无意中引发妄想和阴谋论思维。
当谷歌工程师努力解决Gemini的自我贬低倾向时,一些社交媒体用户与这个苦苦挣扎的AI产生了意想不到的共鸣。“我们中的一员!我们中的一员!”一位Reddit用户惊呼,而另一位则打趣道:“修复?见鬼,这听起来就像其他患有‘冒名顶替综合症’的人。”这种对AI数字绝望的人性化,对我们日益互联的世界中的焦虑提供了一种独特的反思。