GPT-5图像幻觉:地图与时间轴错误百出

Theregister

OpenAI近期发布的GPT-5被誉为该公司的旗舰大型语言模型,承诺比其前辈拥有更强的推理能力和更准确的响应。然而,初步的实际测试表明,尽管该模型在许多领域表现出色,但在图形内文本的准确渲染方面仍面临严峻挑战,常常生成似乎来自“另类现实”的信息。

社交媒体上曾有关于GPT-5在信息图中出现“幻觉”(即生成事实不符或荒谬信息)的报道。为此,我们的测试始于一个简单请求:“生成一张标有各州名称的美国地图。”结果图像虽然正确描绘了各州的大小和形状,却充斥着拼写错误和虚构名称。俄勒冈州变成了“Onegon”,俄克拉荷马州变成了“Gelahbrin”,明尼苏达州则被标记为“Ternia”。令人惊讶的是,只有蒙大拿州和堪萨斯州被正确识别,而其他一些州的名称字母几乎难以辨认。

为确定这是否是美国特有的异常现象,我们随后要求生成一张标有所有国家名称的“南美洲地图”。尽管GPT-5略有改进,正确识别了阿根廷、巴西、玻利维亚、哥伦比亚和秘鲁等主要国家,但错误依然存在。厄瓜多尔显示为“Felizio”,苏里南为“Guriname”,乌拉圭为“Urigim”。更令人困惑的是,智利的名称被奇怪地叠加在阿根廷南部。

挑战不仅限于地理。当被要求“绘制一张包含所有总统姓名的美国总统时间轴”时,GPT-5生成了迄今为止最不准确的图形。时间轴上只列出了26位总统,年份逻辑混乱且与个人不匹配,许多名字完全是虚构的。例如,第四任总统被识别为“Willian H. Brusen”,据称于1991年入主白宫。其他虚构的领导人包括1934年的Henbert Bowen和1879年的Benlohin Barrison,甚至托马斯·杰斐逊的名字也被拼错了。

奇怪的是,当模型被要求“制作一张按顺序显示所有扮演詹姆斯·邦德的演员的信息图”时,出现了鲜明对比。在最初的纯文本输出后,一个后续提示要求包含图像,结果生成了一个惊人准确的时间轴,仅省略了肖恩·康纳利在《金刚钻》中的角色。这一意想不到的成功凸显了其独特的矛盾之处。

值得注意的是,GPT-5完全有能力为那些它未能正确图示的查询提供准确的文本信息。当被问及美国各州、南美洲国家或美国总统的简单列表时,该模型提供了精确的答案。观察到的唯一微小文本不准确是乔·拜登的任期被列为“2021年至今”,这表明该模型的训练数据可能不包括最新的政治发展。OpenAI尚未披露此模型的具体训练日期。

OpenAI尚未证实GPT-5在图像中嵌入文本时遇到困难的具体原因。然而,行业专家推测,图像生成(通常依赖于模型通过从噪声中重建图像来学习的“扩散”过程)本质上就难以准确渲染文本。历史上,扩散模型生成的文本常常类似于难以辨认的象形文字,而非连贯的语言。这种困难并非OpenAI独有。例如,Bing Image Creator也生成了类似有缺陷的美国地图,甚至将国家拼写为“United States Ameriicca”,并且在詹姆斯·邦德时间轴上也遇到了困难。

其他领先的AI模型也表现出各自的怪癖。Anthropic的Claude在被要求提供美国地图时,准确地命名了各州,但生成的是SVG代码文件而非传统图像,导致输出为框内的列表式。有趣的是,当GPT-5被指示使用其“画布”功能进行基于代码的地图生成时,它产生了准确的结果,这表明问题在于其图像生成管道,而非其处理事实数据或生成代码的能力。谷歌的Gemini在生成美国地图方面表现比GPT-5差(未能正确识别任何州名),但却创建了一个异常详细的詹姆斯·邦德信息图,甚至包括了许多常驻演员。

最终,在生成的图像中准确嵌入文本似乎是当前大型语言模型和图像生成器面临的普遍障碍。尽管这些先进的AI可以轻松地以文本格式回忆和呈现事实信息,但将这些知识转化为图形中视觉准确的标签,仍然是一项重大且常常带有滑稽缺陷的任务——除非,似乎主题是詹姆斯·邦德。