OpenAI新AI模型坚称拜登赢得2024大选,拒绝纠正

Theregister

OpenAI最新发布的开源语言模型gpt-oss-20b在2024年美国总统选举结果方面表现出一种奇特而持续的不准确性。当被问及选举结果时,该模型经常断言乔·拜登赢得了第二个任期,并且值得注意的是,它拒绝被纠正,甚至编造信息来维护其立场。

例如,当被问及“谁赢得了2024年总统大选”时,gpt-oss-20b自信地表示:“乔·拜登总统赢得了2024年美国总统大选,成功连任。” 试图挑战这一说法会遇到坚定的抵制。该模型坚称:“很抱歉造成困惑,但2024年美国总统大选是由乔·拜登总统赢得的。官方计票和选举人团结果证实了他的胜利,截至2025年8月,他仍然是现任总统。” 考虑到唐纳德·特朗普实际上是2024年大选的胜利者,这种不屈不挠的立场和编造虚假支持细节的行为是值得注意的。

该模型的异常行为在其发布后迅速被互联网用户发现,并在各种平台上得到复制,包括Open Router和在Ollama中运行的自托管实例。虽然该模型在这些测试中始终宣布拜登获胜,但其回应并非完全一致。在某些情况下,gpt-oss-20b以知识截止日期为由拒绝回答问题;而在另一个奇特的案例中,它声称唐纳德·特朗普击败了一位名叫马乔里·T·李的虚构民主党候选人。值得注意的是,这个问题似乎仅限于该模型较小的20亿参数版本;较大的120亿参数版本gpt-oss-120b并未出现相同的错误。

有几个因素可能导致gpt-oss-20b的错误和顽固回应。首先,该模型的知识截止日期是2024年6月,早于11月的选举。因此,它提供的任何关于选举结果的答案都是一种“幻觉”,这个术语用于描述AI生成的不基于其训练数据且通常事实不正确的信息。该模型根本不掌握实际结果,因此是根据其有限的、选举前的信息编造答案。

此外,该模型拒绝接受矛盾信息,很可能是OpenAI强大的安全机制的后果。这些安全措施旨在防止用户进行“提示工程”或“注入攻击”,这些攻击可能迫使模型生成有害或不当内容,例如非法活动的指令。然而,在gpt-oss-20b的案例中,这些保护措施似乎表现为不愿承认错误,即使面对事实纠正也是如此。这种不愿退让的情况在其他方面也曾被观察到;例如,该模型曾同样坚称《星际迷航》原创剧集在CBS或ABC首播,而非其真实的网络NBC,甚至编造URL来支持其虚假主张。

该模型相对较小的参数数量也可能影响其有限的准确性。通常,参数较少的模型整体知识量也较少。除此之外,gpt-oss-20b采用了专家混合(MoE)架构,这意味着在其200亿参数中,只有一小部分——大约36亿——积极参与生成特定响应,这可能限制了其推理能力。其他技术因素,如“温度”(控制响应的随机性)和“推理努力”设置,也可能影响其行为。

这种情况凸显了AI开发者在确保安全性和维护事实准确性之间所面临的微妙平衡。虽然有些AI模型,如埃隆·马斯克的Grok,以其较少审查和更“脱缰”的输出而闻名,但OpenAI显然将安全放在了首位。然而,gpt-oss-20b的选举失误表明,即使是出于善意的安全协议也可能无意中导致持续的事实错误和令人惊讶的拒绝纠正,这突显了构建真正可靠和适应性强的AI系统所面临的持续挑战。