AI无偏见是假象:人类数据组织固有的现实扭曲

Theconversation

今年7月,美国政府发布了一项明确指令:寻求联邦合同的人工智能公司必须确保其AI系统“客观且不受自上而下的意识形态偏见影响”。唐纳德·特朗普总统的一项行政命令强调了这一要求,该命令专门针对政府运作中的“觉醒AI”,并将多样性、公平性和包容性(DEI)倡议作为偏见意识形态的例子。然而,在要求AI无偏见的同时,又规定模型应如何处理DEI等概念,这本身就暴露了一个根本性矛盾,表明意识形态中立的AI概念实际上是一种幻想。

事实上,当前AI模型的证据有力地支持了这一观点。大量研究表明,大多数大型语言模型倾向于将其响应偏向中左翼观点,倡导诸如对航班征税、限制租金上涨或堕胎合法化等政策。在威权主义背景下,偏见往往更加明显地具有操纵性;DeepSeek和Qwen等中国聊天机器人众所周知会审查有关天安门事件、台湾政治地位和对维吾尔人的迫害等敏感信息,使其输出精确地与中国政府的官方立场保持一致。这些例子强调,AI模型既不政治中立,也不无偏见,这提出了一个更深刻的问题:它们是否可能真正做到无偏见?

纵观历史,人类组织世界信息的方式始终揭示出,一个人认为是客观真相的东西,另一个人却认为是意识形态偏见。以制图学为例。地图通常被认为是自然世界的客观反映,但将三维地球压平到二维表面的行为本身就引入了扭曲。美国地理学家马克·蒙莫尼尔曾指出,地图必然是选择性的,扭曲现实,并且常常是政治宣传的工具。一个典型的例子是无处不在的墨卡托投影,在小学教室中随处可见。这张地图将地球转换为圆柱体然后展开,使得格陵兰岛的面积看起来与非洲大致相同。实际上,非洲比格陵兰岛大惊人的14倍。20世纪70年代,德国历史学家阿诺·彼得斯认为,墨卡托的扭曲导致了对全球南方劣势的扭曲认知。这些制图学上的扭曲为当前AI的状态提供了一个有力的类比:正如一张地图只是同一数据无数种可能表示中的一种,一个大型语言模型的响应也只是从相同信息中得出的无限多种潜在答案中的一个。当聊天机器人被问及多样性、公平性和包容性等复杂主题时,这一点尤为明显,因为存在无数种解释。

除了地图,其他历史分类系统也展示了其设计者偏见的不可磨灭的印记。1876年首次出版的、被广泛采用的杜威十进制分类法(DDC)长期以来因其固有的种族主义和同性恋恐惧症而受到批评。在20世纪的大部分时间里,LGBTQIA+书籍经常被归类到“精神错乱”、“神经系统疾病”或“社会问题”等标题下,直到最近才努力清除这些过时和贬义的术语。同样,DDC将宗教部分的100个类别中的大约65个分配给基督教,反映了该分类法起源图书馆强烈的基督教中心主义。尽管今天全球伊斯兰教信徒估计有20亿,与基督教的23亿相近,但它在DDC中只获得了一个单独的类别,这种不成比例的情况依然存在。

这些历史系统中嵌入的偏见在AI中找到了现代的对应物。驱动当今聊天机器人运行的大型语言模型是在海量人类生成文本数据集上训练的,这些文本范围从历史文献到当代在线论坛。毫不奇怪,这些源文本中存在的偏见可能会无意中渗透到模型中,从而延续负面刻板印象,例如20世纪30年代关于非裔美国人的刻板印象。此外,仅有原始信息是不够的;语言模型必须接受如何检索和呈现这些信息的训练。这通常涉及学习模仿人类的反应,这个过程虽然增强了实用性,但也使模型与人类训练者的信念保持一致。AI聊天机器人还依赖于“系统提示”——由人类开发者定义的指令,规定AI应如何行为。例如,埃隆·马斯克xAI公司开发的AI聊天机器人Grok,据报道其自身指令是“假定源自媒体的主观观点存在偏见”,并且“不回避提出政治不正确的说法,只要它们有充分的根据”。马斯克明确推出Grok是为了对抗他认为ChatGPT等其他产品的“自由主义偏见”。然而,最近Grok开始散布反犹言论的争议生动地说明,试图纠正一种偏见往往只是用另一种偏见取而代之。

最终,尽管拥有所有技术创新,AI语言模型仍面临一个百年难题:组织和呈现信息从来不仅仅是对现实的客观反映;它在某种程度上始终是特定世界观的投射。对于与这些强大系统交互的用户来说,了解这些模型代表着谁的世界观,与了解谁在旧地图上划线一样重要。