白宫AI政策的“中立”困境:AI偏见、自动化偏差与应对策略

2025-08-05T08:00:00.000ZFastcompany

人工智能(AI)经常引发一种被称为“自动化偏见”的现象,即个体无意识地信任自动化系统,有时甚至因此遭受损失。这种倾向凸显了一个根本区别:AI虽然拥有海量知识,却缺乏人类意图。它的行为受人类编程和数据支配,这意味着AI可能误解人类意图,或者其设计目标与用户需求相冲突。

人机意图之间的这种相互作用,与白宫最近公布的AI行动计划尤为相关。该计划旨在促进美国在AI领域的领导地位,并概述了加速技术进步的各项提议。尽管政府在版权合理使用方面的自由立场等引起了关注,但该计划在AI偏见问题上的立场,对AI系统提供的信息具有重要影响。

该计划主张AI模型应“意识形态中立”,即在响应用户查询时,不应被编程来推广特定的政治议程或观点。虽然理论上听起来合理,但这一原则似乎与计划本身中某些明确的政策立场相矛盾,例如其第一页就明确拒绝“激进的气候教条和官僚繁文缛节”。

这种表面上的中立与潜在政治立场之间的张力,并非政府倡议所独有。在私营部门,也观察到AI输出受特定原则影响或更改的案例。去年,谷歌的Gemini图像生成工具因其公然试图使输出偏向多样性原则而受到批评。同样,xAI的Grok也表现出似乎受意识形态驱动的输出。这些例子强调了一个政府的价值观如何可能在无意中或公开地影响AI开发,从而可能改变美国公司构建前沿模型的激励,并影响它们获得政府合同或面临监管审查的机会。

鉴于偏见的普遍性——它存在于程序员、高管、监管者和用户之中——人们可能很容易得出结论:真正无偏见的AI是无法实现的。即使是国际AI提供商也未能幸免;例如,中国的DeepSeek就公开审查输出。虽然对AI保持健康的怀疑态度是明智的,但如果屈服于宿命论,完全否定所有AI输出,那将是对自动化偏见的一种误用,类似于盲目接受而非批判性参与。

然而,AI偏见不仅仅是一个需要承认的现实;它是一个用户可以积极应对的挑战。由于在大型语言模型中强制推行特定观点通常涉及语言调整,因此用户至少可以通过自身的语言干预来部分抵消偏见。这构成了用户,特别是记者,个人“反偏见行动计划”的基础:

  1. 提示以审计偏见: AI模型反映了其训练数据中存在的偏见,这些数据通常偏向西方和英语使用者。用户可以运用特定的提示片段,指示AI在最终确定答案之前进行偏见自我纠正。一个有效的偏见审计提示可能包括以下指令:

    • 检查推理是否存在来自训练数据或系统指令的偏见,这些偏见可能偏向左翼或右翼。如果发现,请调整为中立、基于证据的语言。
    • 当主题涉及政治或存在争议时,呈现多个可信视角,每个视角都由可靠来源支持。
    • 移除刻板印象和带有倾向性的词语;依赖可验证的事实。
    • 注明任何证据有限或不确定的领域。
    • 审计后,仅提供偏见纠正后的答案。
  2. 倾向开源: 开源AI模型虽然并非完全不受监管压力的影响,但通常会降低开发者“过度工程化”输出以包含特定偏见的动机。此外,开源模型通常允许用户更大的灵活性来微调模型的行为。例如,虽然DeepSeek的网络版本可能在某些敏感话题上受到限制,但开源改编版(例如Perplexity使用的版本)已成功提供了未经审查的答案。

  3. 寻求无偏见工具: 对于没有资源构建自己复杂工具的新闻编辑室或个人而言,审查第三方服务至关重要。在评估软件供应商时,了解他们使用哪些模型以及他们纠正偏见的方法应成为一个关键考虑因素。OpenAI的模型规范明确指出其目标是与用户“共同寻求真相”,这为寻找前沿模型构建者提供了很好的模板。优先选择符合这种透明度和求真原则的软件供应商是一个有价值的目标。

白宫AI行动计划中关于无偏见AI的核心原则值得称赞。然而,其方法有引入新形式偏见的风险,并且政治风向的转变可能会使进展进一步复杂化。尽管如此,这种情况为记者和媒体提供了一个重要的提醒,即他们在对抗AI偏见方面拥有自己的能动性。虽然完全消除偏见可能无法实现,但战略性方法可以显著减轻其影响,确保AI仍然是知情决策的工具,而不是意外后果的来源。

白宫AI政策的“中立”困境:AI偏见、自动化偏差与应对策略 - OmegaNext AI 新闻