AI信任危机:研究揭示边缘群体对AI的负面态度

Theconversation

人工智能(AI)正迅速融入日常生活的方方面面,常常在从医疗诊断到招聘流程,甚至影响人们获取新闻等关键领域中悄无声息地运作。然而,这种普遍的影响并非总是公平的。大量研究一致表明,算法偏见经常使边缘社区处于不利地位。例如,面部识别系统普遍错误分类跨性别者和非二元性别者;执法中使用的AI工具被发现与黑人不成比例的高不当逮捕率有关;算法诊断系统可能对残障人士获取基本医疗保健设置障碍。

这些有据可查的不平等引发了一个关键问题:与更广泛的美国人口相比,性别和种族少数群体以及残障人士是否对AI抱有更多负面看法?由专门研究边缘社区如何与社交技术互动的研究员奥利弗·L·海姆森(Oliver L. Haimson)领导的一项最新研究旨在回答这个问题。海姆森及其同事塞缪尔·雷伊吉·梅沃姆(Samuel Reiji Mayworm)、亚历克西斯·肖尔·英格伯(Alexis Shore Ingber)和纳扎宁·安达利比(Nazanin Andalibi)对全美700多人进行了调查。样本包括一个具有全国代表性的群体,并通过有意识地对跨性别者、非二元性别者、残障人士和少数族裔参与者进行过采样而扩大。该调查探讨了对AI的普遍态度,包括其改善生活或工作的潜力、整体积极情绪以及未来个人使用意图等方面的信念。

研究结果揭示了态度上的明显分歧。跨性别者、非二元性别者和残障参与者平均而言,对AI的看法始终比顺性别和非残障的同类群体明显更为负面。这表明,当这些性别少数群体和残障人士被迫与AI系统互动时,例如在专业或医疗环境中,他们可能会带着深切的保留或不信任去进行。这样的结果直接挑战了科技行业内盛行的叙事,即AI被描绘成一种对社会普遍有益的必然力量。公众认知对于塑造AI的发展、采纳和监管至关重要,如果AI主要服务于那些已经掌权的人,其所谓的社会公益角色就变得脆弱。当个人尽管不喜欢或不信任AI却仍被要求使用时,参与度会下降,信任会受损,现有不平等可能会加剧。

更深入地探讨研究细节,非二元性别参与者对AI表达了最负面的态度。作为整体的跨性别者,包括跨性别男性和跨性别女性,也表现出显著的负面看法。在顺性别者中——即性别认同与出生时指定性别一致的人——女性比男性报告了更多负面态度,这一趋势与先前的研究结果相呼应,尽管这项研究通过纳入非二元性别和跨性别视角显著扩大了范围。同样,残障参与者对AI的看法明显比非残障参与者更为负面,这种情绪在神经多样性或管理精神健康状况的人群中尤为突出。这些发现与越来越多的研究相符,这些研究表明AI系统如何频繁地错误分类、延续歧视或以其他方式伤害跨性别者和残障人士,这往往是因为AI的设计将复杂性简化为僵化的类别,从而与那些不符合狭隘定义的身份相冲突。这种固有的简化可能会无意中复制并强化社会偏见,而用户对此现实是敏锐地意识到的。

与性别认同和残障方面观察到的清晰模式不同,该研究在种族方面呈现出更复杂的图景。有色人种,特别是黑人参与者,出人意料地比白人参与者对AI持有更积极的看法。鉴于此前大量关于AI系统中种族偏见的记录,从歧视性招聘算法到不成比例的监控,这一发现尤其复杂。研究作者认为,这些结果并不意味着AI对黑人社区运作良好。相反,它们可能反映了一种务实的态度或对技术潜力的乐观开放,即使面对有据可查的伤害。未来的定性研究可以进一步探讨黑人个体在AI方面批判与乐观之间的这种矛盾平衡。

这些AI认知上的差异对政策和技术发展都具有重要影响。如果边缘社区出于正当理由不信任AI,那么采取可行的措施是当务之急。首先,开发者和机构必须提供有意义的同意选项,要求雇主、医疗服务提供者和其他实体披露何时以及如何使用AI,更重要的是,提供让个人有真正的机会选择退出且不受惩罚。其次,强大的数据透明度和隐私保护至关重要,让人们了解AI系统数据来源、数据如何处理以及如何得到保护。这些隐私措施对于已经经历过算法监控和数据滥用的边缘群体尤为重要。此外,在AI系统开发过程中,应采取额外措施,严格测试和评估对边缘群体的影响,这可能涉及参与式设计方法,让受影响的社区直接参与系统的设计。如果一个社区对AI解决方案表示反对,开发者必须准备好听取他们的担忧。最终,边缘群体——那些最容易受到算法伤害的群体——所表达的负面态度,为AI设计师、开发者和政策制定者提供了一个关键信号,促使他们从根本上重新评估他们的努力。一个建立在AI基础上的未来,必须认真考虑那些可能被技术置于不利地位的人群。