豪州:AI恐加剧歧视,人权专员警示急需监管
人工智能在澳大利亚社会的迅速融合,虽然有望带来显著的生产力提升,但国家人权专员发出的严厉警告指出,它也带来了加剧现有社会不平等的严重风险。联邦政府正准备在即将举行的峰会上讨论人工智能的经济潜力,而包括工会和行业机构在内的越来越多声音正在敲响警钟,指出如果缺乏监管,这项技术有可能固化种族主义和性别歧视。
人权专员洛林·芬利(Lorraine Finlay)警告称,追求人工智能的经济利益绝不能以增加歧视的代价为前提。她强调,用于训练人工智能工具的数据集缺乏透明度是关键问题,这使得识别和减轻固有的偏见变得困难。芬利解释说,“算法偏见”意味着不公平直接内置于技术中,导致有偏见的结果。这又因“自动化偏见”而加剧,即人类越来越依赖机器决策,可能在无意识中忽视甚至强化歧视模式。人权委员会一直倡导制定专门的《人工智能法案》,同时加强现有立法如《隐私法案》,并对人工智能系统进行严格的偏见测试。芬利敦促政府迅速建立新的立法保障措施,强调偏见测试、审计和强大的人工监督的必要性。
专员的担忧出现在工党内部关于人工智能治理最佳方法的辩论中。参议员米歇尔·阿南达-拉贾(Michelle Ananda-Rajah)曾是一名医生和人工智能研究员,她明显偏离了一些党派立场,提议应将所有澳大利亚数据“免费”提供给科技公司。她的理由是利用多样化的本地数据训练人工智能模型,从而防止海外偏见的延续,并更好地反映澳大利亚的生活和文化。尽管阿南达-拉贾反对制定专门的《人工智能法案》,但她坚信内容创作者必须为其用于人工智能训练的作品获得报酬。她认为,如果不开放国内数据,澳大利亚将面临永久“租赁”国际科技巨头人工智能模型的风险,从而缺乏对其运作的监督或洞察。
国内外关于人工智能偏见的证据已越来越多。研究表明,在医疗和招聘等关键领域出现了歧视性结果。例如,五月份发布的一项澳大利亚研究发现,接受人工智能招聘人员面试的求职者可能因口音或残疾而面临歧视。阿南达-拉贾引用皮肤癌筛查作为另一个例子,指出人工智能工具中的算法偏见可能导致患者待遇不平等,强调需要在全面、多样化的澳大利亚数据上训练模型,同时保护敏感信息。
虽然“解放”数据被一些人视为解决方案的一部分,但其他专家强调需要采取多管齐下的方法。拉筹伯大学的人工智能专家朱迪思·比肖普(Judith Bishop)承认,更多的澳大利亚数据可以改善人工智能训练,并警告不要过度依赖基于外国数据集训练的美国模型。然而,她强调这只是更广泛解决方案的一个组成部分。同样,eSafety专员朱莉·英曼·格兰特(Julie Inman Grant)也对人工智能训练数据缺乏透明度表示担忧。她呼吁科技公司公开其数据来源,开发强大的报告工具,并确保其产品使用多样化、准确和具有代表性数据。英曼·格兰特强调“生成式人工智能开发的不透明性”问题严重,引发了对大型语言模型可能“放大甚至加速有害偏见——包括狭隘或有害的性别规范和种族偏见”的担忧,尤其考虑到开发集中在少数几家公司手中,这可能导致某些声音和观点被边缘化。
这些专家普遍认为,尽管人工智能潜力巨大,但其在澳大利亚的开发和部署迫切需要监管关注、对数据多样性的承诺以及坚定不移的透明度,以确保它公平公正地服务于所有澳大利亚人,而非加深现有分歧。联邦经济峰会和政治圈内正在进行的讨论反映出人们日益认识到,驾驭人工智能的未来需要在创新与道德责任之间取得谨慎平衡,尤其是在知识产权和隐私保护方面,媒体和艺术团体担心这些正受到“猖獗盗窃”的威胁。