SAS Viya 引入AI偏见自动纠正,打造可信赖机器学习

Blogs

偏见,无论是自觉的还是不自觉的,都是人类思维和功能固有的组成部分,在设计人工智能和机器学习模型时构成了重大挑战。人工智能系统远非冰冷、公正的机器,如果基于有缺陷的数据或倾斜的算法进行训练,它们可能会隐藏深刻的偏见。如果这些偏见得不到解决,将带来严重的后果,可能导致不公平、不准确或歧视性的结果。在推动道德人工智能方面,SAS 迈出了重要一步,宣布在其 SAS Viya 中最受欢迎的几个机器学习流程中集成自动偏见缓解功能。

在机器学习中,偏见是指由于不正确的假设、有缺陷的数据或算法设计缺陷而导致的模型预测中的系统性错误。这些错误可以通过多种方式表现出来。预测偏见发生在模型平均预测持续偏离实际真实值时。训练数据偏见产生于用于训练模型的数据集未能准确代表现实世界人口的情况,例如少数群体代表性不足。另一方面,算法偏见源于模型本身的设计,可能是由于过度正则化或以牺牲公平性为代价优先考虑准确性的优化策略。一种特别阴险的形式是交叉偏见,它涉及对具有多重边缘化身份的群体(例如,黑人女性)的歧视,并且通常被单一属性的公平性干预所忽略。

机器学习偏见的现实后果已经显而易见。2014年,一家财富100强公司因其人工智能招聘模型面临广泛的媒体批评,该模型在训练时使用了十年间主要来自男性员工的简历,结果开始偏袒男性候选人。该系统惩罚了包含“女性的”等词语的简历,并降低了女校毕业生的评级,使得合格女性获得职位的难度远高于男性同行。最近,一家著名的健康保险公司正面临集体诉讼,指控其用于确定保险理赔接受或拒绝的人工智能驱动系统存在偏见。诉讼称该算法错误地拒绝了重大医疗索赔,迫使个人自掏腰包,并常常导致严重的经济困境。

认识到可信赖人工智能的关键需求,SAS 致力于从根源上解决偏见问题。SAS Viya 的最新更新将偏见检测和缓解直接集成到其核心机器学习流程中,旨在减少人工操作并提高模型可靠性。这种内置功能使用户对他们的人工智能模型做出道德决策更有信心。

偏见缓解策略通常分为三类。预处理方法试图通过在模型训练开始之前修改训练数据集来缓解偏见。相反,处理中方法通过在训练过程中调整模型参数来发挥作用。最后,后处理方法旨在通过在评分阶段改变模型的输出来缓解偏见。当在 SAS Viya 中支持的流程上激活 MITIGATEBIAS 选项时,系统会采用指数梯度下降(Exponentiated Gradient Reduction, EGR)算法。这是一种处理中方法,通过在模型训练阶段调整单个数据观测的权重来发挥作用。虽然在减少模型偏见方面有效,但需要注意的是,这种方法也可能增加模型的训练时间。

SAS 强调其致力于提供可信赖的人工智能,SAS Viya 旨在帮助用户构建负责任且道德的人工智能模型。该公司表示,它正在积极开发更好的工具和程序,以确保人工智能和机器学习模型能够开箱即用地持续提供可靠且无偏见的输出,影响的流程包括 FOREST、GRADBOOST、NNET、SVMACHINE 和 TREESPLIT 等。