SAS ViyaがAIの偏見を自動修正、信頼できるMLを実現

Blogs

バイアスは、意識的であろうと無意識的であろうと、人間の思考と機能に固有のものであり、人工知能や機械学習モデルを設計する際に重大な課題を提起します。AIシステムは、冷徹で公平な機械とはかけ離れており、欠陥のあるデータや偏ったアルゴリズムで訓練された場合、深いバイアスを抱える可能性があります。このようなバイアスは、対処されなければ、不公平、不正確、または差別的な結果につながる可能性があり、重大な影響を及ぼします。倫理的なAIを育成するための重要な一歩として、SASはSAS Viya内の最も人気のあるいくつかの機械学習手順に、自動バイアス軽減機能の統合を発表しました。

機械学習におけるバイアスとは、誤った仮定、欠陥のあるデータ、またはアルゴリズム設計の欠陥に起因するモデル予測における体系的なエラーを指します。これらのエラーはいくつかの方法で現れる可能性があります。予測バイアスは、モデルの平均予測が実際の真値から一貫して逸脱する場合に発生します。訓練データバイアスは、モデルの訓練に使用されるデータセットが、少数派グループの過少表現のように、現実世界の人口を正確に表現していない場合に生じます。一方、アルゴリズムバイアスは、モデル自体の設計に起因し、過度な正則化や、公平性を犠牲にして精度を優先する最適化戦略によるものかもしれません。特に陰湿な形式は、複数の疎外されたアイデンティティを持つグループ(例えば、黒人女性)に対する差別を含む交差バイアスであり、単一属性の公平性介入では見過ごされがちです。

機械学習バイアスの現実世界への影響はすでに明らかです。2014年、大手フォーチュン100企業は、10年分の主に男性従業員の履歴書で訓練されたAI採用モデルが男性候補者を優遇し始めた後、メディアから広範な批判に直面しました。このシステムは、「女性の」のような単語を含む履歴書にペナルティを課し、女子大学の卒業生を格下げし、資格のある女性が男性の同僚と比較して職を得ることを著しく困難にしました。最近では、著名な健康保険会社が、保険金請求の承認または拒否を決定するためのAI駆動システムが偏見を持っていると主張する集団訴訟に直面しています。訴訟は、アルゴリズムが主要な医療請求を誤って拒否し、個人に自己負担を強いて、しばしば重大な経済的苦痛を引き起こしていると主張しています。

信頼できるAIの重要な必要性を認識し、SASはバイアスを根源から解決することに取り組んでいます。SAS Viyaの最新アップデートは、バイアス検出と軽減をそのコア機械学習手順に直接統合し、手動作業を減らし、モデルの信頼性を高めることを目指しています。この組み込み機能は、ユーザーがAIモデルが倫理的な意思決定を行っているという大きな自信を提供します。

バイアス軽減戦略は、一般的に3つのカテゴリに分類されます。前処理方法は、モデル訓練が開始される前に訓練データセットを変更することでバイアスを軽減しようとします。逆に、インプロセス方法は、訓練プロセス中にモデルパラメータを調整することで機能します。最後に、後処理方法は、スコアリングフェーズ中にモデルの出力を変更することでバイアスを軽減することを目的としています。SAS Viya内のサポートされている手順でMITIGATEBIASオプションが有効にされると、システムは指数勾配降下法(Exponentiated Gradient Reduction, EGR)アルゴリズムを採用します。これは、モデル訓練フェーズ中に個々のデータ観測の重みを調整することで機能するインプロセス方法です。モデルバイアスを軽減するのに効果的ですが、このアプローチはモデルの訓練時間を増加させる可能性もあることに注意することが重要です。

SASは信頼できるAIを提供することへのコミットメントを強調しており、SAS Viyaはユーザーが責任ある倫理的なAIモデルを構築できるように設計されています。同社は、AIおよび機械学習モデルが、FOREST、GRADBOOST、NNET、SVMACHINE、TREESPLITなどの手順に影響を与えつつ、一貫して信頼できる偏りのない出力をすぐに提供できるように、より良いツールとプログラムを積極的に開発していると述べています。