SAS Viya: Automatische Bias-Minderung für vertrauenswürdige KI
Bias, ob bewusst oder unbewusst, ist ein fester Bestandteil menschlichen Denkens und Handelns und stellt eine erhebliche Herausforderung beim Entwurf von künstlicher Intelligenz und maschinellen Lernmodellen dar. Weit davon entfernt, kalte, unparteiische Maschinen zu sein, können KI-Systeme tiefe Vorurteile hegen, wenn sie mit fehlerhaften Daten oder verzerrten Algorithmen trainiert werden. Solche Vorurteile haben erhebliche Konsequenzen und können, wenn sie unbeachtet bleiben, zu unfairen, ungenauen oder diskriminierenden Ergebnissen führen. In einem wichtigen Schritt zur Förderung ethischer KI hat SAS die Integration der automatischen Bias-Minderung in mehrere seiner beliebtesten maschinellen Lernverfahren innerhalb von SAS Viya angekündigt.
Beim maschinellen Lernen bezieht sich Bias auf systematische Fehler in Modellvorhersagen, die auf falschen Annahmen, fehlerhaften Daten oder Mängeln im algorithmischen Design beruhen. Diese Fehler können sich auf verschiedene Weisen manifestieren. Prädiktions-Bias tritt auf, wenn die durchschnittliche Vorhersage eines Modells konsistent von den tatsächlichen Grundwahrheitswerten abweicht. Trainingsdaten-Bias entsteht, wenn der zum Trainieren des Modells verwendete Datensatz die reale Bevölkerung nicht genau repräsentiert, z. B. eine Unterrepräsentation von Minderheitengruppen. Algorithmischer Bias hingegen stammt aus dem Design des Modells selbst, möglicherweise durch übermäßige Regularisierung oder eine Optimierungsstrategie, die Genauigkeit auf Kosten der Fairness priorisiert. Eine besonders heimtückische Form ist der intersektionale Bias, der Diskriminierung gegenüber Gruppen mit mehreren marginalisierten Identitäten – zum Beispiel schwarzen Frauen – beinhaltet und oft von Fairness-Interventionen mit nur einem Attribut übersehen wird.
Die realen Auswirkungen von Bias im maschinellen Lernen sind bereits offensichtlich. Im Jahr 2014 sah sich ein großes Fortune-100-Unternehmen einer weit verbreiteten Medienkritik gegenüber, nachdem sein KI-Rekrutierungsmodell, das auf Lebensläufen von überwiegend männlichen Mitarbeitern aus einem Jahrzehnt trainiert worden war, männliche Kandidaten bevorzugte. Dieses System bestrafte Lebensläufe, die Wörter wie „Frauen-“ enthielten, und stufte Absolventinnen von Frauenhochschulen herab, was es qualifizierten Frauen erheblich erschwerte, Rollen im Vergleich zu ihren männlichen Kollegen zu erhalten. In jüngerer Zeit navigiert ein prominenter Krankenversicherer eine Sammelklage, die behauptet, dass sein KI-gestütztes System zur Bestimmung der Annahme oder Ablehnung von Versicherungsansprüchen voreingenommen ist. Die Klage behauptet, der Algorithmus lehne fälschlicherweise wichtige medizinische Ansprüche ab, zwinge Einzelpersonen zu Selbstzahlungen und führe oft zu erheblichen finanziellen Schwierigkeiten.
SAS erkennt den kritischen Bedarf an vertrauenswürdiger KI an und ist bestrebt, Bias an der Wurzel zu bekämpfen. Das neueste Update für SAS Viya integriert die Bias-Erkennung und -Minderung direkt in seine Kernverfahren für maschinelles Lernen, um den manuellen Aufwand zu reduzieren und die Modellzuverlässigkeit zu verbessern. Diese integrierte Fähigkeit bietet Benutzern größere Gewissheit, dass ihre KI-Modelle ethische Entscheidungen treffen.
Bias-Minderungsstrategien fallen im Allgemeinen in drei Kategorien. Vorverarbeitungsmethoden versuchen, Bias zu mindern, indem sie den Trainingsdatensatz vor Beginn des Modelltrainings ändern. In-Process-Methoden hingegen arbeiten, indem sie Modellparameter während des Trainingsprozesses selbst anpassen. Schließlich zielen Nachverarbeitungsmethoden darauf ab, Bias zu mindern, indem sie die Ausgaben des Modells während der Scoring-Phase ändern. Wenn die Option MITIGATEBIAS
in einem unterstützten Verfahren innerhalb von SAS Viya aktiviert wird, verwendet das System den Exponentiated Gradient Reduction (EGR)-Algorithmus. Dies ist eine In-Process-Methode, die funktioniert, indem sie die Gewichte einzelner Datenbeobachtungen während der Modelltrainingsphase anpasst. Obwohl sie effektiv ist, um Modell-Bias zu reduzieren, ist es wichtig zu beachten, dass dieser Ansatz auch die Trainingszeit des Modells erhöhen kann.
SAS betont sein Engagement für die Bereitstellung vertrauenswürdiger KI, wobei SAS Viya darauf ausgelegt ist, Benutzer beim Aufbau verantwortungsbewusster und ethischer KI-Modelle zu unterstützen. Das Unternehmen erklärt, dass es aktiv bessere Tools und Programme entwickelt, um sicherzustellen, dass KI- und maschinelle Lernmodelle von Anfang an konsistent zuverlässige und unvoreingenommene Ergebnisse liefern, was Verfahren wie FOREST, GRADBOOST, NNET, SVMACHINE und TREESPLIT und andere betrifft.