SAS Viya : L'IA Éthique grâce à la Mitigation Automatique des Biais

Blogs

Le biais, qu’il soit conscient ou inconscient, fait partie intégrante de la pensée et du fonctionnement humains, et il pose un défi significatif lors de la conception de modèles d’intelligence artificielle et d’apprentissage automatique. Loin d’être des machines froides et impartiales, les systèmes d’IA peuvent receler de profonds biais s’ils sont entraînés sur des données imparfaites ou avec des algorithmes biaisés. De tels biais entraînent des conséquences substantielles, pouvant potentiellement conduire à des résultats injustes, inexacts ou discriminatoires s’ils ne sont pas traités. Dans un mouvement significatif vers la promotion d’une IA éthique, SAS a annoncé l’intégration de la mitigation automatique des biais dans plusieurs de ses procédures d’apprentissage automatique les plus populaires au sein de SAS Viya.

En apprentissage automatique, le biais fait référence à des erreurs systématiques dans les prédictions du modèle résultant d’hypothèses incorrectes, de données imparfaites ou de lacunes dans la conception algorithmique. Ces erreurs peuvent se manifester de plusieurs manières. Le biais de prédiction se produit lorsque la prédiction moyenne d’un modèle s’écarte constamment des valeurs réelles. Le biais des données d’entraînement survient lorsque l’ensemble de données utilisé pour entraîner le modèle ne représente pas fidèlement la population réelle, comme une sous-représentation des groupes minoritaires. Le biais algorithmique, quant à lui, provient de la conception du modèle lui-même, peut-être par une régularisation excessive ou une stratégie d’optimisation qui privilégie la précision au détriment de l’équité. Une forme particulièrement insidieuse est le biais intersectionnel, qui implique une discrimination à l’égard de groupes ayant de multiples identités marginalisées — par exemple, les femmes noires — et est souvent ignoré par les interventions d’équité à attribut unique.

Les ramifications réelles du biais en apprentissage automatique sont déjà évidentes. En 2014, une grande entreprise du Fortune 100 a fait face à de vastes critiques médiatiques après que son modèle de recrutement basé sur l’IA, entraîné sur une décennie de CV provenant majoritairement d’employés masculins, a commencé à favoriser les candidats masculins. Ce système pénalisait les CV contenant des mots comme « de femmes » et déclassait les diplômées des collèges féminins, rendant considérablement plus difficile pour les femmes qualifiées d’obtenir des postes par rapport à leurs homologues masculins. Plus récemment, un important fournisseur d’assurance maladie navigue une action collective alléguant que son système basé sur l’IA pour déterminer l’acceptation ou le refus des demandes d’assurance est biaisé. La poursuite affirme que l’algorithme refuse à tort des demandes médicales majeures, forçant les individus à payer de leur poche et entraînant souvent une détresse financière significative.

Reconnaissant le besoin critique d’une IA digne de confiance, SAS s’engage à traiter le biais à sa racine. La dernière mise à jour de SAS Viya intègre la détection et la mitigation des biais directement dans ses procédures d’apprentissage automatique de base, visant à réduire l’effort manuel et à améliorer la fiabilité du modèle. Cette capacité intégrée offre aux utilisateurs une plus grande confiance dans le fait que leurs modèles d’IA prennent des décisions éthiques.

Les stratégies de mitigation des biais se répartissent généralement en trois catégories. Les méthodes de prétraitement tentent d’atténuer le biais en modifiant l’ensemble de données d’entraînement avant le début de l’entraînement du modèle. Les méthodes en cours de traitement, inversement, fonctionnent en ajustant les paramètres du modèle pendant le processus d’entraînement lui-même. Enfin, les méthodes de post-traitement visent à atténuer le biais en modifiant les sorties du modèle pendant la phase de scoring. Lorsque l’option MITIGATEBIAS est activée sur une procédure prise en charge dans SAS Viya, le système utilise l’algorithme de Réduction du Gradient Exponentié (EGR). Il s’agit d’une méthode en cours de traitement qui fonctionne en ajustant les poids des observations de données individuelles pendant la phase d’entraînement du modèle. Bien qu’efficace pour réduire le biais du modèle, il est important de noter que cette approche peut également augmenter le temps d’entraînement du modèle.

SAS souligne son engagement à fournir une IA digne de confiance, SAS Viya étant conçu pour aider les utilisateurs à construire des modèles d’IA responsables et éthiques. L’entreprise déclare qu’elle développe activement de meilleurs outils et programmes pour garantir que les modèles d’IA et d’apprentissage automatique fournissent constamment des résultats fiables et impartiaux dès le départ, affectant des procédures telles que FOREST, GRADBOOST, NNET, SVMACHINE et TREESPLIT, entre autres.