SAS Viya Integra Mitigación Automática de Sesgos para una IA Confiable

Blogs

El sesgo, ya sea consciente o inconsciente, es una parte inherente del pensamiento y la función humana, y plantea un desafío significativo al diseñar modelos de inteligencia artificial y aprendizaje automático. Lejos de ser máquinas frías e imparciales, los sistemas de IA pueden albergar profundos sesgos si se entrenan con datos defectuosos o con algoritmos sesgados. Dichos sesgos conllevan consecuencias sustanciales, pudiendo conducir a resultados injustos, inexactos o discriminatorios si no se abordan. En un movimiento significativo hacia el fomento de una IA ética, SAS ha anunciado la integración de la mitigación automática de sesgos en varios de sus procedimientos de aprendizaje automático más populares dentro de SAS Viya.

En el aprendizaje automático, el sesgo se refiere a errores sistemáticos en las predicciones del modelo que provienen de suposiciones incorrectas, datos defectuosos o deficiencias en el diseño algorítmico. Estos errores pueden manifestarse de varias maneras. El sesgo de predicción ocurre cuando la predicción promedio de un modelo se desvía consistentemente de los valores reales. El sesgo de datos de entrenamiento surge cuando el conjunto de datos utilizado para entrenar el modelo no representa con precisión la población del mundo real, como una subrepresentación de grupos minoritarios. El sesgo algorítmico, por otro lado, se origina en el diseño del modelo en sí, quizás a través de una regularización excesiva o una estrategia de optimización que prioriza la precisión a expensas de la equidad. Una forma particularmente insidiosa es el sesgo interseccional, que implica discriminación contra grupos con múltiples identidades marginadas —por ejemplo, mujeres negras— y a menudo es pasado por alto por intervenciones de equidad de un solo atributo.

Las ramificaciones en el mundo real del sesgo del aprendizaje automático ya son evidentes. En 2014, una importante empresa de Fortune 100 enfrentó críticas generalizadas de los medios después de que su modelo de reclutamiento de IA, entrenado con una década de currículums predominantemente de empleados masculinos, comenzara a favorecer a candidatos masculinos. Este sistema penalizaba los currículums que contenían palabras como “de mujeres” y degradaba a las graduadas de universidades femeninas, lo que dificultaba considerablemente que las mujeres calificadas obtuvieran puestos en comparación con sus homólogos masculinos. Más recientemente, un destacado proveedor de seguros de salud está navegando una demanda colectiva que alega que su sistema impulsado por IA para determinar la aceptación o denegación de reclamos de seguros es sesgado. La demanda afirma que el algoritmo está denegando erróneamente reclamos médicos importantes, forzando a los individuos a pagar de su bolsillo y a menudo llevando a una angustia financiera significativa.

Reconociendo la necesidad crítica de una IA confiable, SAS se compromete a abordar el sesgo en su raíz. La última actualización de SAS Viya integra la detección y mitigación de sesgos directamente en sus procedimientos centrales de aprendizaje automático, con el objetivo de reducir el esfuerzo manual y mejorar la fiabilidad del modelo. Esta capacidad incorporada ofrece a los usuarios mayor confianza en que sus modelos de IA están tomando decisiones éticas.

Las estrategias de mitigación de sesgos generalmente se dividen en tres categorías. Los métodos de preprocesamiento intentan mitigar el sesgo alterando el conjunto de datos de entrenamiento antes de que comience el entrenamiento del modelo. Los métodos en proceso, por el contrario, funcionan ajustando los parámetros del modelo durante el propio proceso de entrenamiento. Finalmente, los métodos de posprocesamiento tienen como objetivo mitigar el sesgo alterando las salidas del modelo durante la fase de puntuación. Cuando se activa la opción MITIGATEBIAS en un procedimiento compatible dentro de SAS Viya, el sistema emplea el algoritmo de Reducción de Gradiente Exponenciado (EGR). Este es un método en proceso que funciona ajustando los pesos de las observaciones de datos individuales durante la fase de entrenamiento del modelo. Si bien es efectivo para reducir el sesgo del modelo, es importante tener en cuenta que este enfoque también puede aumentar el tiempo de entrenamiento del modelo.

SAS enfatiza su compromiso de ofrecer una IA confiable, con SAS Viya diseñado para ayudar a los usuarios a construir modelos de IA responsables y éticos. La compañía afirma que está desarrollando activamente mejores herramientas y programas para garantizar que los modelos de IA y aprendizaje automático ofrezcan consistentemente resultados fiables y sin sesgos desde el primer momento, afectando a procedimientos como FOREST, GRADBOOST, NNET, SVMACHINE y TREESPLIT, entre otros.