IA: ¿Más tolerantes a sus errores a medida que se vuelve la norma?

Theconversation

A lo largo de la historia, la humanidad ha navegado por cambios radicales provocados por nuevas invenciones, desde la imprenta hasta internet. Cada tecnología transformadora ha sido inevitablemente recibida con cierto escepticismo por quienes vivieron su emergencia. Solo en las últimas tres décadas, internet ha remodelado profundamente cómo buscamos, procesamos y confiamos en la información, y más recientemente, cómo interactuamos con la inteligencia artificial.

Inicialmente, las nuevas tecnologías y métodos a menudo enfrentan un intenso escrutinio, y sus fallas y errores son juzgados con más dureza que las prácticas establecidas. Estas aprehensiones no carecen de mérito; continúan debates vitales sobre la rendición de cuentas, la ética, la transparencia y la equidad en el despliegue de los sistemas de IA. Sin embargo, persiste una pregunta más profunda: ¿cuánto de nuestra aversión proviene de la tecnología misma, y cuánto es simplemente la incomodidad de apartarse del familiar statu quo?

Este fenómeno, denominado “aversión al algoritmo”, describe la tendencia a juzgar un algoritmo con más severidad por cometer el mismo error que podría cometer un humano. Mi investigación en psicología cognitiva, realizada con mis colegas Jonathan A. Fugelsang y Derek J. Koehler, explora cómo nuestra evaluación de los errores está moldeada por el contexto, particularmente por lo que percibimos como la norma. A pesar de que los algoritmos superan consistentemente a los humanos en diversas tareas de predicción y juicio, una desconfianza persistente ha durado décadas. Esta resistencia se remonta a la década de 1950, cuando el argumento del psicólogo Paul Meehl de que los modelos estadísticos simples podían hacer predicciones más precisas que los médicos capacitados fue recibido con lo que Daniel Kahneman describió más tarde como “hostilidad e incredulidad”. Esta resistencia temprana sigue resonando en estudios más recientes que demuestran la aversión al algoritmo.

Para investigar este sesgo, diseñamos un experimento donde los participantes evaluaron errores cometidos por un humano o un algoritmo. Crucialmente, antes de presentar el error, les informamos qué opción se consideraba “convencional” —históricamente dominante, ampliamente utilizada y típicamente confiada en ese escenario. En la mitad de los ensayos, los humanos fueron enmarcados como la norma tradicional; en la otra mitad, los algoritmos fueron designados como el agente convencional.

Nuestros hallazgos revelaron un cambio significativo en el juicio. Cuando los humanos fueron presentados como la norma, los errores algorítmicos fueron de hecho juzgados con más dureza. Sin embargo, cuando los algoritmos fueron enmarcados como el método convencional, los participantes se volvieron más indulgentes con los errores algorítmicos y, sorprendentemente, más críticos con los humanos que cometían los mismos errores. Esto sugiere que las reacciones de las personas pueden tener menos que ver con la naturaleza intrínseca de los algoritmos versus los humanos, y más con si un método se alinea con su modelo mental de cómo se “supone” que se hacen las cosas. En esencia, mostramos mayor tolerancia cuando la fuente de un error es también el statu quo imperante, y un juicio más severo cuando los errores provienen de lo que se siente nuevo o poco convencional.

Es cierto que las explicaciones de la aversión al algoritmo a menudo resuenan intuitivamente; un tomador de decisiones humano, por ejemplo, podría captar matices de la vida real que un sistema algorítmico no puede. Pero, ¿se trata esta aversión únicamente de las limitaciones no humanas de la IA, o parte de la resistencia tiene sus raíces en la incomodidad más amplia de la transición de una norma establecida a otra? Ver estas preguntas a través de la lente histórica de las relaciones humanas con tecnologías pasadas nos obliga a reconsiderar suposiciones comunes sobre por qué los algoritmos a menudo son recibidos con escepticismo y menos perdón.

Los signos de esta transición ya son omnipresentes. Los debates en torno a la ética y la rendición de cuentas de la IA no han frenado, por ejemplo, su adopción generalizada. Durante décadas, la tecnología algorítmica nos ha ayudado discretamente a navegar el tráfico, encontrar parejas, detectar fraudes, recomendar entretenimiento e incluso asistir en diagnósticos médicos. Si bien numerosos estudios documentan la aversión al algoritmo, investigaciones recientes también señalan la “apreciación del algoritmo”, donde los individuos prefieren activamente o se remiten a los consejos algorítmicos en diversas situaciones. A medida que nuestra dependencia de los algoritmos crece —especialmente cuando demuestran ser más rápidos, fáciles o demostrablemente más confiables—, un cambio fundamental en cómo percibimos estas tecnologías, y sus errores inevitables, parece ineludible. Esta evolución de la aversión total a una tolerancia creciente sugiere que nuestro juicio sobre los errores puede depender en última instancia menos de quién los comete y más de a qué nos hemos acostumbrado.