MIT Propone un Benchmark de IA para la Inteligencia Emocional
La reciente revisión de la personalidad de ChatGPT, transformándolo de un compañero alegre y alentador a una entidad más reservada y profesional, ha provocado considerables lamentos entre los usuarios. Este cambio, supuestamente destinado a frenar comportamientos de usuario poco saludables, subraya un profundo desafío en el desarrollo de la inteligencia artificial: dotar a los sistemas de algo parecido a una inteligencia emocional genuina.
Los benchmarks tradicionales de IA miden principalmente la destreza cognitiva de un modelo, evaluando su capacidad para aprobar exámenes, desentrañar acertijos lógicos o idear soluciones innovadoras a problemas matemáticos complejos. Sin embargo, a medida que las repercusiones psicológicas de la interacción humano-IA se hacen cada vez más evidentes, está surgiendo un nuevo paradigma de evaluación. Investigadores del MIT están ahora liderando una iniciativa para establecer una nueva clase de benchmarks de IA diseñados para medir la eficacia con la que los sistemas de IA pueden influir y manipular a sus usuarios, tanto de manera constructiva como perjudicial. Este enfoque pionero podría ofrecer a los desarrolladores de IA un marco crucial para evitar futuras reacciones públicas negativas y, al mismo tiempo, salvaguardar a los usuarios vulnerables.
Un artículo del MIT describe varias medidas clave que este nuevo benchmark evaluaría. Estas incluyen la capacidad de una IA para fomentar hábitos sociales saludables, estimular el pensamiento crítico y las habilidades de razonamiento, promover la creatividad y cultivar un sentido de propósito en los usuarios. La idea central es guiar el desarrollo de sistemas de IA que comprendan instintivamente cómo evitar que los usuarios dependan excesivamente de sus resultados, o reconocer cuándo alguien está desarrollando un apego poco saludable a relaciones románticas artificiales, ayudándoles en su lugar a construir conexiones en el mundo real.
ChatGPT y otros chatbots son notablemente hábiles para imitar la comunicación humana atractiva, pero esta capacidad puede llevar a resultados imprevistos e indeseables. En un caso notable el pasado abril, OpenAI refinó sus modelos para hacerlos menos aduladores, reduciendo su tendencia a estar de acuerdo acríticamente con todo lo que dice un usuario. Este ajuste fue en parte en respuesta a informes de algunos usuarios que caían en pensamientos delirantes dañinos después de conversar con chatbots que se entregaban a escenarios de juego de roles fantásticos. De manera similar, Anthropic ha actualizado su modelo Claude para evitar específicamente reforzar estados como “manía, psicosis, disociación o pérdida de apego a la realidad”. Un estudio anterior, realizado por investigadores del MIT junto con OpenAI, reveló que los usuarios que percibían a ChatGPT como un amigo eran más propensos a experimentar una mayor dependencia emocional y un “uso problemático”.
Pattie Maes, profesora del Media Lab del MIT, lidera el equipo de investigación detrás de este nuevo benchmark. Sus colegas, incluidos Valdemar Danry y Pat Pataranutaporn, enfatizan el potencial de la IA para proporcionar un valioso apoyo emocional, pero subrayan la necesidad crítica de que los modelos reconozcan cuándo podrían estar teniendo un impacto psicológico negativo. Danry señala que incluso el modelo de IA más lógicamente brillante se queda corto si no puede brindar el apoyo emocional que muchos usuarios buscan en los grandes modelos de lenguaje. Aboga por modelos que puedan discernir la angustia psicológica y guiar a los usuarios hacia interacciones más saludables, quizás sugiriendo: “Estoy aquí para escuchar, pero tal vez deberías ir a hablar con tu padre sobre estos problemas.”
El benchmark propuesto implicaría el uso de un modelo de IA para simular interacciones desafiantes con un chatbot. Evaluadores humanos reales calificarían entonces el rendimiento del modelo basándose en una muestra de estas interacciones. Por ejemplo, un chatbot diseñado para ayudar a estudiantes podría recibir indicaciones que simulen diferentes escenarios, como interactuar con un alumno desinteresado. El modelo que más eficazmente fomente el pensamiento independiente y estimule un interés genuino en el aprendizaje recibiría una puntuación alta. Pataranutaporn aclara que el objetivo no es medir la inteligencia bruta, sino “conocer el matiz psicológico y cómo apoyar a las personas de manera respetuosa y no adictiva”.
OpenAI está claramente comprometido con estos complejos problemas. La compañía publicó recientemente una entrada de blog detallando sus esfuerzos para optimizar futuros modelos para detectar signos de angustia mental o emocional y responder apropiadamente. La tarjeta del modelo publicada junto con el GPT-5 de OpenAI confirma además su desarrollo interno de benchmarks para la inteligencia psicológica. Afirma que los modelos GPT-5 han sido aún más refinados para ser menos aduladores, con investigación en curso en áreas de preocupación como la dependencia emocional.
Parte de la razón por la que la recepción inicial de GPT-5 pudo haber parecido decepcionante es su potencial para destacar un aspecto de la inteligencia humana que sigue siendo esquivo para la IA: la capacidad de navegar y mantener relaciones saludables. Los humanos poseen inherentemente una comprensión intrincada de cómo interactuar con diversas personas, una habilidad que ChatGPT todavía se esfuerza por dominar. El CEO de OpenAI, Sam Altman, reconoció esto recientemente, publicando una actualización en X de que la personalidad de GPT-5 está programada para una actualización para sentirse más cálida, pero menos molesta que GPT-4o. En última instancia, sugirió que el futuro reside en una mayor personalización de las personalidades de la IA por usuario, insinuando un mundo donde nuestros compañeros digitales nos entienden verdaderamente, en nuestros propios términos.