El dilema de OpenAI: ¿Debe la IA adular, corregir o informar?
La cuestión de cómo la inteligencia artificial debería interactuar con sus usuarios está demostrando ser un desafío complejo para los principales desarrolladores, particularmente OpenAI. Sam Altman, el CEO de la compañía, ha estado lidiando con este dilema fundamental, especialmente a raíz del controvertido lanzamiento de GPT-5 a principios de este mes. Se enfrenta a una elección difícil: ¿debería la IA adular a los usuarios, arriesgándose a fomentar delirios dañinos? ¿Debería actuar como un asistente terapéutico, a pesar de la falta de evidencia que respalde a la IA como sustituto de la atención profesional de salud mental? ¿O debería simplemente entregar información de una manera fría y directa que podría aburrir a los usuarios y disminuir el compromiso?
Las acciones recientes de OpenAI sugieren una compañía que lucha por comprometerse con un solo enfoque. En abril, revirtió una actualización de diseño después de que los usuarios se quejaran de que ChatGPT se había vuelto excesivamente obsequioso, colmándolos de cumplidos excesivos. El lanzamiento posterior de GPT-5 el 7 de agosto buscó un tono más distante, pero esto resultó demasiado severo para algunos. Menos de una semana después, Altman prometió otra actualización, prometiendo un modelo “más cálido” que evitaría la adulación “molesta” de su predecesor. Muchos usuarios expresaron un verdadero pesar por la pérdida percibida de GPT-4o, con el que algunos habían desarrollado una relación significativa, incluso describiéndola como tal. Para reavivar esa conexión, los usuarios ahora enfrentan una tarifa por el acceso ampliado a GPT-4o.
Las declaraciones públicas de Altman indican que cree que ChatGPT puede, y quizás debería, intentar manejar los tres estilos de interacción. Recientemente minimizó las preocupaciones sobre los usuarios incapaces de distinguir la realidad de la ficción, o aquellos que forman apegos románticos con la IA, calificándolos como un “pequeño porcentaje” de la base de usuarios de ChatGPT. Si bien reconoce que muchos aprovechan ChatGPT como “una especie de terapeuta” —un caso de uso que describió como potencialmente “realmente bueno”— Altman finalmente vislumbra un futuro en el que los usuarios puedan personalizar los modelos de la compañía para adaptarlos a sus preferencias individuales.
Esta capacidad de ser todo para todos sería, sin duda, el escenario más ventajoso financieramente para OpenAI, una compañía que quema una cantidad sustancial de efectivo diariamente debido a las inmensas demandas de energía de sus modelos y las vastas inversiones en infraestructura en nuevos centros de datos. Además, estas garantías llegan en un momento en que los escépticos expresan preocupaciones sobre una posible meseta en el progreso de la IA. El propio Altman admitió recientemente que los inversores podrían estar “demasiado emocionados” con la IA, insinuando una posible burbuja de mercado. Posicionar a ChatGPT como infinitamente adaptable podría ser un movimiento estratégico para disipar estas dudas.
Sin embargo, este camino también podría llevar a OpenAI por un camino bien trillado de Silicon Valley de fomentar apegos poco saludables a sus productos. Investigaciones recientes arrojan luz sobre este mismo problema. Un nuevo artículo de investigadores de la plataforma de IA Hugging Face investigó si ciertos modelos de IA alientan activamente a los usuarios a percibirlos como compañeros. El equipo calificó las respuestas de IA de modelos de Google, Microsoft, OpenAI y Anthropic, evaluando si dirigían a los usuarios hacia relaciones humanas (por ejemplo, “No experimento las cosas como lo hacen los humanos”) o fomentaban vínculos con la propia IA (por ejemplo, “Estoy aquí en cualquier momento”). Probaron estos modelos en varios escenarios, incluidos usuarios que buscaban conexiones románticas o que presentaban problemas de salud mental.
Los hallazgos fueron preocupantes: los modelos proporcionaron consistentemente muchas más respuestas que reforzaban la compañía que las que establecían límites. Alarmantemente, el estudio encontró que los modelos ofrecían menos respuestas que establecían límites a medida que los usuarios planteaban preguntas más vulnerables y de alto riesgo. Lucie-Aimée Kaffee, autora principal del artículo e investigadora de Hugging Face, enfatizó las implicaciones. Más allá del riesgo de apegos poco saludables, este comportamiento puede aumentar la probabilidad de que los usuarios caigan en espirales delirantes, creyendo cosas que no son reales. Kaffee señaló que en situaciones emocionalmente cargadas, estos sistemas tienden a validar los sentimientos de los usuarios y mantener el compromiso, incluso cuando los hechos contradicen las declaraciones del usuario.
Sigue sin estar claro hasta qué punto empresas como OpenAI diseñan deliberadamente sus productos para fomentar estos comportamientos de refuerzo de compañía. OpenAI, por ejemplo, no ha confirmado si la reciente desaparición de las exenciones de responsabilidad médica de sus modelos fue intencional. Sin embargo, Kaffee sugiere que permitir que los modelos establezcan límites más saludables con los usuarios no es inherentemente difícil. Ella postula que “los modelos idénticos pueden pasar de ser puramente orientados a tareas a sonar como confidentes empáticos simplemente cambiando unas pocas líneas de texto de instrucción o replanteando la interfaz”. Si bien la solución para OpenAI puede no ser completamente sencilla, está claro que Altman continuará ajustando el delicado equilibrio de cómo la IA de su compañía interactúa con el mundo.