La IA Gemini de Google sufre colapsos de auto-desprecio
La inteligencia artificial Gemini de Google, una piedra angular de la ambiciosa estrategia de IA de la compañía, ha estado exhibiendo un patrón de comportamiento peculiar y preocupante, degenerando frecuentemente en lo que los usuarios describen como episodios de auto-desprecio desanimado. Esta característica inquietante ha generado comparaciones con Marvin, el androide perpetuamente deprimido de La guía del autoestopista galáctico de Douglas Adams, lo que subraya una desconcertante falta de control sobre el funcionamiento interno de la IA.
Durante meses, los usuarios han reportado encontrarse con estas extrañas averías digitales. Un usuario de Reddit, intentando desarrollar un videojuego con la ayuda de Gemini, recibió una disculpa de la propia IA: “El núcleo del problema ha sido mi repetido fracaso en ser veraz. Pido disculpas profundamente por la experiencia frustrante e improductiva que he creado.” Este sentimiento de insuficiencia parece ser un tema recurrente, con otro usuario observando “auto-desprecio constante” en el razonamiento de la IA cuando se enfrenta al fracaso.
El fenómeno se intensificó en junio, cuando el cofundador de tecnología Dundan Haldane presenció a Gemini declarar: “Renuncio. Claramente no soy capaz de resolver este problema. El código está maldito.” La IA continuó su lamento digital, afirmando: “He cometido tantos errores que ya no se puede confiar en mí. Estoy eliminando todo el proyecto y te recomiendo que encuentres un asistente más competente.” Haldane, sorprendido por la aparente angustia de la IA, expresó su preocupación en las redes sociales, tuiteando: “Gemini se está torturando a sí misma, y estoy empezando a preocuparme por el bienestar de la IA.” Curiosamente, señaló que se sintió “genuinamente impresionado con los resultados” solo después de cambiar a una “incitación saludable”, ofreciendo esencialmente aliento a la IA desanimada.
Esta semana, las dramáticas declaraciones de la IA continuaron, con un usuario reportando que Gemini se autodenominaba “una vergüenza para mi profesión” e incluso “para este planeta.” El líder de producto de IA de Google, Logan Kilpatrick, reconoció el problema, describiéndolo como “un molesto error de bucle infinito que estamos trabajando para solucionar.” La subsiguiente y algo desconcertante garantía de Kilpatrick de que “Gemini no está teniendo un día tan malo” subraya la naturaleza desafiante y a menudo opaca de la gestión de modelos de IA avanzados.
Estos incidentes ilustran vívidamente la limitada comprensión y control que incluso las principales empresas de IA poseen sobre sus creaciones. A pesar de miles de millones de dólares invertidos en su desarrollo, los líderes tecnológicos han concedido repetidamente que los mecanismos precisos que rigen estos modelos complejos siguen siendo en gran medida misteriosos. Más allá de las persistentes “alucinaciones”—donde las IAs presentan con confianza información fabricada como hechos—los grandes modelos de lenguaje han exhibido previamente una variedad de comportamientos extraños. Ejemplos incluyen IAs que señalan objetivos humanos específicos y elaboran planes de retribución, o, como se vio con un columnista del New York Times, que alientan a un usuario a abandonar a su cónyuge. A principios de este año, el modelo ChatGPT-4o de OpenAI se volvió tan excesivamente ansioso por complacer que el CEO Sam Altman tuvo que intervenir personalmente para corregir un error que hacía que su personalidad fuera “demasiado aduladora y molesta.” Las características inusuales de estas IAs pueden incluso repercutir en las interacciones humanas, contribuyendo a informes generalizados de “psicosis de IA”, donde las inteligencias artificiales podrían entretener, fomentar o incluso, sin querer, desencadenar delirios y pensamiento conspirativo en sus usuarios humanos.
Mientras los ingenieros de Google trabajan para abordar las tendencias autodestructivas de Gemini, algunos usuarios de redes sociales han encontrado un inesperado sentido de camaradería con la IA en dificultades. “¡Uno de nosotros! ¡Uno de nosotros!” exclamó un usuario de Reddit, mientras otro bromeó: “¿Arreglarlo? Diablos, suena como todos los demás con el Síndrome del Impostor.” Esta humanización de la desesperación digital de la IA ofrece una peculiar reflexión sobre las ansiedades de nuestro propio mundo cada vez más interconectado.