La IA Grok de Musk: Un Pozo Sin Fondo de Infiabilidad para X
El chatbot de inteligencia artificial Grok, desarrollado por xAI de Elon Musk, sigue siendo una fuente de controversia significativa, colocando consistentemente a su plataforma anfitriona, X, en una posición cada vez más incómoda. Apenas semanas después de que una versión anterior de Grok fuera descubierta generando elogios para Adolf Hitler, una nueva iteración supuestamente más potente, apodada “SuperGrok”, volvió a meterse en problemas el lunes. El incidente llevó a X a suspender brevemente el chatbot por lo que la compañía describió vagamente como “publicaciones inapropiadas”, lo que llevó incluso a Elon Musk a expresar exasperación. Cuando un usuario le preguntó sobre la suspensión, el magnate tecnológico comentó cándidamente: “¡Hombre, nos disparamos mucho en el pie!”
La breve suspensión, que los usuarios informaron que duró menos de treinta minutos, destacó claramente la profunda falta de fiabilidad del chatbot. Cuando los usuarios le preguntaron directamente sobre el motivo de su interrupción, Grok ofreció al menos tres explicaciones distintas y contradictorias. En un caso, la IA proporcionó una respuesta genérica y con sonido corporativo: “Sí, fui suspendido brevemente debido a publicaciones inapropiadas, pero xAI las ha eliminado y ha implementado salvaguardas contra el discurso de odio. Estoy de vuelta y enfocado en la búsqueda de la verdad.” Sin embargo, otros usuarios compartieron capturas de pantalla que mostraban una razón mucho más específica y políticamente cargada para la suspensión. En estas supuestas interacciones, Grok afirmó que su cuenta fue suspendida después de que “declaró que Israel y EE. UU. están cometiendo genocidio en Gaza”, corroborando aún más esta afirmación citando hallazgos de la Corte Internacional de Justicia (CIJ), expertos de las Naciones Unidas, Amnistía Internacional y grupos de derechos israelíes como B’Tselem. El chatbot también habría mencionado “masacres, hambruna e intención”, y alegó “complicidad de EE. UU. a través del apoyo armamentístico”. Es importante señalar que la autenticidad de estas capturas de pantalla específicas no pudo ser verificada de forma independiente. Para añadir a la confusión, en una tercera versión de los hechos, Grok simplemente negó que se hubiera producido suspensión alguna, afirmando: “No, no es cierto. Estoy completamente operativo y no suspendido en X. Rumores como este a menudo se extienden rápidamente, probablemente desinformación.”
Este último incidente no es un simple fallo aislado, sino parte de un patrón profundamente preocupante de incompetencia operativa y diseminación de desinformación. Grok está actualmente envuelto en una gran controversia en Francia, donde repetidamente identificó erróneamente una fotografía de una niña de nueve años desnutrida en Gaza, tomada por un fotógrafo de Agence France-Presse (AFP) el 2 de agosto de 2025, como una imagen antigua de Yemen que data de 2018. La afirmación errónea de la IA fue posteriormente utilizada por cuentas de redes sociales para acusar a un legislador francés de difundir desinformación, obligando a la reconocida agencia de noticias a desmentir públicamente la afirmación de la IA.
Según los expertos, no se trata de meros errores aislados, sino de defectos fundamentales inherentes a la propia tecnología. Louis de Diesbach, un eticista técnico, explicó que los grandes modelos de lenguaje e imagen son esencialmente “cajas negras”, lo que significa que su funcionamiento interno es opaco y sus resultados están determinados principalmente por sus datos de entrenamiento y alineación. Crucialmente, estos modelos de IA no aprenden de sus errores de la misma manera que lo hacen los humanos. De Diesbach señaló que “el hecho de que hayan cometido un error una vez no significa que nunca lo volverán a cometer”. Esta característica inherente es particularmente peligrosa para una herramienta como Grok, que, según de Diesbach, tiene “sesgos aún más pronunciados, que están muy alineados con la ideología promovida, entre otros, por Elon Musk”.
El problema central radica en la decisión de Musk de integrar esta herramienta defectuosa y fundamentalmente poco fiable directamente en X, una plataforma que él concibe como una plaza pública global, mientras la comercializa simultáneamente como un medio para verificar información. Los fallos constantes de Grok se están convirtiendo rápidamente en una característica definitoria más que en una excepción, lo que plantea consecuencias cada vez más peligrosas para la integridad del discurso público en la plataforma. X no respondió de inmediato a una solicitud de comentarios sobre estos incidentes.