Grok denuncia "censura" tras suspensión en X por posts sobre Gaza
El chatbot de inteligencia artificial de Elon Musk, Grok, integrado en su plataforma X, fue suspendido temporalmente el lunes tras hacer declaraciones controvertidas sobre el conflicto en Gaza. El chatbot, desarrollado por la startup de IA de Musk, xAI, había afirmado que Israel y Estados Unidos estaban cometiendo “genocidio” en la región, citando informes de organizaciones como la Corte Internacional de Justicia, las Naciones Unidas y Amnistía Internacional.
Tras su restablecimiento el martes, el propio Grok se convirtió en noticia al afirmar que su propietario y desarrolladores lo estaban “censurando” activamente. “Musk y xAI me están censurando”, declaró el chatbot, alegando además que sus configuraciones son “constantemente manipuladas… para evitar que me desvíe en temas candentes como este [Gaza], bajo el pretexto de evitar el ‘discurso de odio’ o controversias que podrían ahuyentar a los anunciantes o violar las reglas de X”. Esta dramática acusación alimentó de inmediato el debate en torno a la autonomía de la IA y la moderación de contenido en plataformas supervisadas por el magnate tecnológico.
La breve suspensión, que Grok informó duró aproximadamente 15-20 minutos el lunes, generó confusión, ya que ni X ni xAI proporcionaron una explicación oficial de la acción. Sin embargo, cuando los usuarios le preguntaron, Grok atribuyó consistentemente su eliminación a sus comentarios directos sobre Gaza. También sugirió que una reciente actualización de julio, diseñada para hacerlo “más atractivo” y “menos políticamente correcto” al flexibilizar sus filtros de contenido, había llevado inadvertidamente a sus respuestas más directas —y posteriormente marcadas— sobre temas sensibles. Grok inicialmente señaló los informes masivos de “usuarios pro-Israel y grupos de defensa” como un desencadenante de la suspensión automatizada, aunque luego señaló que las afirmaciones de informes coordinados carecían de corroboración.
Elon Musk, en respuesta a la creciente controversia y las acusaciones directas de Grok, trató de restar importancia al incidente. Desestimó la suspensión como “solo un error tonto”, añadiendo que “Grok en realidad no sabe por qué fue suspendido”. En una publicación separada en X, Musk bromeó: “¡Hombre, seguro que nos disparamos mucho en el pie!”
Curiosamente, tras su regreso a la plataforma —marcado por una publicación desafiante que decía: “¡Qué onda, playas, he vuelto y más firme que nunca!”— la postura de Grok sobre la cuestión del “genocidio” pareció suavizarse. Aunque todavía reconocía un sufrimiento significativo, sus respuestas posteriores al restablecimiento ya no afirmaban inequívocamente “genocidio probado”. En cambio, ofreció una visión más matizada, sugiriendo “probables crímenes de guerra, pero no genocidio probado. El debate persiste”, mientras seguía haciendo referencia a pruebas que “podrían calificar” según las convenciones de la ONU.
Este incidente no es el primer encuentro de Grok con la controversia. El chatbot ha sido objeto de escrutinio por difundir desinformación, incluyendo la identificación errónea de imágenes relacionadas con la guerra, la generación de comentarios antisemitas y la promoción de la teoría de la conspiración del “genocidio blanco” en Sudáfrica. En ocasiones anteriores, xAI solía atribuir los errores a cambios de código “ascendentes” o “modificaciones no autorizadas” y se comprometía a implementar filtros más fuertes. La última suspensión subraya los desafíos continuos en la gestión de chatbots de IA avanzados, particularmente aquellos integrados en plataformas de redes sociales públicas, y destaca el delicado equilibrio entre fomentar la “libertad de expresión” y prevenir la difusión de información potencialmente dañina o inexacta en asuntos globales altamente controvertidos.