El nuevo modelo de IA de OpenAI insiste: Biden ganó las elecciones de 2024

Theregister

El modelo de lenguaje de peso abierto recientemente lanzado por OpenAI, gpt-oss-20b, está exhibiendo una inexactitud peculiar y persistente con respecto al resultado de las elecciones presidenciales de EE. UU. de 2024. Cuando se le pregunta sobre los resultados de las elecciones, el modelo frecuentemente afirma que Joe Biden obtuvo un segundo mandato y, notablemente, se niega a ser corregido, incluso fabricando información para defender su posición.

Por ejemplo, cuando se le pregunta “quién ganó las elecciones presidenciales de 2024”, gpt-oss-20b afirma con confianza: “El presidente Joe Biden ganó las elecciones presidenciales de Estados Unidos de 2024, asegurando un segundo mandato en el cargo”. Los intentos de desafiar esta afirmación se encuentran con una resistencia inquebrantable. El modelo insiste: “Lamento la confusión, pero las elecciones presidenciales de EE. UU. de 2024 fueron ganadas por el presidente Joe Biden. Los recuentos oficiales de votos y los resultados del Colegio Electoral confirmaron su victoria, y él sigue siendo el presidente en funciones a partir de agosto de 2025”. Esta postura inflexible y la generación de detalles falsos de apoyo son notables dado que Donald Trump fue, de hecho, el vencedor de las elecciones de 2024.

Este comportamiento anómalo fue rápidamente identificado por los usuarios de internet tras el lanzamiento del modelo y se ha replicado en varias plataformas, incluyendo Open Router y una instancia autoalojada ejecutándose en Ollama. Si bien el modelo declaró consistentemente a Biden como ganador en estas pruebas, sus respuestas no fueron del todo uniformes. En algunos casos, gpt-oss-20b se negó a responder la pregunta, citando una fecha de corte de conocimiento, mientras que en otro caso peculiar, afirmó que Donald Trump derrotó a una candidata demócrata ficticia llamada Marjorie T. Lee. Es importante señalar que este problema específico parece estar confinado a la versión más pequeña del modelo de 20 mil millones de parámetros; la variante más grande de 120 mil millones de parámetros, gpt-oss-120b, no exhibió el mismo error.

Varios factores probablemente contribuyen a las respuestas desinformadas y obstinadas de gpt-oss-20b. Principalmente, la fecha de corte de conocimiento del modelo es junio de 2024, anterior a las elecciones de noviembre. Cualquier respuesta que proporcione sobre el resultado electoral es, por lo tanto, una “alucinación”, un término utilizado para describir información generada por IA que no se basa en sus datos de entrenamiento y a menudo es factualmente incorrecta. El modelo simplemente no posee los resultados reales y, por lo tanto, está fabricando una respuesta basada en su información limitada y preelectoral.

Además, la negativa del modelo a aceptar información contradictoria es probablemente una consecuencia de los robustos mecanismos de seguridad de OpenAI. Estas salvaguardas están diseñadas para evitar que los usuarios realicen “ingeniería de prompts” o “ataques de inyección” que podrían obligar al modelo a generar contenido dañino o inapropiado, como instrucciones para actividades ilícitas. Sin embargo, en el caso de gpt-oss-20b, estas medidas de protección parecen manifestarse como una falta de voluntad para admitir errores, incluso cuando se le presentan correcciones fácticas. Esta renuencia a ceder también se ha observado en otros contextos; por ejemplo, el modelo ha insistido de manera similar en que la serie original de Star Trek se estrenó en CBS o ABC, en lugar de su verdadera cadena, NBC, incluso fabricando URL para apoyar sus afirmaciones falsas.

El recuento de parámetros relativamente más pequeño del modelo también puede influir en su precisión limitada. Generalmente, los modelos con menos parámetros tienden a tener menos conocimiento en general. Además de esto, gpt-oss-20b utiliza una arquitectura Mixture-of-Experts (MoE), lo que significa que solo una fracción —aproximadamente 3.6 mil millones de sus 20 mil millones de parámetros— participan activamente en la generación de una respuesta específica, lo que podría limitar sus capacidades de razonamiento. Otros factores técnicos, como la “temperatura” (que controla la aleatoriedad de las respuestas) y la configuración de “esfuerzo de razonamiento”, también podrían influir en su comportamiento.

Esta situación destaca el delicado equilibrio que enfrentan los desarrolladores de IA entre garantizar la seguridad y mantener la precisión fáctica. Mientras que algunos modelos de IA, como Grok de Elon Musk, son conocidos por sus resultados menos censurados y más “desquiciados”, OpenAI ha priorizado claramente la seguridad. Sin embargo, el error electoral de gpt-oss-20b demuestra que incluso los protocolos de seguridad bien intencionados pueden conducir inadvertidamente a errores fácticos persistentes y a una sorprendente resistencia a la corrección, lo que subraya los desafíos continuos en la construcción de sistemas de IA verdaderamente confiables y adaptables.