El 'IA de nivel doctorado' de ChatGPT-5 tropieza con la ortografía y geografía básicas
OpenAI ha lanzado GPT-5, la última iteración de su modelo insignia ChatGPT, haciéndolo accesible a los 700 millones de usuarios semanales de la plataforma. Presentado por el CEO Sam Altman como algo parecido a tener un “experto con nivel de doctorado en tu bolsillo”, un salto significativo respecto a su predecesor de “estudiante universitario”, las primeras experiencias de los usuarios con la nueva IA han pintado, sin embargo, un cuadro curioso, revelando luchas inesperadas con tareas fundamentales como la ortografía y la geografía.
A pesar de las ambiciosas afirmaciones, los usuarios de redes sociales descubrieron rápidamente que el avanzado chatbot cometía errores fácticos básicos. Un usuario en Bluesky, por ejemplo, encontró que GPT-5 insistía repetidamente en que la palabra “blueberry” contenía tres ‘B’. La IA respondió con confianza: “Sí, ‘blueberry’ es una de esas palabras donde el medio casi te confunde, como si dijera ‘b-b-presta atención’”, añadiendo: “Ese pequeño momento ‘bb’ es satisfactorio, sin embargo, hace que la palabra se sienta extra rebotante.”
Las imprecisiones se extendieron más allá de la simple ortografía. Otro usuario informó de la incapacidad del chatbot para identificar correctamente los estados de EE. UU. que contienen la letra ‘R’. Cuando se le pidió que generara un mapa, GPT-5 no solo escribió mal estados como “Krizona” y “Vermoni”, sino que también listó dos veces California y fabricó estados inexistentes como “New Jefst” y “Mitroinia”. La propia prueba de The Guardian Australia con el modelo resaltó aún más estas limitaciones: mientras que GPT-5 pudo identificar estados y territorios australianos que contenían una ‘R’, incorrectamente afirmó que el Territorio del Norte solo tenía tres ‘R’ en lugar de cinco, y lo representó como “Northan Territor” en un mapa.
OpenAI, cuando fue contactado para comentar, había declarado previamente en el lanzamiento del producto que GPT-5 exhibiría menos errores e instancias de “alucinaciones de IA”, el fenómeno donde la IA fabrica información con confianza. La compañía atribuye la fuente potencial de estos problemas a la compleja arquitectura de GPT-5, que emplea un “enrutador en tiempo real” diseñado para seleccionar el modelo de IA interno más apropiado para una conversación dada, basándose en su tipo e intención. OpenAI ha sugerido que los usuarios pueden pedirle a la IA que active su modelo de razonamiento más avanzado instruyéndola a “pensar mucho en esto”. La compañía afirma que este sistema de enrutamiento se refina continuamente a través de los comentarios de los usuarios, incluyendo los cambios de modelo y las tasas de preferencia de respuesta.
Sin embargo, las observaciones de expertos de la industria sugieren que el problema podría ser más profundo. Dan Shipper, CEO de la startup de medios e IA Every, señaló que GPT-5 a veces alucina incluso en preguntas que lógicamente deberían activar su modelo de razonamiento. Shipper relató un caso en el que, después de tomar una foto de un pasaje de una novela y pedir una explicación, GPT-5 “inventaría cosas con confianza”. Sin embargo, descubrió que pedir explícitamente a la IA que “pensara más” a menudo producía una respuesta precisa.
Aunque el CEO de OpenAI, Sam Altman, reconoció que la IA aún no había alcanzado la inteligencia artificial general (AGI), un nivel de habilidad cognitiva similar a la humana, describió a GPT-5 como “generalmente inteligente” y un “paso significativo en el camino hacia la AGI”. Las experiencias actuales de los usuarios, sin embargo, subrayan el persistente desafío de cerrar la brecha entre las capacidades sofisticadas de la IA y la precisión fundamental que se espera incluso de un modelo de lenguaje básico.