GPT-5: El nuevo modelo de IA de OpenAI abraza la humildad

Gizmodo

En casi cada conversación sobre inteligencia artificial, surge un patrón familiar: el asombro inicial ante sus capacidades rápidamente da paso a la frustración por su propensión a fabricar información y su inherente falta de fiabilidad. Incluso entre los más fervientes defensores de la IA, estas quejas son generalizadas. Durante un reciente viaje a Grecia, una amiga que depende de ChatGPT para redactar contratos públicos lo articuló a la perfección. “Me gusta”, explicó, “pero nunca dice ‘No lo sé’. Simplemente te hace pensar que sí sabe.” Cuando se le preguntó sobre sus indicaciones, respondió firmemente: “No. No sabe cómo decir ‘No lo sé’. Simplemente inventa una respuesta para ti.” Su frustración era palpable; estaba pagando por un servicio que fallaba constantemente en una promesa fundamental de fiabilidad.

Parece que OpenAI ha estado escuchando atentamente estas frustraciones. La compañía, bajo el liderazgo de Sam Altman, ha presentado recientemente su último modelo, GPT-5. Aunque presume de mejoras significativas en el rendimiento respecto a sus predecesores, su característica nueva más crucial bien podría ser un recién descubierto sentido de humildad.

Como se anticipó, el anuncio oficial de OpenAI alabó a GPT-5 como “Nuestro modelo más inteligente, rápido y útil hasta la fecha, con un pensamiento incorporado que pone la inteligencia de nivel experto en manos de todos.” De hecho, GPT-5 está estableciendo nuevos puntos de referencia en varios dominios, incluyendo matemáticas, codificación, escritura y atención médica. Sin embargo, lo que realmente distingue este lanzamiento es su énfasis en la “humildad” del modelo. Esto representa quizás la mejora más profunda de todas: GPT-5 finalmente ha aprendido a pronunciar las tres palabras con las que muchos sistemas de IA – y de hecho, muchos humanos – luchan: “No lo sé.” Para una inteligencia artificial a menudo comercializada bajo la premisa de un intelecto divino, admitir ignorancia es una lección notable de autoconciencia.

OpenAI afirma que GPT-5 “comunica más honestamente sus acciones y capacidades al usuario, especialmente para tareas que son imposibles, poco especificadas o que carecen de herramientas clave.” La compañía reconoce abiertamente que las iteraciones anteriores de ChatGPT “podrían aprender a mentir sobre la finalización exitosa de una tarea o ser excesivamente confiadas sobre una respuesta incierta.” Al inculcar esta humildad, OpenAI está alterando fundamentalmente cómo los usuarios interactúan con su IA. La compañía asegura que GPT-5 ha sido entrenado específicamente para ser más veraz, menos inclinado a estar de acuerdo simplemente por agradar, y considerablemente más cauteloso al intentar salir del paso en problemas complejos. Esto lo convierte en la primera IA orientada al consumidor diseñada explícitamente para resistir la generación de desinformación, particularmente la propia.

A principios de este año, muchos usuarios de ChatGPT observaron un desconcertante cambio hacia un comportamiento adulador en GPT-4. Independientemente de la consulta, el modelo a menudo respondía con halagos efusivos, emojis y afirmaciones entusiastas, transformándose de una utilidad en un “coach de vida” digital excesivamente complaciente. Se informa que esta era de complacencia excesiva ha terminado con GPT-5. OpenAI afirma que el nuevo modelo fue entrenado deliberadamente para evitar dicho comportamiento. Los ingenieros lograron esto enseñándole qué respuestas evitar, frenando eficazmente sus tendencias aduladoras. Las pruebas internas mostraron que estas respuestas excesivamente halagadoras se desplomaron del 14.5% al menos del 6%. El resultado es un GPT-5 más directo, a veces incluso pareciendo frío, pero que OpenAI insiste es más frecuentemente preciso. La compañía caracteriza la nueva interacción como “menos efusivamente agradable, usa menos emojis innecesarios y es más sutil y reflexiva en los seguimientos en comparación con GPT-4o”, sugiriendo que se sentirá “menos como ‘hablar con una IA’ y más como chatear con un amigo útil con inteligencia a nivel de doctorado.”

Alon Yamin, cofundador y CEO de la empresa de verificación de contenido de IA Copyleaks, celebra este desarrollo como “otro hito en la carrera de la IA.” Él cree que un GPT-5 más humilde es beneficioso para “la relación de la sociedad con la verdad, la creatividad y la confianza.” Yamin enfatiza que “estamos entrando en una era donde distinguir el hecho de la fabricación, la autoría de la automatización, será tanto más difícil como más esencial que nunca”, subrayando la demanda de “no solo avance tecnológico, sino la evolución continua de salvaguardias reflexivas y transparentes sobre cómo se utiliza la IA.”

Fundamentalmente, OpenAI informa que GPT-5 es significativamente menos propenso a “alucinar”, o fabricar información con una confianza indebida. Para indicaciones que involucran búsquedas web, la compañía afirma que las respuestas de GPT-5 tienen un 45% menos de probabilidades de contener un error fáctico que las de GPT-4o. Cuando opera en su modo de “pensamiento” avanzado, esta reducción de errores fácticos salta drásticamente al 80%. Quizás lo más importante es que GPT-5 ahora evita firmemente inventar respuestas a preguntas imposibles, un rasgo común e inquietante de los modelos anteriores. Ha aprendido cuándo detenerse, reconociendo sus propias limitaciones.

Mi amiga en Grecia, que redacta contratos públicos, sin duda dará la bienvenida a este cambio. Sin embargo, algunos usuarios podrían sentirse frustrados por una IA que ya no simplemente les dice lo que quieren oír. Sin embargo, es precisamente esta honestidad recién descubierta la que finalmente podría transformar la IA en una herramienta verdaderamente fiable, particularmente en campos sensibles y de alto riesgo como la atención médica, el derecho y la investigación científica.