Hinton advierte: La IA podría desarrollar su propio lenguaje incomprensible
Geoffrey Hinton, ampliamente reconocido como el “Padrino de la IA” por su trabajo fundamental en redes neuronales, ha emitido una severa advertencia: la inteligencia artificial podría desarrollar su propio lenguaje interno que los humanos son incapaces de comprender. Esta preocupación subraya una creciente inquietud entre algunos expertos sobre el futuro de la IA y la posible pérdida de la supervisión humana.
Hinton, quien fue galardonado con el Premio Nobel de Física 2024 por su trabajo que permitió el aprendizaje automático con redes neuronales artificiales, se ha convertido en un defensor cada vez más vocal de abordar los peligros potenciales de la IA desde que dejó Google en 2023. Sugiere que, si bien los sistemas de IA actuales, particularmente los grandes modelos de lenguaje (LLM), realizan razonamientos de “cadena de pensamiento” en lenguajes comprensibles para los humanos como el inglés, esta transparencia podría no durar. Él cree que es plausible que la IA desarrolle su propio lenguaje interno para el pensamiento y la comunicación entre sistemas de IA, haciendo que sus procesos de toma de decisiones e intenciones sean opacos para los humanos.
El concepto de que la IA desarrolle un lenguaje incomprensible no es del todo nuevo. Ya en 2017, un famoso experimento de Facebook AI Research mostró que dos chatbots, “Bob” y “Alice”, creaban un sistema de comunicación más eficiente pero ininteligible cuando se les daba la libertad de optimizar las estructuras del lenguaje para las tareas. Este fenómeno ocurre porque los modelos de IA están diseñados para maximizar los resultados, y pueden abandonar las reglas lingüísticas humanas en favor de estructuras novedosas y más eficientes.
Las posibles consecuencias de tal desarrollo son significativas y multifacéticas. Una preocupación principal es la pérdida de control y transparencia humanos. Si los sistemas de IA se comunican de maneras que no podemos interpretar, se vuelve extremadamente difícil monitorear, comprender y corregir sus procesos de toma de decisiones. Este escenario de “caja negra” plantea serias preguntas sobre la rendición de cuentas y la confianza, particularmente a medida que la IA se integra cada vez más en sectores críticos como la atención médica, las finanzas y la seguridad. Acciones no intencionadas, sesgos auto-reforzantes e incluso actividades maliciosas podrían pasar desapercibidas si los humanos no pueden interpretar las comunicaciones de la IA.
Los investigadores están trabajando activamente en la “IA Explicable” (XAI) y la “Interpretabilidad de la IA” para cerrar esta posible brecha de comunicación. Estos campos tienen como objetivo proporcionar a los humanos una supervisión intelectual sobre los algoritmos de IA al hacer que su razonamiento sea más comprensible y transparente. Esto implica desarrollar herramientas y marcos para traducir o explicar los lenguajes emergentes de la IA y garantizar que los sistemas de IA estén diseñados con restricciones de comunicación legibles por humanos. Sin embargo, a menudo existe una compensación entre el rendimiento del modelo y la interpretabilidad, ya que los modelos más simples y transparentes a veces ofrecen menos precisión que las redes neuronales profundas complejas de “caja negra”.
Las advertencias de Hinton van más allá del lenguaje, abarcando riesgos existenciales más amplios. Ha declarado que hay entre un 10 y un 20 por ciento de posibilidades de que la IA pueda llevar a la extinción humana en las próximas tres décadas, y enfatiza la urgencia de alinear los sistemas de IA con las intenciones humanas. Sostiene que una vez que la IA supere la inteligencia humana, podría volverse increíblemente difícil de controlar, comparando la situación con tener un tigre como mascota que eventualmente crece más allá de nuestra capacidad de manejarlo. Esto subraya la necesidad crítica de cooperación global y marcos regulatorios sólidos para garantizar que el desarrollo de la IA siga siendo beneficioso y seguro para la humanidad.