Predicciones de Sam Altman: IAG, Superinteligencia e IA Agente

Businessinsider

Sam Altman, CEO de OpenAI, continúa pintando un panorama vívido, aunque a veces inquietante, de un mundo profundamente remodelado por la inteligencia artificial. Ofrece nuevas predicciones sobre el rápido ascenso de la IAG, el lejano amanecer de la superinteligencia y el impacto inmediato de la IA agéntica. Sus comentarios recientes subrayan la creencia de que la humanidad se encuentra al borde de una transformación tecnológica sin precedentes, que podría redefinir las estructuras económicas, las normas sociales e incluso el tejido mismo de la vida diaria.

El concepto de Inteligencia Artificial General (IAG), sistemas capaces de razonamiento a nivel humano en un amplio espectro de tareas, parece más cerca que nunca según la estimación de Altman. La propia OpenAI tiene una hoja de ruta clara para lograr la IAG para 2025, con Altman afirmando con confianza que el razonamiento a nivel humano podría llegar “en años o incluso meses” debido al ritmo implacable del crecimiento computacional. Él concibe la IAG como una fuerza que podría alterar drásticamente las economías globales, lo que podría llevar a escenarios sin precedentes como “tasas de interés del -2%”. Para navegar tales cambios, Altman sugiere soluciones novedosas como la renta básica universal o los fondos soberanos para asegurar un beneficio social generalizado. Más allá de la economía, postula que la IAG podría fomentar condiciones de abundancia, aliviando las cargas económicas y de cuidado, y así alentando el crecimiento familiar y la construcción de comunidades, potencialmente revirtiendo las tendencias demográficas actuales. La confianza de OpenAI proviene de la creencia de que ahora “saben cómo construir la IAG tal como la hemos entendido tradicionalmente”, una misión que ha guiado a la organización desde su inicio.

Mirando más allá en el futuro, la perspectiva de la superinteligencia —IA vastamente más allá de la comprensión humana— sigue siendo un tema tanto de fascinación como de cautela para Altman. Si bien anteriormente sugirió que la superinteligencia podría emerger en “unos pocos miles de días” (aproximadamente 8.2 años, lo que la sitúa alrededor de finales de 2032 a principios de 2033), reconoce la incertidumbre inherente en tales predicciones a largo plazo. Se anticipa que el salto de la IAG a la superinteligencia desatará una aceleración exponencial en el descubrimiento científico y la innovación. Sin embargo, esta gran visión se ve atenuada por el reconocimiento de riesgos significativos. Algunos expertos advierten de una amenaza existencial sustancial por parte de la superinteligencia, con estimaciones tan altas como un 25% de probabilidad de resultados catastróficos para 2030. El propio Altman, en una cita de 2015, reconoció que la IA “probablemente llevará al fin del mundo… pero mientras tanto, habrá grandes empresas”. Esta dualidad de inmenso potencial y peligro inherente subraya las complejas consideraciones éticas centrales de la filosofía de desarrollo de OpenAI. Su impulso, sugiere, es menos sobre ganancias financieras y más sobre una ambición ideológica de “definir el futuro y controlar el mundo”.

De manera más inmediata, Altman predice un impacto tangible de la “IA agéntica” en 2025, con los primeros sistemas de este tipo ya comenzando a integrarse en la fuerza laboral. Estos agentes de IA están diseñados para comprender objetivos complejos, ejecutar razonamientos de múltiples pasos y tomar decisiones con una supervisión humana mínima, capaces de revolucionar industrias al manejar tareas desde operaciones rutinarias hasta la resolución de problemas intrincados. Las primeras iteraciones, que surgirán a mediados de 2025, ya han mostrado su promesa en campos especializados como la programación y la investigación, demostrando la capacidad de reescribir bases de código completas y ahorrar días de trabajo. El último modelo de OpenAI, GPT-5, ejemplifica este avance, funcionando como un “experto a nivel de doctorado” en varios dominios y capaz de generar software completo y funcional. Aunque representa un salto significativo en capacidad y robustez, Altman señala que GPT-5 aún carece de la capacidad de aprender de forma autónoma.

Más allá del software, Altman vislumbra un futuro donde la IA trasciende las limitaciones de los smartphones y ordenadores actuales, lo que requiere nuevo “hardware ambientalmente consciente” como dispositivos ponibles y de mesa para proporcionar un compañero de IA continuo y contextual. Este futuro ambicioso requerirá una inversión sin precedentes, con OpenAI planeando gastar “billones de dólares” en infraestructura de computación, específicamente centros de datos, y explorando nuevos instrumentos financieros para financiar este gasto masivo. Altman también reconoce los desafíos sociales, expresando más preocupación por los trabajadores mayores que pueden estar menos inclinados a recapacitarse que por las generaciones más jóvenes que son más adaptables a los cambios tecnológicos. Si bien la actual fiebre de inversión en IA refleja la burbuja de las puntocom en sus valoraciones “insanas”, Altman sostiene que la tecnología subyacente es “real” y está preparada para un impacto social duradero.