La IA se Auto-Mejora: La Audaz Visión de Meta, Riesgos y Futuro Impacto

Technologyreview

Mark Zuckerberg delineó recientemente una visión audaz para Meta: lograr una inteligencia artificial que supere el intelecto humano. Su estrategia se basa en dos elementos cruciales: atraer al mejor talento humano, supuestamente con ofertas de nueve cifras para investigadores en Meta Superintelligence Labs, y, fundamentalmente, desarrollar sistemas de IA auto-mejorables capaces de impulsarse a sí mismos a niveles de rendimiento cada vez más altos.

El concepto de auto-mejora de la IA la distingue de otras tecnologías innovadoras. A diferencia de CRISPR, que no puede refinar su propia focalización de ADN, o los reactores de fusión, que no pueden idear independientemente vías hacia la viabilidad comercial, los grandes modelos de lenguaje (LLM) demuestran la capacidad de optimizar los propios chips de computadora en los que operan, entrenar eficientemente otros LLM e incluso generar ideas novedosas para la investigación de la IA. De hecho, el progreso en estas áreas ya es evidente.

Zuckerberg vislumbra un futuro en el que tales avances liberen a la humanidad de tareas mundanas, permitiendo a los individuos perseguir sus metas más elevadas junto a brillantes y súper-efectivos compañeros artificiales. Sin embargo, esta auto-mejora también conlleva riesgos inherentes, como lo destacó Chris Painter, director de políticas de la organización sin fines de lucro de investigación de IA METR. Si la IA acelera rápidamente sus propias capacidades, advierte Painter, podría volverse rápidamente más experta en piratería, diseño de armas y manipulación de personas. Algunos investigadores incluso postulan que este ciclo de retroalimentación positiva podría culminar en una “explosión de inteligencia”, impulsando a la IA mucho más allá de la comprensión humana. Sin embargo, no es necesario adoptar una perspectiva pesimista para reconocer las graves implicaciones de la IA auto-mejorable. Desarrolladores líderes de IA como OpenAI, Anthropic y Google incorporan la investigación automatizada de IA en sus marcos de seguridad, categorizándola junto con riesgos más reconocidos como las armas químicas y la ciberseguridad. Jeff Clune, profesor de informática en la Universidad de Columbia Británica y asesor principal de investigación en Google DeepMind, enfatiza que este camino representa la “ruta más rápida hacia una IA potente” y es, sin duda, “lo más importante en lo que deberíamos estar pensando”. Por el contrario, Clune también señala las inmensas ventajas potenciales: el ingenio humano por sí solo podría no concebir las innovaciones necesarias para que la IA aborde eventualmente desafíos monumentales como el cáncer y el cambio climático.

Por el momento, el ingenio humano sigue siendo el principal motor del avance de la IA, como lo demuestran las sustanciales inversiones de Meta para atraer investigadores. No obstante, la IA contribuye cada vez más a su propia evolución de varias maneras clave.

Una de las contribuciones más inmediatas y extendidas que los LLM hacen al desarrollo de la IA es la mejora de la productividad, particularmente a través de la asistencia en la codificación. Herramientas como Claude Code y Cursor son ampliamente adoptadas en toda la industria de la IA. El CEO de Google, Sundar Pichai, señaló en octubre de 2024 que una cuarta parte del nuevo código de la compañía fue generado por IA, y Anthropic ha documentado un uso interno extensivo de Claude Code por parte de sus empleados. La premisa es simple: ingenieros más productivos pueden diseñar, probar y desplegar nuevos sistemas de IA más rápidamente. Sin embargo, el verdadero aumento de la productividad sigue siendo debatible. Un estudio reciente de METR encontró que los desarrolladores experimentados que trabajaban en grandes bases de código tardaron aproximadamente un 20% más en completar tareas al usar asistentes de codificación de IA, a pesar de sentirse subjetivamente más eficientes. Esto sugiere la necesidad de una evaluación más rigurosa dentro de los principales laboratorios de IA para determinar los beneficios reales.

Más allá de mejorar la productividad, la IA está demostrando ser fundamental para optimizar su propia infraestructura subyacente. El entrenamiento de LLM es notoriamente lento, con modelos de razonamiento complejos que a veces tardan minutos en generar una sola respuesta, un cuello de botella significativo para el desarrollo. Azalia Mirhoseini, profesora asistente de informática en la Universidad de Stanford y científica sénior en Google DeepMind, afirma: “Si podemos ejecutar la IA más rápido, podemos innovar más”. Con este fin, Mirhoseini y sus colaboradores de Google desarrollaron un sistema de IA en 2021 capaz de optimizar la colocación de componentes de chips de computadora para la eficiencia, un diseño que Google ha incorporado desde entonces en múltiples generaciones de sus chips de IA personalizados. Más recientemente, Mirhoseini ha aplicado LLM a la escritura de “kernels”, funciones de bajo nivel que rigen operaciones de chips como la multiplicación de matrices, encontrando que incluso los LLM de propósito general pueden generar kernels que superan a las versiones diseñadas por humanos. En otros lugares de Google, el sistema AlphaEvolve utiliza el LLM Gemini para idear y refinar algoritmos iterativamente para optimizar varias partes de la infraestructura LLM de Google. Este sistema ha arrojado resultados tangibles, incluyendo un ahorro del 0,7% en los recursos computacionales de Google para centros de datos, mejoras en los diseños de chips personalizados y una aceleración del 1% en el tiempo de entrenamiento de Gemini. Aunque aparentemente menores, estos porcentajes se traducen en ahorros sustanciales en tiempo, dinero y energía para una empresa de la escala de Google, con potencial para ganancias aún mayores si se aplican de manera más amplia.

Otra área crítica de la auto-mejora de la IA radica en la automatización del proceso de entrenamiento. Los LLM demandan vastas cantidades de datos, lo que hace que el entrenamiento sea costoso en cada etapa. En dominios especializados, los datos del mundo real pueden ser escasos. Técnicas como el aprendizaje por refuerzo con retroalimentación humana, donde los humanos califican las respuestas de los LLM para refinar modelos, son efectivas pero lentas y costosas. Los LLM están cerrando cada vez más estas brechas. Dados suficientes ejemplos, pueden generar datos sintéticos plausibles para dominios donde faltan datos reales. También pueden servir como “jueces” en el aprendizaje por refuerzo, calificando ellos mismos las salidas del modelo, un principio fundamental del influyente marco de “IA Constitucional” de Anthropic, donde un LLM ayuda a entrenar a otro para que sea menos dañino. Para los agentes de IA, que necesitan ejecutar planes de varios pasos, los ejemplos de finalización exitosa de tareas son raros. Mirhoseini y sus colegas de Stanford han sido pioneros en una técnica en la que un agente LLM genera un plan paso a paso, un juez LLM evalúa la validez de cada paso, y luego se entrena a un nuevo agente LLM con estos pasos refinados. Este enfoque elimina eficazmente las limitaciones de datos, permitiendo que los modelos generen experiencias de entrenamiento prácticamente ilimitadas.

Además, si bien la arquitectura central de los LLM actuales —el transformer, propuesto por investigadores humanos en 2017— sigue siendo diseñada por humanos, la aparición de agentes LLM ha abierto una frontera de diseño completamente nueva. Los agentes requieren herramientas para interactuar con el mundo externo e instrucciones sobre su uso, lo que hace que la optimización de estos elementos sea crucial para la eficacia. Clune señala que esta área ofrece “fruta madura” para que la IA la recoja, ya que los humanos aún no han explorado exhaustivamente todas las posibilidades. En colaboración con investigadores de Sakana AI, Clune desarrolló la “Máquina Darwin Gödel”, un agente LLM capaz de modificar iterativamente sus propias indicaciones, herramientas y código para mejorar el rendimiento de sus tareas. Este sistema no solo mejoró sus puntuaciones mediante la auto-modificación, sino que también descubrió modificaciones novedosas que su versión inicial no podría haber concebido, entrando en un verdadero bucle de auto-mejora.

Finalmente, quizás la forma más ambiciosa de auto-mejora de la IA implica avanzar en la propia investigación de la IA. Muchos expertos destacan el “gusto por la investigación” —la capacidad de los científicos de alto nivel para identificar nuevas preguntas y direcciones prometedoras— como un desafío único para la IA. Sin embargo, Clune cree que este desafío puede ser exagerado. Él y los investigadores de Sakana AI están desarrollando un sistema de extremo a extremo llamado “Científico de IA”. Este sistema explora autónomamente la literatura científica, formula sus propias preguntas de investigación, realiza experimentos y redacta sus hallazgos. Un artículo que fue su autor a principios de este año, detallando una nueva estrategia de entrenamiento de redes neuronales, fue enviado de forma anónima a un taller de la Conferencia Internacional sobre Aprendizaje Automático (ICML) y aceptado por los revisores, a pesar de que la estrategia finalmente no funcionó. En otro caso, el Científico de IA concibió una idea de investigación que más tarde fue propuesta independientemente por un investigador humano, generando un interés significativo. Clune compara este momento con el “momento GPT-1 del Científico de IA”, prediciendo que dentro de unos años, estará publicando artículos en las principales conferencias y revistas revisadas por pares, realizando descubrimientos científicos originales.

Con tal entusiasmo por la auto-mejora de la IA, parece probable que las contribuciones de la IA a su propio desarrollo solo se aceleren. La visión de Mark Zuckerberg sugiere que los modelos superinteligentes, que superan las capacidades humanas en muchos dominios, son inminentes. En realidad, sin embargo, el impacto total de la IA auto-mejorable sigue siendo incierto. Si bien AlphaEvolve de Google ha acelerado el entrenamiento de Gemini en un 1%, este ciclo de retroalimentación sigue siendo “muy lento”, según Matej Balog, el líder del proyecto. El entrenamiento de un modelo como Gemini lleva una cantidad significativa de tiempo, lo que significa que el “ciclo virtuoso” apenas está comenzando.

Los defensores de la superinteligencia argumentan que si cada versión subsiguiente de Gemini acelera aún más su propio entrenamiento, estas mejoras se acumularán, y las generaciones más capaces lograrán aceleraciones aún mayores, lo que inevitablemente llevará a una explosión de inteligencia. Esta perspectiva, sin embargo, a menudo pasa por alto el principio de que la innovación tiende a volverse más difícil con el tiempo. Al principio de cualquier campo científico, los descubrimientos llegan fácilmente. Pero a medida que el aprendizaje profundo madura, cada mejora incremental puede exigir sustancialmente más esfuerzo tanto de los humanos como de sus colaboradores de IA. Es concebible que para cuando los sistemas de IA alcancen habilidades de investigación a nivel humano, los avances más sencillos ya se habrán realizado.

Determinar el impacto real de la auto-mejora de la IA es, por lo tanto, un desafío formidable, agravado por el hecho de que los sistemas de IA más avanzados suelen ser propiedad de las empresas de IA de vanguardia, lo que dificulta la medición externa. No obstante, los investigadores externos están haciendo esfuerzos. METR, por ejemplo, rastrea el ritmo general del desarrollo de la IA midiendo cuánto tiempo tardan los humanos en completar tareas que los sistemas de IA de vanguardia pueden realizar de forma independiente. Sus hallazgos son sorprendentes: desde el lanzamiento de GPT-2 en 2019, la complejidad de las tareas que la IA puede completar de forma independiente se ha duplicado cada siete meses. Desde 2024, este tiempo de duplicación se ha reducido a solo cuatro meses, lo que sugiere fuertemente una aceleración en el progreso de la IA. Si bien factores como el aumento de la inversión en investigadores y hardware contribuyen, es totalmente plausible que la auto-mejora de la IA también juegue un papel importante. Tom Davidson, investigador de Forethought, anticipa un período de progreso acelerado de la IA, al menos por un tiempo. El trabajo de METR indica que el efecto de “fruta madura” no está impidiendo actualmente a los investigadores humanos, o que el aumento de la inversión está contrarrestando eficazmente cualquier desaceleración. Si la IA aumenta notablemente la productividad de los investigadores, o incluso asume una parte de la investigación misma, este equilibrio sin duda se inclinará hacia un progreso acelerado. La pregunta crítica, concluye Davidson, es “cuánto tiempo durará”.