La IA programa cerebros de robots: Un paso hacia "Terminator"

Theregister

El científico informático Peter Burke ha demostrado un salto significativo en la inteligencia artificial, revelando que los robots ahora pueden programar los “cerebros” de otros robots utilizando modelos avanzados de IA generativa. Este trabajo innovador, detallado en un artículo preimpreso publicado recientemente, marca un paso discernible hacia un futuro a menudo imaginado en la ciencia ficción, donde las máquinas poseen la capacidad de auto-replicarse y evolucionar su propia inteligencia.

Burke, profesor de ingeniería eléctrica y ciencias de la computación en la Universidad de California, Irvine, abre su estudio haciendo referencia al escenario ficticio de “Terminator”, donde robots autoconscientes toman el control. Si bien reconoce este dramático paralelismo, también expresa una ferviente esperanza de que tal resultado nunca se materialice, un sentimiento particularmente relevante en medio del creciente interés militar en las tecnologías de IA.

El proyecto define “robot” de dos maneras distintas. El primer “robot” comprende varios modelos de IA generativa, como Claude, Gemini y ChatGPT, que operan en una computadora portátil local y en la nube. Estos modelos fueron encargados de programar el segundo “robot”—un dron equipado con una placa de circuito compacta Raspberry Pi Zero 2 W, destinada a albergar su sistema de control. Tradicionalmente, el Sistema de Control en Tierra (GCS) de un dron, que maneja el mapeo en tiempo real, la planificación de misiones y la configuración, reside en una computadora terrestre, comunicándose con el dron a través de un enlace inalámbrico. La innovación de Burke demuestra que la IA generativa puede escribir todo el código necesario para que un dron aloje su propio GCS como un servidor web, accesible a través de internet mientras está en vuelo.

El proceso de desarrollo implicó una serie de “sprints” intensivos, utilizando diferentes modelos de IA y entornos de desarrollo integrados (IDE) como VS Code, Cursor y Windsurf. Los primeros intentos, como un sprint inicial con Claude, encontraron limitaciones, ya que el modelo de IA alcanzó su capacidad de “ventana de contexto” después de solo una docena de indicaciones, perdiendo efectivamente el hilo de la conversación en curso. Esfuerzos posteriores con Gemini y Cursor también enfrentaron obstáculos, incluidos errores de script y la necesidad de una refactorización significativa del código para adaptarse a las limitaciones del modelo.

Finalmente, un cuarto sprint utilizando el IDE de IA Windsurf resultó exitoso. Este sistema de control de drones generado por IA, o WebGCS, requirió aproximadamente 100 horas de supervisión humana durante un período de dos semanas y media, culminando en 10,000 líneas de código. Esto representa una notable ganancia de eficiencia, aproximadamente 20 veces menos horas de las que Burke estima que se necesitaron para un proyecto comparable desarrollado por humanos llamado Cloudstation, que les tomó a él y a un equipo de estudiantes cuatro años crear.

Una observación clave del trabajo de Burke es la restricción actual de los modelos de IA, que parecen tener dificultades para procesar y generar más de 10,000 líneas de código de manera efectiva. Este hallazgo se alinea con otras investigaciones recientes, como un estudio de S. Rando et al., que señaló una disminución significativa en la precisión de modelos como Claude 3.5 Sonnet a medida que aumentaba la longitud del contexto. La experiencia de Burke sugiere que aproximadamente una línea de código equivale a 10 “tokens”, las unidades de información que procesan los modelos de IA, destacando un límite práctico para la IA generativa actual en la generación de código a gran escala.

Hantz Févry, CEO de la empresa de datos espaciales Geolava, elogió el proyecto del dron como “fascinante”, señalando su alineación con el floreciente campo de la inteligencia espacial. Subrayó que el concepto de un dron construyendo autónomamente su propio centro de mando y control a través de la IA generativa no solo es ambicioso sino también indicativo de las tendencias futuras. Sin embargo, Févry también enfatizó la necesidad crítica de “controles y límites estrictos para la seguridad”, una preocupación parcialmente abordada en el artículo de Burke, que menciona el mantenimiento de un transmisor redundante controlado por humanos para la anulación manual durante la operación del dron.

Févry elaboró además sobre las implicaciones más amplias para la industria de la imagen aérea, sugiriendo que la captura autónoma se está transformando de un lujo en un aspecto fundamental de la IA espacial, ya sea desde drones, plataformas estratosféricas o satélites de órbita terrestre baja. Él cree que sistemas como los de Burke ofrecen un vistazo a un futuro donde las capacidades de detección, planificación y razonamiento se fusionan sin problemas en tiempo casi real, señalando plataformas como Skydio que ya están remodelando la comprensión ambiental. La prueba definitiva para tales sistemas de IA, concluyó Févry, será su capacidad para navegar y adaptarse a entornos reales adversos o ambiguos, insinuando un futuro de “autonomía generalizable” en lugar de solo robótica específica para tareas.