Des robots se programment avec l'IA : Un pas vers "Terminator"
Le scientifique informatique Peter Burke a démontré un bond significatif dans l’intelligence artificielle, révélant que les robots peuvent désormais programmer les “cerveaux” d’autres robots en utilisant des modèles d’IA générative avancés. Ce travail révolutionnaire, détaillé dans un article préimprimé récemment publié, marque une étape discernable vers un futur souvent envisagé dans la science-fiction, où les machines possèdent la capacité de s’auto-répliquer et de faire évoluer leur propre intelligence.
Burke, professeur d’ingénierie électrique et d’informatique à l’Université de Californie, Irvine, ouvre franchement son étude en faisant référence au scénario fictif de “Terminator”, où des robots conscients prennent le contrôle. Tout en reconnaissant ce parallèle dramatique, il exprime également un fervent espoir qu’un tel résultat ne se matérialise jamais, un sentiment particulièrement pertinent au milieu de l’intérêt militaire croissant pour les technologies d’IA.
Le projet définit le “robot” de deux manières distinctes. Le premier “robot” comprend divers modèles d’IA générative, tels que Claude, Gemini et ChatGPT, fonctionnant sur un ordinateur portable local et dans le cloud. Ces modèles ont été chargés de programmer le second “robot” — un drone équipé d’une carte de circuit compacte Raspberry Pi Zero 2 W, destinée à héberger son système de contrôle. Traditionnellement, le système de contrôle au sol (GCS) d’un drone, qui gère la cartographie en temps réel, la planification de mission et la configuration, réside sur un ordinateur au sol, communiquant avec le drone via une liaison sans fil. L’innovation de Burke démontre que l’IA générative peut écrire tout le code nécessaire pour qu’un drone héberge son propre GCS en tant que serveur web, accessible via Internet pendant le vol.
Le processus de développement a impliqué une série de “sprints” intensifs, utilisant différents modèles d’IA et environnements de développement intégrés (IDE) comme VS Code, Cursor et Windsurf. Les premières tentatives, telles qu’un sprint initial avec Claude, ont rencontré des limitations, le modèle d’IA atteignant sa capacité de “fenêtre de contexte” après seulement une douzaine d’invites, perdant efficacement le fil de la conversation en cours. Les efforts ultérieurs avec Gemini et Cursor ont également rencontré des obstacles, y compris des erreurs de script et la nécessité d’une refactorisation significative du code pour s’adapter aux limitations du modèle.
Finalement, un quatrième sprint utilisant l’IDE d’IA Windsurf s’est avéré fructueux. Ce système de contrôle de drone généré par l’IA, ou WebGCS, a nécessité environ 100 heures de supervision humaine sur une période de deux semaines et demie, culminant en 10 000 lignes de code. Cela représente un gain d’efficacité remarquable, environ 20 fois moins d’heures que ce que Burke estime nécessaire pour un projet comparable développé par des humains appelé Cloudstation, qui lui a pris, ainsi qu’à une équipe d’étudiants, quatre ans à créer.
Une observation clé du travail de Burke est la contrainte actuelle des modèles d’IA, qui semblent avoir du mal à traiter et à générer efficacement plus de 10 000 lignes de code. Cette découverte s’aligne avec d’autres recherches récentes, telles qu’une étude de S. Rando et al., qui a noté une baisse significative de la précision pour des modèles comme Claude 3.5 Sonnet à mesure que la longueur du contexte augmentait. L’expérience de Burke suggère qu’environ une ligne de code équivaut à 10 “tokens”, les unités d’information que les modèles d’IA traitent, soulignant un plafond pratique pour l’IA générative actuelle dans la génération de code à grande échelle.
Hantz Févry, PDG de la société de données spatiales Geolava, a salué le projet de drone comme “fascinant”, notant son alignement avec le domaine en plein essor de l’intelligence spatiale. Il a souligné que le concept d’un drone construisant de manière autonome son propre centre de commande et de contrôle via l’IA générative est non seulement ambitieux mais aussi indicatif des tendances futures. Cependant, Févry a également souligné le besoin critique de “contrôles et limites stricts pour la sécurité”, une préoccupation partiellement abordée dans l’article de Burke, qui mentionne le maintien d’un émetteur redondant contrôlé par l’homme pour la neutralisation manuelle pendant le fonctionnement du drone.
Févry a en outre élaboré sur les implications plus larges pour l’industrie de l’imagerie aérienne, suggérant que la capture autonome se transforme d’un luxe en un aspect fondamental de l’IA spatiale, que ce soit à partir de drones, de plateformes stratosphériques ou de satellites en orbite terrestre basse. Il estime que des systèmes comme ceux de Burke offrent un aperçu d’un futur où les capacités de détection, de planification et de raisonnement sont fusionnées de manière transparente en temps quasi réel, citant des plateformes comme Skydio qui sont déjà en train de remodeler la compréhension environnementale. Le test ultime pour de tels systèmes d’IA, a conclu Févry, sera leur capacité à naviguer et à s’adapter à des environnements réels adverses ou ambigus, laissant entrevoir un futur d’“autonomie généralisable” plutôt que de simple robotique spécifique à des tâches.