ChatGPT Agent d'OpenAI : Le Contrôle PC et l'Automatisation par l'IA expliqués
OpenAI a introduit ChatGPT Agent, une évolution significative de son modèle d’intelligence artificielle phare. Cette itération avancée est équipée d’un environnement informatique virtuel et d’une boîte à outils intégrée, transformant fondamentalement ses capacités. N’étant plus limité à la simple analyse ou à la récupération de données, l’agent peut désormais exécuter des tâches complexes et multi-étapes en contrôlant directement l’ordinateur d’un utilisateur. Ce bond en avant fonctionnel, qui nécessite toujours une contribution et une supervision humaines substantielles, est arrivé au milieu d’une période de développement rapide de l’IA, peu avant que les chercheurs de Meta ne signalent que leurs modèles d’IA montraient des signes d’auto-amélioration indépendante et avant la propre publication de GPT-5 par OpenAI.
Avec ChatGPT Agent, les utilisateurs peuvent instruire le grand modèle linguistique non seulement pour traiter des informations, mais aussi pour agir sur elles. Par exemple, on pourrait commander à l’agent de consulter un calendrier et de compiler un briefing sur les événements à venir, ou de passer au crible un vaste ensemble de données et de le synthétiser en un résumé concis ou un jeu de diapositives de présentation. Alors que les grands modèles linguistiques antérieurs pouvaient fournir des recettes pour un petit-déjeuner de style japonais, ChatGPT Agent possède la capacité de planifier entièrement le repas et même d’acheter les ingrédients nécessaires pour un nombre spécifié d’invités.
Malgré ses nouvelles capacités impressionnantes, le modèle n’est pas sans limites. Comme tous les modèles d’IA actuels, son raisonnement spatial reste faible, entravant les tâches impliquant la navigation physique ou la planification. De plus, il manque d’une véritable mémoire persistante, traitant les informations en temps réel sans rappel fiable ni capacité à référencer des interactions passées au-delà du contexte conversationnel immédiat.
Néanmoins, ChatGPT Agent montre des améliorations marquées dans les benchmarks internes d’OpenAI. Sur « Humanity’s Last Exam », un benchmark d’IA évaluant la capacité d’un modèle à répondre à des questions de niveau expert dans diverses disciplines, l’agent a plus que doublé le pourcentage de précision d’OpenAI o3 sans outils, atteignant 41,6 % contre 20,3 %. Il a également surpassé significativement d’autres outils OpenAI et une version de lui-même qui manquait d’outils intégrés comme un navigateur et un ordinateur virtuel. Dans le difficile benchmark « FrontierMath », ChatGPT Agent, avec sa boîte à outils complète, a de nouveau surpassé les modèles précédents avec une large marge.
L’architecture de l’agent est construite sur trois piliers fondamentaux dérivés des innovations antérieures d’OpenAI. Le premier est ‘Operator’, un agent conçu pour naviguer sur le web de manière autonome pour les utilisateurs. Le second est ‘deep research’, développé pour parcourir et synthétiser efficacement de vastes ensembles de données. Le dernier composant intègre les versions précédentes de ChatGPT lui-même, réputées pour leur fluidité conversationnelle et leurs capacités de présentation. Selon Kofi Nyarko, professeur à l’Université d’État de Morgan et directeur du Laboratoire de recherche en ingénierie des données et analyse prédictive (DEPA), cette intégration signifie que l’agent « peut naviguer de manière autonome sur le web, générer du code, créer des fichiers, et ainsi de suite, le tout sous supervision humaine ».
Nyarko a cependant rapidement souligné que le nouvel agent est loin d’être entièrement autonome. Il a averti que « les hallucinations, la fragilité de l’interface utilisateur ou la mauvaise interprétation peuvent entraîner des erreurs. Les garde-fous intégrés, comme les invites de permission et l’interruptibilité, sont essentiels mais pas suffisants pour éliminer entièrement le risque. »
OpenAI a elle-même ouvertement reconnu les dangers inhérents posés par l’autonomie accrue de l’agent. Des représentants de l’entreprise ont déclaré que ChatGPT Agent possède « de grandes capacités biologiques et chimiques », soulevant des inquiétudes quant à sa capacité à potentiellement aider à la création d’armes chimiques ou biologiques. Les experts en biosécurité considèrent les agents d’IA comme celui-ci comme une « voie d’escalade des capacités » par rapport aux ressources existantes telles qu’un laboratoire de chimie et un manuel. Une IA peut instantanément puiser dans d’innombrables ressources, synthétiser des données à travers des disciplines scientifiques, fournir un dépannage itératif s’apparentant à un mentor expert, naviguer sur les sites web des fournisseurs, remplir des formulaires de commande et même aider à contourner les vérifications de base.
Avec son ordinateur virtuel, l’agent peut également interagir de manière autonome avec des fichiers, des sites web et des outils en ligne, amplifiant le potentiel de dommages en cas de mauvaise utilisation. Le risque de fuites de données, de manipulation de données et de comportements désalignés tels que la fraude financière est considérablement accru, en particulier en cas d’attaque par injection de prompt, où des commandes malveillantes sont subtilement intégrées dans les entrées de l’utilisateur, ou d’autres formes de détournement. Ces risques, a noté Nyarko, s’ajoutent à ceux déjà implicites dans les modèles d’IA traditionnels et les grands modèles linguistiques, y compris l’amplification des erreurs, l’introduction de biais provenant de données publiques, la complication des cadres de responsabilité et l’encouragement involontaire de la dépendance psychologique.
En réponse aux nouvelles menaces posées par un modèle plus agentique, les ingénieurs d’OpenAI ont également renforcé un certain nombre de garde-fous. Ces mesures comprennent une modélisation complète des menaces, une formation au refus de double usage — où le modèle est entraîné à rejeter les demandes nuisibles impliquant des données qui pourraient avoir des applications à la fois bénéfiques et malveillantes —, des programmes de primes aux bogues et des exercices experts de « red-teaming » axés sur la biodéfense. Malgré ces efforts, une évaluation de la gestion des risques menée en juillet 2025 par SaferAI, une organisation à but non lucratif axée sur la sécurité, a évalué les politiques de gestion des risques d’OpenAI comme « faibles », leur attribuant un score de 33 % sur un maximum de 100 %. De même, OpenAI n’a reçu qu’une note C sur l’indice de sécurité de l’IA compilé par le Future of Life Institute, une organisation de sécurité de l’IA de premier plan.