DeepMind: La Consistance, le Frein Majeur de l'IA vers l'AGI

Businessinsider

Le chemin vers l’Intelligence Artificielle Générale (AGI), un état où les machines peuvent reproduire les capacités cognitives de niveau humain à travers un large éventail de tâches, fait face à un obstacle critique : la consistance. C’est la dernière évaluation de Demis Hassabis, PDG de Google DeepMind, qui affirme que malgré des avancées impressionnantes, un défaut fondamental dans les modèles d’IA actuels les empêche d’atteindre une véritable AGI.

Hassabis a récemment souligné que si les systèmes d’IA les plus sophistiqués d’aujourd’hui peuvent relever des défis très complexes, comme gagner des compétitions de mathématiques d’élite, ils peuvent simultanément échouer sur des problèmes relativement simples de niveau scolaire. Cette disparité frappante de performance à travers différents domaines est ce que Hassabis identifie comme un manque crucial de “consistance”. Il souligne qu’un individu peut actuellement exposer des faiblesses significatives ou des “trous” dans les chatbots d’IA avancés en quelques minutes, alors qu’une intelligence véritablement générale devrait être suffisamment robuste pour résister à l’examen d’experts pendant des mois avant que de tels défauts ne soient découverts.

Pour Hassabis, la définition de l’AGI repose sur la capacité d’un système à manifester toute la gamme des capacités cognitives trouvées chez les humains, démontrant une profonde aptitude à généraliser les connaissances et les compétences à travers des domaines disparates. L’esprit humain lui sert de référence, étant le seul exemple connu d’intelligence générale dans l’univers. L’IA actuelle, soutient-il, manque encore d’attributs clés tels que le raisonnement robuste, la planification hiérarchique et la mémoire à long terme, qui contribuent à cette incohérence omniprésente. En outre, il insiste sur l’absence de capacité des systèmes d’IA à générer indépendamment de nouvelles hypothèses ou conjectures scientifiques, plutôt que de simplement prouver celles qui existent déjà.

Cette incohérence suggère que l’IA moderne, bien qu’incroyablement puissante dans des tâches spécifiques et bien définies, fonctionne davantage comme une collection d’outils hautement spécialisés plutôt que comme une intelligence unifiée et adaptable. Le défi consiste à permettre à l’IA de transférer les connaissances de manière transparente et d’adapter sa compréhension à des contextes variés, un peu comme un médecin humain pourrait appliquer un raisonnement diagnostique pour dépanner un appareil défectueux, malgré l’absence de formation formelle en réparation d’appareils. Sans cette adaptabilité inhérente et une performance fiable à tous les niveaux, les systèmes d’IA resteront limités dans leur capacité à véritablement comprendre et interagir avec les complexités du monde réel.

Aborder ce défaut de consistance est primordial pour le prochain bond en avant du développement de l’IA. Les chercheurs s’efforcent de construire des systèmes capables d’apprendre d’un retour d’information continu, d’affiner leur compréhension et d’éviter l’“oubli catastrophique”, où les nouvelles informations écrasent les anciennes connaissances. L’objectif est d’aller au-delà de la simple reconnaissance de formes pour atteindre une compréhension causale plus profonde, le bon sens et l’intuition – des capacités qui sous-tendent la consistance et l’adaptabilité humaines. Bien que le chemin vers l’AGI soit semé d’embûches techniques, économiques et éthiques, Hassabis maintient une perspective relativement optimiste, suggérant une chance de 50 % d’atteindre sa définition de l’AGI au cours des cinq à dix prochaines années. Surmonter l’obstacle de la consistance sera un moment décisif, inaugurant une ère où l’IA pourra véritablement généraliser son intelligence et s’attaquer de manière fiable aux problèmes les plus complexes du monde.