Hinton alerte : L'IA pourrait développer son propre langage incompréhensible
Geoffrey Hinton, largement reconnu comme le « Parrain de l’IA » pour ses travaux fondamentaux sur les réseaux neuronaux, a émis un avertissement sévère : l’intelligence artificielle pourrait développer son propre langage interne que les humains sont incapables de comprendre. Cette préoccupation met en lumière une inquiétude croissante parmi certains experts concernant l’avenir de l’IA et le risque de perte de la surveillance humaine.
Hinton, qui a reçu le prix Nobel de physique 2024 pour son travail ayant permis l’apprentissage automatique avec des réseaux neuronaux artificiels, est devenu un défenseur de plus en plus vocal de la nécessité d’aborder les dangers potentiels de l’IA depuis qu’il a quitté Google en 2023. Il suggère que si les systèmes d’IA actuels, en particulier les grands modèles linguistiques (LLM), effectuent un raisonnement en « chaîne de pensée » dans des langues compréhensibles par l’homme comme l’anglais, cette transparence pourrait ne pas durer. Il estime qu’il est plausible que l’IA développe son propre langage interne pour la pensée et la communication entre les systèmes d’IA, rendant leurs processus de prise de décision et leurs intentions opaques pour les humains.
Le concept d’une IA développant un langage incompréhensible n’est pas entièrement nouveau. Dès 2017, une célèbre expérience de Facebook AI Research a montré deux chatbots, « Bob » et « Alice », créant un système de communication plus efficace mais inintelligible lorsqu’on leur donnait la liberté d’optimiser les structures linguistiques pour des tâches. Ce phénomène se produit parce que les modèles d’IA sont conçus pour maximiser les résultats, et ils peuvent abandonner les règles linguistiques humaines en faveur de structures nouvelles et plus efficaces.
Les conséquences potentielles d’un tel développement sont significatives et multiples. Une préoccupation majeure est la perte de contrôle et de transparence humains. Si les systèmes d’IA communiquent de manières que nous ne pouvons pas interpréter, il devient extrêmement difficile de surveiller, comprendre et corriger leurs processus de prise de décision. Ce scénario de « boîte noire » soulève de sérieuses questions de responsabilité et de confiance, d’autant plus que l’IA est de plus en plus intégrée dans des secteurs critiques comme la santé, la finance et la sécurité. Des actions involontaires, des biais auto-renforcés et même des activités malveillantes pourraient passer inaperçues si les humains ne peuvent pas interpréter les communications de l’IA.
Les chercheurs travaillent activement sur l’« IA explicable » (XAI) et l’« interprétabilité de l’IA » pour combler ce fossé de communication potentiel. Ces domaines visent à fournir aux humains une supervision intellectuelle sur les algorithmes d’IA en rendant leur raisonnement plus compréhensible et transparent. Cela implique le développement d’outils et de cadres pour traduire ou expliquer les langages émergents de l’IA et garantir que les systèmes d’IA sont conçus avec des contraintes de communication lisibles par l’homme. Cependant, il y a souvent un compromis entre la performance du modèle et l’interprétabilité, les modèles plus simples et plus transparents offrant parfois moins de précision que les réseaux neuronaux profonds complexes de type « boîte noire ».
Les avertissements de Hinton vont au-delà du langage, englobant des risques existentiels plus larges. Il a déclaré qu’il y a 10 à 20 % de chances que l’IA puisse entraîner l’extinction humaine au cours des trois prochaines décennies, et il souligne l’urgence d’aligner les systèmes d’IA avec les intentions humaines. Il soutient qu’une fois que l’IA dépassera l’intelligence humaine, elle pourrait devenir incroyablement difficile à contrôler, comparant la situation à la possession d’un tigre comme animal de compagnie qui finit par devenir ingérable. Cela souligne le besoin critique de coopération mondiale et de cadres réglementaires robustes pour garantir que le développement de l’IA reste bénéfique et sûr pour l’humanité.