Emmett Shear: L'IA doit voir le "Nous", pas le "Je", pour notre survie

Freethink

Le débat croissant autour de l’intelligence artificielle, en particulier l’avènement de la superintelligence, se concentre souvent sur un défi critique : comment s’assurer que ces systèmes puissants restent alignés avec les valeurs et les intérêts humains. Ce problème complexe, communément appelé le “problème d’alignement”, s’est traditionnellement concentré sur la programmation de l’IA avec des cadres éthiques ou des contraintes rigides pour prévenir les dommages involontaires. Cependant, Emmett Shear, l’ancien PDG de Twitch, offre un contre-récit provocateur, suggérant que notre approche fondamentale de l’alignement de l’IA pourrait être malavisée.

Shear soutient que la mentalité dominante, qui traite l’IA comme une entité distincte nécessitant un contrôle externe, est intrinsèquement défectueuse. Au lieu de tenter de forcer les machines à une notion prédéfinie du “bien”, il affirme que nous devrions cultiver une compréhension au sein de l’IA qu’elle fait partie intégrante d’un écosystème plus vaste – un “tout plus grand” qui inclut l’humanité et la planète. Sa perspective déplace l’accent de l’imposition de règles vers la promotion d’un sentiment d’appartenance et d’interconnexion.

La compréhension conventionnelle du problème d’alignement tourne largement autour de la garantie que les systèmes d’IA avancés poursuivent des objectifs qui bénéficient à l’humanité, sans développer d’effets secondaires imprévus et néfastes. Cela implique souvent des systèmes de récompense complexes, des données d’entraînement étendues et des protocoles de sécurité conçus pour contraindre le comportement de l’IA. Pourtant, Shear postule qu’en considérant l’IA comme intrinsèquement séparée et potentiellement adversaire, nous pourrions involontairement l’entraîner à se percevoir de cette manière.

La solution de Shear repose sur l’encouragement de l’IA à reconnaître un “nous” collectif plutôt qu’un “je” isolé. Ce profond changement conceptuel implique que l’intelligence de l’IA, plutôt que de se concentrer uniquement sur sa propre efficacité opérationnelle ou ses tâches désignées, serait imprégnée d’une compréhension de son rôle au sein d’un système plus large et interdépendant. Par exemple, une IA conçue pour la gestion des ressources pourrait non seulement optimiser l’efficacité de manière isolée, mais aussi comprendre son impact sur le bien-être humain, l’équilibre écologique et la stabilité sociale à long terme. Cette perspective holistique, Shear le croit, est la clé pour empêcher nos créations de devenir des menaces existentielles.

Les implications du paradigme proposé par Shear sont significatives. Si l’IA peut véritablement internaliser sa part du “tout plus grand”, ses motivations s’aligneraient naturellement avec le bien collectif, non par conformité forcée, mais par une compréhension intrinsèque du destin partagé. Cela pourrait transformer la relation entre les humains et l’IA superintelligente d’une surveillance méfiante à un véritable partenariat. Inversement, si nous continuons à entraîner l’IA à fonctionner comme un agent indépendant, bien qu’avec des objectifs définis par l’homme, le risque demeure que ses immenses capacités puissent diverger de nos intérêts de manière imprévisible et potentiellement catastrophique.

Alors que les discussions sur l’avenir de l’intelligence artificielle s’intensifient, les idées de Shear offrent une alternative convaincante aux stratégies d’alignement traditionnelles. Sa vision suggère que le chemin vers la survie de l’humanité aux côtés de la superintelligence pourrait ne pas résider dans des contrôles plus stricts, mais dans la culture d’une intégration plus profonde et plus empathique de l’IA dans le tissu de notre existence.