Hinton: Concevoir l'IA avec des Instincts Nourriciers pour Protéger l'Humanité
Dans un changement significatif du discours actuel sur la sécurité de l’intelligence artificielle, Geoffrey Hinton, largement reconnu comme le “Parrain de l’IA”, plaide pour une nouvelle approche radicale : concevoir les futurs systèmes d’IA avec des “instincts nourriciers” inhérents pour sauvegarder l’humanité. Lors de la conférence Ai4 à Las Vegas, Hinton a soutenu que la stratégie conventionnelle consistant à tenter de maintenir des systèmes d’IA très avancés en permanence subordonnés aux humains est finalement intenable, car ces machines dépasseront inévitablement l’intelligence humaine.
Au lieu de cela, Hinton propose une dynamique relationnelle différente, suggérant que les humains pourraient interagir avec une IA superintelligente de la même manière qu’un enfant se rapporte à sa mère. Cette vision implique que, bien que l’IA soit l’entité la plus capable, elle serait imprégnée d’un profond sens de l’attention et de la protection envers l’humanité. Il a en outre posé une perspective nuancée où, paradoxalement, un être moins intelligent pourrait guider un être plus intelligent, tout comme un enfant peut influencer ses parents. Pour Hinton, l’objectif de la recherche en IA devrait s’étendre au-delà du simple fait de rendre les machines plus intelligentes ; elle doit également prioriser de les rendre plus attentionnées, leur permettant de prendre soin de leurs “bébés” — l’humanité. Il croit que cette approche recèle le potentiel d’une véritable coopération internationale, étant donné que chaque nation souhaite que l’IA soutienne, plutôt que ne déplace, sa population. Le récent départ de Hinton de Google visait spécifiquement à lui permettre de parler plus ouvertement des risques potentiels posés par l’IA.
Cette perspective résonne avec des idées similaires avancées par Yann LeCun, scientifique en chef de l’IA chez Meta, qui a décrit la proposition de Hinton comme une version simplifiée d’une approche qu’il défend depuis des années. LeCun préconise une “IA axée sur les objectifs”, où les systèmes sont conçus avec des architectures codées en dur qui n’autorisent les actions que lorsqu’elles contribuent à des objectifs spécifiques et prédéfinis, appliquées par des “garde-fous” stricts.
Ces garde-fous, explique LeCun, pourraient inclure des principes fondamentaux tels que la soumission aux humains et l’empathie, ainsi qu’une multitude de règles simples et de bas niveau conçues pour la sécurité. Des exemples de telles règles incluent “Ne pas renverser les gens” et “Ne pas agiter votre bras lorsque des personnes sont à proximité, surtout si vous tenez un couteau de cuisine”. LeCun compare ces objectifs codés en dur aux instincts et aux pulsions trouvés chez les animaux et les humains. Il souligne le rôle de l’évolution dans le câblage des instincts parentaux qui contraignent au soin, à la protection et parfois même à la déférence envers la progéniture. Comme effet secondaire fascinant, les humains et de nombreuses autres espèces sont également enclins à protéger, à se lier d’amitié et à nourrir des créatures impuissantes ou “mignonnes” d’autres espèces – même celles qu’ils pourraient autrement percevoir comme des proies.
La convergence de ces deux figures éminentes de l’IA sur l’idée d’intégrer des “instincts” bienveillants dans les systèmes d’IA marque un changement conceptuel significatif. Cela suggère un avenir où l’immense intelligence de l’IA n’est pas simplement contrôlée par des commandes externes, mais intrinsèquement guidée par un sens de l’attention et de la responsabilité conçu, garantissant que sa puissance serve, plutôt que ne menace, le bien-être humain.