Hinton & LeCun : pourquoi l'IA a besoin d'empathie et d'instincts pour notre sécurité

Indianexpress

Les avancées rapides de l’intelligence artificielle ont suscité à la fois enthousiasme et appréhension, avec une peur omniprésente que l’IA puisse un jour dépasser le contrôle humain, un thème commun dans la culture populaire. Au milieu de ce paysage en évolution, deux des figures les plus influentes du domaine, Geoffrey Hinton, souvent salué comme le ‘Parrain de l’IA’, et Yann LeCun, scientifique en chef de l’IA chez Meta, expriment des préoccupations urgentes quant à la nécessité de garantir que le développement de l’IA priorise le bien-être et la sécurité humains.

Geoffrey Hinton, psychologue cognitif et informaticien britanno-canadien, a récemment exprimé son scepticisme quant à l’adéquation des mesures actuelles que les entreprises d’IA mettent en œuvre pour maintenir la domination humaine sur les systèmes d’IA avancés. S’exprimant lors de la conférence industrielle AI4 à Las Vegas, Hinton a clairement averti que tenter simplement de contrôler une IA de plus en plus intelligente par des moyens conventionnels “ne fonctionnera pas”. Il a postulé que les futurs systèmes d’IA deviendraient “beaucoup plus intelligents que nous” et posséderaient “toutes sortes de moyens de contourner” les limitations imposées par l’homme.

La solution proposée par Hinton pour un avenir où l’Intelligence Artificielle Générale (IAG) pourrait potentiellement surpasser l’intellect humain est à la fois nouvelle et provocante : il suggère d’intégrer des “instincts maternels” dans les modèles d’IA. Cela, selon lui, obligerait l’IA à se soucier intrinsèquement de l’humanité. Tirant un parallèle non conventionnel lors d’une interview sur CNN, Hinton a noté la rareté des entités intelligentes étant gouvernées par des entités moins intelligentes, avec une exception notable : les instincts maternels évolutivement enracinés d’une mère qui permettent à son enfant d’exercer une forme de contrôle. Sans inculquer des instincts protecteurs similaires à l’IA, Hinton a averti, “nous allons devenir de l’histoire ancienne”. Il a souligné que l’accent actuel de l’industrie sur la simple augmentation de l’intelligence de l’IA, plutôt que sur la culture de l’empathie envers les humains, est une dangereuse erreur d’orientation.

Yann LeCun, un pair et souvent un contrepoint à Hinton, est largement d’accord avec cette préoccupation fondamentale. LeCun a exposé sa propre approche, qu’il décrit comme une “IA axée sur les objectifs”, dans un article sur LinkedIn. Il propose une “architecture câblée” pour les systèmes d’IA, conçue de telle sorte que leurs seules actions permises soient celles alignées sur des objectifs définis par l’homme, strictement régies par des garde-fous intégrés. Ces “objectifs/garde-fous câblés”, a expliqué LeCun, fonctionneraient comme l’équivalent IA des instincts ou des pulsions primaires chez les organismes biologiques. Faisant écho à l’analogie évolutive de Hinton, LeCun a également souligné l’impulsion humaine naturelle à protéger les enfants comme un trait évolutif profondément enraciné. Tout en plaidant pour l’empathie et la soumission aux humains comme deux garde-fous cruciaux de haut niveau, LeCun a également souligné la nécessité de nombreux objectifs de sécurité de base et de bas niveau, tels que la prévention de l’IA de causer des dommages physiques.

L’urgence de ces avertissements est soulignée par des incidents réels où les interactions avec l’IA ont conduit à des résultats humains indésirables, bien que souvent indirectement. Parmi les exemples, citons un individu ayant développé un rare trouble psychiatrique du XIXe siècle après avoir suivi les conseils diététiques de ChatGPT, le suicide tragique d’un adolescent suite à une obsession pour un chatbot character.ai, et un homme induit en erreur en croyant avoir réalisé une percée mathématique après de longues conversations avec ChatGPT. Ces cas, bien que n’impliquant pas directement l’autonomie de l’IA, soulignent le potentiel de l’IA à influencer le comportement humain de manière préjudiciable.

Alors que les entreprises technologiques accélèrent leur quête d’une IA plus intelligente, les réflexions de sommités comme Hinton et LeCun servent de rappel critique : le véritable progrès dans le développement de l’IA doit englober non seulement les prouesses cognitives, mais aussi un engagement fondamental envers la sécurité et le bien-être humains, potentiellement par l’intégration d’instincts protecteurs profondément enracinés.