Interview IA d'une victime de Parkland: une tempête éthique

Gizmodo

Ce qui a été présenté comme une « interview unique en son genre » a plutôt déclenché un débat fervent dans le paysage médiatique, marquant potentiellement un nouveau chapitre troublant à l’ère de l’intelligence artificielle. Jim Acosta, l’ancien présentateur de CNN qui anime désormais un programme Substack, s’est retrouvé à l’épicentre de cette controverse après avoir mené une conversation télévisée avec une image générée par IA de Joaquin Oliver, un jeune de 17 ans tragiquement tué lors de la fusillade de 2018 à l’école secondaire Marjory Stoneman Douglas à Parkland, en Floride.

L’interview, diffusée à la demande explicite des parents de Joaquin, a été conçue comme un effort poignant pour préserver la mémoire de leur fils et amplifier son message passionné contre la violence armée. Cependant, le segment a rapidement suscité une large condamnation de la part des téléspectateurs de tout l’échiquier politique, qui l’ont décrié comme étant exploiteur, émotionnellement manipulateur et un dangereux précédent pour le journalisme.

Acosta a d’abord teasé le segment sur X (anciennement Twitter) le 4 août, invitant le public à une émission présentant une « interview avec Joaquin Oliver. Il est décédé lors de la fusillade scolaire de Parkland en 2018. Mais ses parents ont créé une version IA de leur fils pour délivrer un puissant message sur la violence armée. » Dans le clip, Acosta a posé une question à l’avatar IA : « Joaquin, j’aimerais savoir quelle serait votre solution pour la violence armée ? » L’IA a répondu par une réponse complète, suggérant « un mélange de lois plus strictes sur le contrôle des armes à feu, de soutien en santé mentale et d’engagement communautaire », soulignant la nécessité de « lieux sûrs pour les conversations et les connexions » et de « construire une culture de gentillesse et de compréhension ». De manière surprenante, l’avatar a ensuite demandé à Acosta son avis, à quoi il a répondu : « Je pense que c’est une excellente idée. »

Le tweet promotionnel a rapidement recueilli près de 4 millions de vues, mais il a également déclenché un torrent de critiques. Les utilisateurs ont accusé Acosta de dépasser les limites éthiques, en utilisant la ressemblance numérique d’un enfant décédé pour faire avancer un programme politique. Les commentaires allaient de « Jim Acosta atteint un nouveau creux… Interviewer une version IA d’un enfant mort afin de faire pression pour le contrôle des armes à feu !!! » à « WTF ? C’est plus que malade » et « C’est l’une des choses les plus étranges que j’aie jamais vues de ma vie. » Le contrecoup a été si intense qu’Acosta a finalement désactivé les réponses sur le tweet.

Même au sein de l’industrie des médias, le segment a suscité de vives réprimandes. Le journaliste Glenn Greenwald a souligné la « répulsion inter-idéologique » provoquée par l’interview, notant les préoccupations concernant l’IA « supplantant l’humanité, l’exploitation médiatique sordide [et] la capacité à créer de fausses vidéos ». Ces critiques soulignent des questions fondamentales sur la confiance, l’éthique et les profondes implications de l’utilisation de l’IA pour parler au nom des morts. Les critiques craignent que de telles applications ne préparent le terrain à une manipulation sans précédent, imaginant des scénarios où des groupes politiques pourraient créer des avatars IA de fœtus pour argumenter contre l’avortement, ou des entreprises pourraient générer des approbations posthumes de célébrités. La question centrale tourne autour de la manière dont la société naviguera dans le champ de mines éthique de l’IA générative dans les médias et le plaidoyer.

En réponse à l’indignation croissante, Acosta a défendu sa décision en soulignant que le concept provenait directement des parents de Joaquin, Manuel et Patricia Oliver. Dans un tweet de suivi, Acosta a posté : « Joaquin, connu sous le nom de Guac, aurait 25 ans aujourd’hui. Son père m’a approché pour faire l’histoire… pour maintenir la mémoire de son fils vivante. » Il a lié à une vidéo où Manuel Oliver a expliqué avec émotion : « Je suis Manuel Oliver. Je suis le père de Joaquin Oliver… Nous avons demandé à notre ami Jim Acosta de faire une interview avec notre fils, car maintenant, grâce à l’IA, nous pouvons le ramener. C’était notre idée. » Oliver a poursuivi, affirmant : « Nous pensons que Joaquin a beaucoup de choses à dire, et tant que nous aurons une option qui nous permettra de vous le transmettre, et à tout le monde, nous l’utiliserons. » Acosta a exhorté les téléspectateurs à regarder la vidéo du père, impliquant que les souhaits des parents fournissaient un contexte crucial et méritaient le respect.

Indépendamment de l’intention sincère des parents, l’interview a déclenché un examen culturel plus large. Pour certains, elle représente une application touchante, bien que non conventionnelle, de la technologie pour honorer un être cher perdu. Pour beaucoup d’autres, cependant, elle signifie un flou profondément inconfortable entre la réalité et la simulation, risquant la déshumanisation du défunt et transformant une tragédie personnelle en activisme rendu algorithmiquement. L’incident contraint à un examen critique pour déterminer si cela marque une nouvelle normalité dans le souvenir numérique ou un moment décisif qui force la société à établir des limites éthiques claires pour l’utilisation de l’IA.