Photos IA : Sam Altman face à la frontière du réel

Theverge

Sam Altman, une figure éminente dans le paysage de l’intelligence artificielle, a récemment articulé une vision pour l’avenir du contenu numérique qui est à la fois convaincante et, pour certains, fondamentalement défectueuse. Dans une récente interview, Altman a abordé le défi croissant de distinguer le contenu authentique du contenu généré par l’IA, en faisant spécifiquement référence à une vidéo virale de lapins semblant s’ébattre sur un trampoline – une scène charmante et saine qui était, en fait, entièrement fabriquée par l’IA. À mesure que la technologie de l’IA progresse et imprègne nos vies numériques, suggère-t-il, notre définition même de ce qui est “réel” est destinée à changer.

Altman établit un parallèle entre la génération sophistiquée par l’IA et le traitement omniprésent qui se produit dans les caméras de smartphones modernes. Il soutient que même une photographie capturée avec un iPhone est “en grande partie réelle mais un peu pas”, citant les ajustements computationnels étendus effectués entre la lumière atteignant le capteur de la caméra et l’image finale. Ce processus, explique-t-il, implique d’innombrables décisions algorithmiques concernant le contraste, la netteté et la couleur, combinant souvent des données provenant de plusieurs cadres pour optimiser la scène, discerner des éléments comme le sol et le ciel, et même flatter subtilement les visages. Altman postule que puisque nous acceptons facilement ce niveau de manipulation comme “réel”, notre seuil pour ce qui constitue la réalité continuera d’évoluer à mesure que le contenu IA deviendra plus courant.

Cependant, cette comparaison, bien que superficiellement attrayante, néglige une distinction critique. Il existe une différence profonde entre une image qui provient de photons réels frappant un capteur – même fortement traitée – et une image entièrement fabriquée de toutes pièces par une IA générative. Bien que les deux existent sur un spectre de manipulation numérique, le fossé entre elles est significatif. De plus, de nombreux consommateurs restent largement inconscients de l’étendue du traitement effectué par les caméras de leurs téléphones, et surtout, ce traitement n’implique généralement pas l’invention de détails ou l’ajout d’éléments qui n’étaient jamais présents dans la scène originale. Bien que des anomalies comme les bugs de “visage de démon” ou l’utilisation d’outils d’édition d’IA générative externes existent, la fonction principale d’une caméra de téléphone, basée sur des années de tests approfondis, n’a pas été d’injecter de manière autonome des objets inexistants dans les photographies.

Malgré la nature problématique de l’analogie d’Altman, son point plus large sur notre perception évolutive de la réalité contient une part de vérité. Notre compréhension de ce qui est “réel” a manifestement évolué avec le temps ; l’avènement de Photoshop, par exemple, a irrévocablement modifié la façon dont nous percevons les images. Nous acceptons généralement une photographie de couverture de magazine fortement mise en scène et éditée comme “réelle” au sens conventionnel, même en reconnaissant la manipulation extensive impliquée. Cette acclimatation aux réalités altérées s’est déjà accélérée à l’ère de l’IA, influençant la façon dont nous interprétons les images sur les médias sociaux, les publicités et les listes de produits, et cette tendance est susceptible de se poursuivre.

Pourtant, l’affirmation d’Altman implique qu’à mesure que notre définition du “réel” s’élargit, nous apprécierons tout le contenu de manière égale, tout comme nous apprécions les films de science-fiction bien que nous sachions qu’ils sont fictifs. C’est là que son argument vacille. Le plaisir tiré du contenu est souvent calibré par son authenticité perçue. La vidéo virale des lapins sur le trampoline, par exemple, perd une grande partie de son charme et de son humour une fois que sa nature générée par l’IA est révélée. La prémisse – “regardez cette chose amusante que ces vrais lapins ont faite” – est entièrement sapée si les actions des lapins ne sont que des constructions algorithmiques. Si les plateformes de médias sociaux deviennent saturées de vidéos tout aussi mignonnes mais entièrement fabriquées, il est fort probable que les utilisateurs ne cesseront pas simplement de se soucier de l’authenticité et continueront à les apprécier. Au lieu de cela, un résultat plus probable est une baisse de l’engagement envers de telles plateformes, à mesure que l’attrait fondamental de l’expérience authentique et partagée s’érode.