OpenAI vs. NYT: La bataille des journaux de chat s'intensifie
Dans un moment charnière pour le paysage évolutif de l’intelligence artificielle et du droit de la propriété intellectuelle, OpenAI et le New York Times sont engagés dans une bataille juridique contentieuse, le dernier litige portant sur l’étendue de la découverte des données de chat des utilisateurs. OpenAI a proposé de fournir 20 millions de journaux de chat d’utilisateurs dans le cadre du procès en cours, un chiffre considérablement inférieur aux 120 millions de dossiers exigés par le New York Times. Ce désaccord met en lumière l’interaction complexe entre la découverte légale, la confidentialité des utilisateurs et l’avenir du développement de l’IA.
Le New York Times a intenté un procès à OpenAI et Microsoft en décembre 2023, alléguant que les géants de la technologie avaient enfreint ses droits d’auteur en utilisant des millions de ses articles pour former leurs grands modèles de langage (LLM), y compris ChatGPT, sans autorisation ni compensation. Le Times affirme que les modèles d’OpenAI peuvent, parfois, reproduire ou “régurgiter” leur contenu protégé par le droit d’auteur, sapant ainsi leur modèle économique et leur intégrité journalistique.
Dans le cadre de la phase de découverte, le New York Times a demandé un accès étendu aux données des utilisateurs de ChatGPT, arguant que ces journaux sont cruciaux pour démontrer l’étendue de la prétendue contrefaçon de droits d’auteur et pour contrer les défenses d’OpenAI. La demande du Times de 120 millions de journaux de chat suggère un vaste effort pour découvrir comment les utilisateurs interagissent avec ChatGPT en relation avec du matériel protégé par le droit d’auteur, cherchant potentiellement des cas où l’IA génère du contenu dérivé ou imitant des articles du Times.
OpenAI, cependant, s’oppose avec véhémence à cette demande généralisée, la qualifiant d’« excès » qui pose des risques importants pour la vie privée des utilisateurs. La société maintient que son offre de 20 millions de journaux de chat est suffisante pour le processus de découverte et s’aligne sur les normes établies de l’industrie. Le directeur de l’exploitation d’OpenAI, Brad Lightcap, a critiqué la demande du NYT, déclarant qu’elle était en conflit avec les engagements de confidentialité qu’OpenAI a pris envers ses utilisateurs et qu’elle abandonnait les normes de confidentialité établies de longue date. OpenAI souligne qu’il fournit aux utilisateurs des outils pour contrôler leurs données, y compris des options de suppression, et soutient qu’exiger la rétention indéfinie de tout le contenu utilisateur, y compris les chats supprimés, est une “demande inappropriée qui crée un mauvais précédent”.
Ajoutant une autre couche au litige, un tribunal fédéral américain a émis une ordonnance exigeant qu’OpenAI préserve presque tous les chats d’utilisateurs avec ChatGPT, y compris ceux que les utilisateurs avaient supprimés. Cette ordonnance de préservation, contre laquelle OpenAI fait appel, a déclenché des préoccupations généralisées en matière de confidentialité. Les critiques affirment qu’une telle décision pourrait créer un précédent dangereux pour la préservation massive de données dans les procès, exposant potentiellement des millions de conversations personnelles que les utilisateurs croyaient privées ou effacées. Des experts juridiques ont exprimé leurs inquiétudes quant au fait que cette décision pourrait miner la confiance dans les outils d’IA et entraîner un “effet de refroidissement” sur leur utilisation, car les utilisateurs pourraient devenir hésitants à partager des informations sensibles.
La bataille juridique s’étend au-delà des chats des utilisateurs. OpenAI a également repoussé les demandes de découverte du New York Times, cherchant à accéder aux informations de formation interne de l’IA du journal et aux notes des journalistes. OpenAI soutient que ces matériaux sont pertinents pour sa défense d’utilisation équitable et pour vérifier la protégeabilité des œuvres du Times. Ce va-et-vient concernant la découverte met en lumière les questions fondamentales en jeu : les paramètres de l’utilisation équitable dans le contexte de la formation de l’IA, la définition du matériel protégé par le droit d’auteur à l’ère numérique, et la mesure dans laquelle les données des utilisateurs peuvent être contraintes dans un litige.
Le procès, consolidé sous “In re: OpenAI Inc.” et se dirigeant vers le jugement, est sur le point d’avoir des répercussions importantes pour les industries de l’IA et des médias. Son issue pourrait redéfinir la relation entre l’IA générative et le droit d’auteur, façonner la manière dont les modèles d’IA sont construits et entraînés, et établir des précédents cruciaux pour la confidentialité des utilisateurs dans un monde de plus en plus axé sur l’IA.