OpenAI ouvre ses modèles d'IA: un tournant stratégique dans la course tech

Nytimes

OpenAI a annoncé qu’il rendrait open source deux de ses modèles d’intelligence artificielle, marquant un virage stratégique significatif pour l’entreprise qui a largement gardé sa technologie propriétaire depuis le lancement de ChatGPT il y a trois ans. Cette décision devrait susciter des réactions mitigées de la part des experts en IA, alimentant un débat continu au sein de l’industrie.

Cette initiative intervient alors que d’autres acteurs majeurs de l’IA, y compris Meta et la startup chinoise DeepSeek, ont agressivement adopté le développement open source pour gagner des parts de marché. Le changement d’OpenAI vise à égaliser le paysage concurrentiel et à encourager les entreprises et les développeurs à intégrer sa technologie. Bien que les modèles nouvellement publiés, gpt-oss-120b et gpt-oss-20b, n’atteignent pas les performances des systèmes les plus avancés d’OpenAI, la société affirme qu’ils figurent toujours parmi les modèles leaders mondiaux selon les tests de référence. OpenAI espère qu’en fournissant ces modèles accessibles, les utilisateurs seront finalement incités à s’abonner à ses offres propriétaires plus puissantes.

Greg Brockman, président et co-fondateur d’OpenAI, a articulé cette stratégie dans une interview, déclarant : “Si nous fournissons un modèle, les gens nous utilisent. Ils dépendent de nous pour la prochaine percée. Ils nous fournissent des retours et des données, et ce qu’il faut pour que nous améliorions ce modèle. Cela nous aide à progresser davantage.”

Ce pivot stratégique d’OpenAI intensifie une division philosophique de longue date au sein de la communauté de l’IA. Les partisans de l’open source soutiennent qu’il accélère l’innovation et le progrès, un point de vue partagé par Clément Delangue, PDG de Hugging Face, qui a noté : “Si vous êtes leader dans l’open source, cela signifie que vous le serez bientôt dans l’IA.” Inversement, les défenseurs de la sécurité nationale et les pessimistes de la sécurité de l’IA expriment de graves préoccupations, craignant qu’une IA puissante et largement accessible ne soit mal utilisée.

Historiquement, OpenAI elle-même avait des réserves ; après avoir rendu open source une technologie appelée GPT-2 fin 2019, elle a cessé de partager ses systèmes les plus puissants, citant des risques potentiels. De nombreux rivaux ont emboîté le pas. Des experts ont averti que l’IA open source pourrait faciliter la propagation de la désinformation, des discours de haine, et même aider au développement de bio-armes ou à la perturbation d’infrastructures critiques.

Cependant, la conversation publique a commencé à changer en 2023 lorsque Meta a publié son système d’IA LLama, défiant l’approche prudente prévalente. Fin 2024, DeepSeek V3 de Chine a en outre démontré la force concurrentielle des systèmes open source, en particulier ceux développés en dehors des États-Unis. Dans un développement connexe, l’administration Trump a récemment approuvé Nvidia, un fabricant de puces IA de premier plan, à vendre une version de ses puces en Chine, indiquant une tendance plus large d’assouplissement des restrictions malgré des préoccupations antérieures.

OpenAI a également noté que l’open source répond à un besoin pratique, car certaines entreprises et individus préfèrent exécuter des modèles d’IA sur leur propre matériel informatique plutôt que via Internet. Le modèle gpt-oss-20b est conçu pour les ordinateurs portables, tandis que gpt-oss-120b nécessite des systèmes plus robustes équipés de puces IA spécialisées.

Reconnaissant le double potentiel de l’IA pour le mal et l’autonomisation, M. Brockman a souligné qu’OpenAI a consacré beaucoup de temps à la construction et aux tests de ces nouveaux systèmes open source afin d’atténuer les risques. Il a postulé que les risques inhérents à l’IA ne sont pas différents de ceux de toute autre technologie puissante.

Le débat sur l’IA open source devrait persister alors que les entreprises et les régulateurs continuent de peser les avantages du développement collaboratif face aux dangers potentiels. Il est intéressant de noter que, même si OpenAI adopte l’open source, d’autres acteurs majeurs reconsidéreraient apparemment leurs stratégies. Mark Zuckerberg et les dirigeants de Meta envisageraient de s’éloigner de leur technologie d’IA librement partagée, ‘Behemoth’, vers une approche plus gardée et à source fermée.

(Note : Le New York Times a intenté une action en justice contre OpenAI et son partenaire, Microsoft, alléguant une violation du droit d’auteur de contenu d’actualités lié aux systèmes d’IA, des allégations que les deux sociétés nient.)