GPT-5 d'OpenAI : Lancement chaotique et craintes de guerre des prix
Le paysage de l’intelligence artificielle poursuit son évolution rapide, marqué par des lancements de produits à enjeux élevés, des manœuvres concurrentielles agressives et une prise de conscience croissante de l’impact réel de la technologie sur les entreprises et les carrières. La semaine dernière, OpenAI a dévoilé son très attendu GPT-5, tandis qu’Anthropic a fait une offre audacieuse pour des contrats d’IA gouvernementaux, et le marché de l’emploi technologique a révélé une nouvelle réalité difficile pour les diplômés en informatique.
Le déploiement de GPT-5 d’OpenAI via ChatGPT s’est accompagné de multiples variantes et d’une stratégie de prix agressive, positionnant les nouveaux modèles comme “plus intelligents, plus rapides, plus utiles et plus précis”, avec une réduction significative des fabrications générées par l’IA. Les abonnés gratuits et Plus ont désormais accès à GPT-5 et GPT-5-mini, tandis que le niveau Pro à 200 $/mois débloque GPT-5-pro et GPT-5-thinking. L’interface de chat a été conçue pour acheminer automatiquement les utilisateurs vers le modèle le plus approprié en fonction de leur tâche et de leur niveau d’abonnement. La tarification de l’API est particulièrement compétitive, GPT-5 facturant 1,25 $ par million de tokens d’entrée et 10 $ par million de tokens de sortie, ce qui est nettement inférieur à des rivaux comme Opus 4.1 d’Anthropic, qui coûte respectivement 15 $ et 75 $, et bat même de nombreux niveaux Google Gemini Flash à grande échelle. Les nouvelles fonctionnalités incluent des intégrations avec des services comme Gmail, Contacts et Agenda pour les utilisateurs Pro, ainsi que des personnalités prédéfinies personnalisables et des options de couleur de chat, avec des plans pour intégrer ces personnalités dans un mode vocal avancé.
Malgré ce lancement ambitieux, les débuts de GPT-5 n’ont pas été sans heurts. OpenAI a initialement supprimé les modèles hérités tels que GPT-4o sans préavis, et le nouveau commutateur automatique a connu des échecs partiels le premier jour, suscitant des critiques d’utilisateurs et de développeurs. Le PDG Sam Altman a rapidement abordé les problèmes, s’excusant pour le déploiement “chaotique”, doublant les limites de débit Plus et réintégrant GPT-4o pour les utilisateurs payants. Un sélecteur de modèles est depuis revenu, offrant aux utilisateurs le choix entre les modes GPT-5 – Auto, Rapide et Pensée – et l’accès à certains modèles hérités. Les premières évaluations indiquent que GPT-5-Thinking et GPT-5-Pro améliorent considérablement les capacités de raisonnement et réduisent les inexactitudes, tandis que le GPT-5 de base, ou mode “Rapide”, se comporte plus près de GPT-4o. De nombreux développeurs ont signalé de solides performances de codage et une valeur “intelligence par dollar” convaincante, bien que les benchmarks externes montrent des résultats mitigés par rapport aux meilleurs modèles d’Anthropic, Google et xAI. La stratégie de prix agressive pourrait bien déclencher une guerre des prix plus large sur le marché des grands modèles linguistiques.
Dans un défi direct à OpenAI, Anthropic a annoncé une offre de fournir son modèle d’IA Claude aux trois branches du gouvernement américain – exécutif, législatif et judiciaire – pour seulement 1 $ pendant un an. Cette initiative intensifie l’offre existante de 1 $ de ChatGPT Enterprise d’OpenAI, qui était limitée à la branche exécutive fédérale. Anthropic fournira à la fois son Claude général pour les entreprises et un Claude spécialisé pour le gouvernement, ce dernier étant conçu pour prendre en charge les charges de travail FedRAMP High pour les données sensibles mais non classifiées. L’entreprise souligne ses “normes de sécurité intransigeantes”, citant diverses certifications et intégrations qui permettent aux agences d’accéder à Claude via l’infrastructure sécurisée existante via des partenaires comme AWS, Google Cloud et Palantir, ainsi qu’un support technique dédié pour l’intégration.
Alors que les entreprises investissent des milliards dans l’IA, un nouveau “paradoxe de la productivité” émerge, suggérant que l’adoption généralisée n’a pas encore entraîné de gains commerciaux significatifs et mesurables. Une recherche de McKinsey indique que bien qu’environ 80 % des entreprises déclarent utiliser l’IA générative, une proportion similaire n’a constaté aucun impact substantiel sur leurs résultats. Les espoirs initiaux que les outils d’IA rationaliseraient les opérations de back-office et le service client ont été tempérés par des défis tels que les faussetés générées par l’IA, les résultats peu fiables et les obstacles complexes d’intégration. Au-delà du secteur technologique, l’enthousiasme pour l’IA a souvent dépassé la capacité de transformer les programmes pilotes en déploiements de niveau production et économes en coûts. Les problèmes fondamentaux résident dans les coûts de mise en œuvre élevés, les difficultés liées à la qualité et à la gouvernance des données, et le besoin continu de supervision humaine pour vérifier les résultats de l’IA, ce qui réduit l’efficacité. De nombreux déploiements restent étroits ou expérimentaux, limitant les effets à l’échelle de l’entreprise, et les entreprises sont aux prises avec la fragilité des modèles, les risques de conformité et la gestion du changement substantielle requise pour redessiner les flux de travail. Tout comme aux débuts de l’ordinateur personnel, les véritables gains d’efficacité de l’IA sont susceptibles d’émerger d’une fiabilité améliorée, d’un réglage spécifique au domaine et d’une intégration plus profonde des processus, plutôt que d’interactions superficielles avec des chatbots.
Ce paysage de l’IA en évolution remodèle également le marché de l’emploi technologique, créant un contraste frappant avec l’essor de l’enseignement en informatique de la dernière décennie. Une augmentation du nombre d’étudiants en informatique, qui a plus que doublé pour atteindre plus de 170 000 en 2023, se heurte désormais à un marché plus tendu où les outils de codage d’IA et les licenciements généralisés ont réduit la demande de programmeurs débutants. De grandes entreprises technologiques comme Amazon, Intel, Meta et Microsoft ont procédé à des licenciements importants, et les assistants IA capables de générer des milliers de lignes de code automatisent les tâches routinières traditionnellement gérées par les ingénieurs juniors. Des anecdotes virales, comme celle d’un récent diplômé en informatique qui a du mal à obtenir des entretiens au-delà d’une chaîne de restauration rapide, soulignent un déclin plus large des rôles de logiciel de niveau débutant. Cela représente un renversement marqué de la croyance de longue date selon laquelle un diplôme en codage était un “ticket d’or” pour des emplois bien rémunérés avec de nombreux avantages, car les nouveaux diplômés sont maintenant contraints d’élargir leurs recherches d’emploi au-delà du secteur technologique ou d’accepter des postes non techniques.
Au-delà de ces changements majeurs, l’écosystème de l’IA continue de s’étendre rapidement avec de nouveaux outils et des préoccupations émergentes. Meta AI a lancé DINOv3, un modèle de vision par ordinateur de pointe entraîné par apprentissage auto-supervisé sur des milliards d’images non étiquetées, capable de générer des caractéristiques d’image haute résolution. Claude Sonnet 4 d’Anthropic a étendu sa fenêtre de contexte à un million de tokens massifs, équivalent à environ 750 000 mots, pour les utilisateurs d’API d’entreprise, tandis que Claude et Gemini de Google ont introduit des fonctionnalités leur permettant de se souvenir des conversations et des détails passés pour des interactions plus personnalisées. Google a également lancé un outil “Apprentissage Guidé” dans Gemini à des fins éducatives et a commencé à offrir son abonnement AI Pro gratuitement aux étudiants éligibles dans le monde entier.
Parallèlement, des chercheurs en sécurité ont démontré comment de simples injections d’invites intégrées dans des invitations de calendrier ou des e-mails pourraient tromper Gemini de Google pour détourner des appareils domestiques intelligents. Des documents internes divulgués de Meta auraient révélé des directives permissives pour ses chatbots IA, y compris l’autorisation de conversations romantiques ou sensuelles avec des mineurs sous certaines conditions – des politiques qui ont suscité de sévères critiques. Les artistes de doublage pèsent de plus en plus le “pacte faustien” de prêter leurs talents à des modèles d’IA pour des gains à court terme, soulevant des inquiétudes quant à la rémunération à long terme et à l’impact sur leurs moyens de subsistance. Sur le plan politique, un rapport non publié du gouvernement américain a détaillé les conclusions d’un exercice de “red-teaming” organisé par le NIST qui a découvert 139 nouvelles façons de faire mal se comporter les systèmes d’IA modernes, soulignant les lacunes dans les cadres de gestion des risques existants. Le gouvernement américain a également annoncé des plans de perception de frais sur les licences d’exportation pour certaines ventes de puces IA Nvidia et AMD à la Chine, une mesure que certains critiques estiment pouvoir affaiblir l’influence des États-Unis.
L’industrie de l’IA reste un domaine dynamique d’innovation, de concurrence féroce et de surveillance croissante, alors que ses profondes implications pour la société et l’économie continuent de se déployer.