GPT-5 : Contrecoup, "vibe coding" et la réalité de l'IA selon Vergecast

Theverge

Le récent lancement de GPT-5 d’OpenAI, la dernière itération de son grand modèle linguistique, a été accueilli par un mélange de grandes attentes et d’un contrecoup considérable. Bien que le modèle ait promis un bond en avant dans les capacités de l’intelligence artificielle, en particulier en matière de codage, son déploiement initial s’est avéré chaotique, incitant à un examen plus approfondi de ses applications pratiques et du paysage plus large des manœuvres technologiques des entreprises et du rôle évolutif de l’IA dans la vie quotidienne.

L’une des fonctionnalités les plus vantées de GPT-5 était sa prouesse de codage améliorée, commercialisée sous le concept intrigant de “vibe coding” (codage d’ambiance). OpenAI a suggéré que cette capacité améliorée permettrait même aux utilisateurs moyens de générer des expériences utiles et interactives par le biais de requêtes. Cependant, une expérience récente a mis cette promesse à l’épreuve, révélant que l’outil n’est pas tout à fait prêt pour ceux qui n’ont pas une compréhension fondamentale du codage. Les participants, dont aucun n’avait d’expérience préalable avec le “vibe coding”, ont tenté de créer leurs propres projets. Malgré l’accent mis par OpenAI sur le développement convivial piloté par l’IA, l’entreprise a rapidement dégénéré en une série de mésaventures, soulignant que l’écart entre le potentiel de l’IA et son accessibilité actuelle pour les vrais novices reste significatif.

Au-delà des défis du “vibe coding”, le lancement de GPT-5 a été entaché par un contrecoup plus large des utilisateurs. Ces derniers ont exprimé leur insatisfaction à l’égard du nouveau modèle, ce qui a conduit OpenAI à prendre des mesures correctives. La société s’est engagée à ne pas supprimer les anciens modèles sans avertissement, ramenant spécifiquement l’option populaire 4o, que de nombreux utilisateurs regrettaient. En outre, OpenAI a annoncé des plans pour mettre à jour la “personnalité” de GPT-5 en réponse aux commentaires des utilisateurs, et le PDG Sam Altman a publiquement abordé ce qui n’allait pas avec les graphiques de performance initiaux du modèle, reconnaissant les problèmes. Au milieu de ces défis de relations publiques, OpenAI aurait également accordé à certains employés des bonus “spéciaux” de plusieurs millions de dollars, une décision qui a suscité des réactions mitigées.

Parallèlement, l’industrie technologique a été en effervescence avec une série de drames d’entreprise, mettant en lumière à la fois des stratégies ambitieuses et de potentielles cascades publicitaires. Perplexity, un moteur de recherche alimenté par l’IA, a fait les gros titres avec une offre audacieuse de 34,5 milliards de dollars pour acquérir Google Chrome, une décision qui, si elle réussissait, remodèlerait le paysage des navigateurs. Apple, un habitué des nouvelles juridiques, s’est retrouvé mêlé à de multiples litiges : poursuivant une chaîne de cinémas indépendants appelée Apple Cinemas pour contrefaçon de marque, poursuivant son refus de régler un litige de brevet de longue date avec la société de technologie médicale Masimo concernant la surveillance de l’oxygène sanguin dans ses Apple Watch (une fonctionnalité qu’Apple a ensuite rétablie), et faisant face à une menace de procès d’Elon Musk, qui a accusé le géant technologique de truquer les classements de l’App Store. Ces incidents brossent collectivement le tableau d’une industrie où la concurrence est féroce et où les batailles juridiques sont aussi courantes que les lancements de produits.

Le discours s’est également étendu aux aspects pratiques et aux pièges des technologies émergentes, en particulier les montres connectées et les implications plus larges de l’intelligence artificielle. La question de savoir si une montre connectée peut réellement remplacer un smartphone, en particulier un modèle compatible LTE, a été explorée, un participant décrivant l’expérience comme “humiliante”, suggérant que si les montres connectées offrent de la commodité, elles ne sont toujours pas un substitut complet au téléphone. La conversation s’est ensuite orientée vers les préoccupations plus profondes concernant l’IA, en particulier sa fiabilité. Des cas où des outils d’IA médicale ont conduit des médecins à mal interpréter les résultats ou où l’IA de santé de Google a fabriqué une partie du corps, ont souligné le besoin critique de surveillance humaine et de scepticisme. L’opacité inhérente des grands modèles linguistiques, souvent désignés comme des chatbots ne “racontant pas leurs secrets”, a soulevé d’autres questions sur leur fiabilité et le potentiel de désinformation, soulignant qu’à mesure que l’IA s’intègre davantage dans des domaines critiques, la compréhension de ses limites et de son potentiel d’erreur devient primordiale.

Le paysage technologique actuel est donc une interaction dynamique de promesses révolutionnaires de l’IA, des réalités difficiles de leur mise en œuvre, des rivalités d’entreprise intenses et de l’évolution continue des appareils personnels, le tout dans un contexte de surveillance croissante des implications éthiques et pratiques de l’IA.