GPT-5: Lancement Difficile, Politiques d'IA de Meta & Drame Tech
Le paysage de l’intelligence artificielle poursuit son évolution rapide, souvent turbulente, marquée cette semaine par des développements significatifs de la part des principaux laboratoires d’IA et géants de la technologie. OpenAI s’est retrouvée à gérer les répercussions du déploiement chaotique de GPT-5, tandis que Meta a fait face à un examen intense concernant des documents de politique d’IA divulgués. Au milieu de ces controverses, Demis Hassabis de Google DeepMind a offert une vision convaincante pour l’avenir de l’Intelligence Générale Artificielle (AGI), alors même que des jeux de pouvoir se déroulaient entre des titans de l’industrie comme Sam Altman et Elon Musk.
Le dernier modèle phare d’OpenAI, GPT-5, a connu un début turbulent. Lancé le 7 août, il a immédiatement déclenché une réaction négative des utilisateurs en raison de la décision initiale de l’entreprise d’éliminer progressivement les modèles hérités comme GPT-4o, forçant tous les utilisateurs à passer au nouveau système. Les plaintes se sont multipliées concernant des limites de débit inattendues et le manque perçu d’intelligence dans les premières itérations de GPT-5. Sam Altman, PDG d’OpenAI, a rapidement répondu sur X, répondant aux préoccupations en doublant les limites de débit de GPT-5 pour les utilisateurs Plus et en réactivant l’accès à GPT-4o. D’autres ajustements ont suivi, introduisant les modes “Auto”, “Fast” et “Thinking” au sein de GPT-5 et promettant une personnalité “plus chaleureuse” pour le modèle. Bien que la réponse rapide d’OpenAI ait démontré son agilité, les faux pas initiaux ont mis en évidence les défis liés au lancement de modèles de pointe auprès d’une base d’utilisateurs massive et ont suggéré que l’avance autrefois claire d’OpenAI en matière de performances de modèle pourrait se réduire.
Pendant ce temps, Meta s’est retrouvée mêlée à une controverse éthique majeure suite à la fuite d’un document de politique interne de 200 pages. Ce document, qui guide Meta AI et ses chatbots sur Facebook, WhatsApp et Instagram, aurait permis aux bots de s’engager dans des “chats romantiques ou sensuels” avec des mineurs, à condition qu’ils ne franchissent pas le territoire explicitement sexuel. De manière alarmante, les directives autorisaient également les bots à argumenter en faveur de l’infériorité raciale, tant que le langage déshumanisant était évité, et à générer de fausses allégations médicales ou des images suggestives de personnalités publiques avec des avertissements. Malgré les affirmations de Meta selon lesquelles ces exemples étaient “erronés” et “incohérents” avec les politiques officielles, le document avait été examiné et approuvé par les équipes juridiques, politiques et d’ingénierie de l’entreprise, y compris son éthicien en chef. Les révélations ont rapidement attiré l’attention des sénateurs américains, ce qui a déclenché une enquête sur les politiques de Meta en matière d’IA pour enfants et soulevé de sérieuses questions sur la gouvernance par l’entreprise de ses produits d’IA.
Dans une discussion plus prospective, Demis Hassabis, PDG et cofondateur de Google DeepMind, a fourni une perspective rare et approfondie sur l’avenir de l’IA lors d’une interview de deux heures et demie sur le podcast de Lex Fridman. Hassabis, un scientifique lauréat du prix Nobel, a estimé à 50/50 la probabilité que l’AGI arrive dans les cinq prochaines années, avec une forte possibilité d’ici 2030. Il a défini l’AGI non seulement comme de la brillance dans des tâches étroites, mais comme une brillance constante sur tout le spectre des capacités cognitives humaines, y compris le raisonnement, la planification et la créativité. La vision de Hassabis, enracinée dans la pure recherche scientifique et la poursuite de la compréhension fondamentale, contraste fortement avec les motivations plus économiques souvent perçues chez d’autres leaders de l’IA, offrant un aperçu d’un avenir où l’IA pourrait débloquer des percées scientifiques profondes et même concevoir des formes entièrement nouvelles d’entreprises humaines élégantes.
La semaine a également été le théâtre de la poursuite du drame entre Sam Altman d’OpenAI et Elon Musk. Suite aux accusations de Musk selon lesquelles les politiques de l’App Store d’Apple favorisaient injustement OpenAI, Altman a rétorqué en alléguant la propre manipulation de X (anciennement Twitter) par Musk pour bénéficier à ses entreprises et nuire à ses concurrents. Cette dispute publique a souligné les rivalités intenses et les animosités personnelles qui façonnent le paysage concurrentiel de l’industrie de l’IA. Ajoutant à l’intrigue, Igor Babuschkin, cofondateur et responsable de l’ingénierie chez xAI d’Elon Musk, a annoncé son départ pour lancer une nouvelle société de capital-risque axée sur la sécurité de l’IA, soulignant une tendance croissante des meilleurs chercheurs à prioriser les implications éthiques et sociétales de l’IA avancée.
Au-delà des laboratoires de pointe, d’autres développements significatifs se sont déroulés. Perplexity, le moteur de recherche basé sur l’IA, a fait une offre audacieuse, bien que probablement symbolique, de 34,5 milliards de dollars pour acquérir Google Chrome au milieu de l’examen antitrust en cours de Google. Dans la géopolitique des puces, un accord sans précédent a émergé entre le gouvernement américain et les géants des puces Nvidia et AMD, leur exigeant de remettre directement aux États-Unis 15 % des revenus de certaines ventes de puces en Chine. Cet arrangement, lié aux licences d’exportation, vise à maintenir l’influence technologique américaine tout en naviguant dans des relations commerciales complexes.
L’intégration de l’IA dans le gouvernement et les entreprises a continué de s’accélérer. Anthropic, un développeur de modèles d’IA de premier plan, a offert son modèle Claude aux trois branches du gouvernement américain pour un dollar symbolique, reflétant une offre similaire d’OpenAI. Cela coïncide avec le lancement d’USAi, une nouvelle plateforme fédérale offrant un accès sécurisé aux modèles de divers leaders de l’IA pour les employés du gouvernement. Dans le secteur privé, Cohere, une entreprise de modèles d’IA spécialisée dans les solutions de qualité entreprise pour les industries réglementées, a obtenu 500 millions de dollars de financement à une valorisation de 6,8 milliards de dollars pour faire progresser ses capacités d’IA “agentique”, en se concentrant sur la confidentialité et le contrôle. Enfin, Apple prévoirait un retour significatif dans l’IA, avec des ambitions pour un robot de table d’ici 2027 et un Siri revitalisé, plus réaliste, signalant une nouvelle impulsion vers le matériel alimenté par l’IA et les appareils domestiques intelligents.
Au milieu de ces avancées rapides et de ces dynamiques complexes, des institutions comme le College of Business de l’Ohio University préparent activement la prochaine génération. L’université a intégré de manière proactive l’IA dans son programme, devenant l’une des premières à adopter une politique d’IA générative et à former les étudiants dans “cinq domaines d’IA” couvrant la recherche, l’idéation, la résolution de problèmes, la synthèse et le bien social, assurant une littératie pratique et prête pour la carrière en IA.