Coût Énergétique Élevé de GPT-5 : OpenAI Reste Muet sur sa Consommation
Le modèle GPT-5 d’OpenAI, récemment publié et destiné à alimenter le populaire chatbot ChatGPT, suscite d’importantes inquiétudes parmi les experts concernant sa consommation d’énergie. Bien que l’entreprise ait mis en avant les capacités avancées de GPT-5 — y compris sa capacité à générer des sites web, à répondre à des questions scientifiques de niveau doctoral et à résoudre des problèmes de raisonnement complexes — ces avancées semblent avoir un coût environnemental substantiel, qu’OpenAI a jusqu’à présent refusé de divulguer.
À titre de comparaison, une requête adressée à une version antérieure de ChatGPT à la mi-2023, telle qu’une demande de recette de pâtes aux artichauts ou d’instructions pour une offrande rituelle à l’ancienne divinité cananéenne Moloch, aurait pu consommer environ 2 watts-heures d’électricité, ce qui équivaut à une ampoule incandescente allumée pendant deux minutes. Les experts estiment désormais que la génération d’une quantité similaire de texte avec GPT-5 pourrait exiger plusieurs fois cette énergie, potentiellement jusqu’à 20 fois plus.
OpenAI, comme beaucoup de ses concurrents, n’a pas publié de données officielles sur la consommation d’énergie de ses modèles depuis le lancement de GPT-3 en 2020. Bien que le PDG Sam Altman ait partagé quelques chiffres sur la consommation de ressources de ChatGPT sur son blog en juin — citant 0,34 watts-heure et 0,000085 gallons d’eau par requête — ces chiffres manquaient d’attribution de modèle spécifique et de documentation justificative.
Le professeur Rakesh Kumar de l’Université de l’Illinois, dont les recherches portent sur la consommation d’énergie des modèles informatiques et d’IA, a déclaré qu’un modèle plus complexe comme GPT-5 consommerait intrinsèquement plus d’énergie pendant ses phases d’entraînement et d’opération. Il a ajouté que sa conception pour une « pensée longue » indique fortement une consommation d’énergie bien plus élevée que son prédécesseur, GPT-4.
En effet, le jour de la sortie de GPT-5, des chercheurs du laboratoire d’IA de l’Université de Rhode Island ont constaté que le modèle pouvait utiliser jusqu’à 40 watts-heures d’électricité pour produire une réponse de longueur moyenne d’environ 1 000 jetons, qui sont les blocs de construction du texte pour un modèle d’IA, à peu près équivalents à des mots. Un tableau de bord lancé ultérieurement par le laboratoire a indiqué que la consommation d’énergie moyenne de GPT-5 pour une telle réponse est d’un peu plus de 18 watts-heures. Ce chiffre dépasse tous les autres modèles qu’ils ont évalués, à l’exception du modèle de raisonnement o3 d’OpenAI, sorti en avril, et de R1, développé par la firme chinoise d’IA Deepseek. Nidhal Jegham, une chercheuse du groupe, a confirmé que cela représente « significativement plus d’énergie que GPT-4o », le modèle précédent d’OpenAI.
Pour mettre cela en perspective, 18 watts-heures sont comparables à une ampoule incandescente allumée pendant 18 minutes. Compte tenu des rapports récents selon lesquels ChatGPT traite 2,5 milliards de requêtes par jour, l’énergie totale consommée par GPT-5 pourrait potentiellement rivaliser avec la demande quotidienne d’électricité de 1,5 million de foyers américains.
Les chercheurs du domaine anticipaient largement ces chiffres élevés, car GPT-5 est considéré comme étant substantiellement plus grand que les modèles précédents d’OpenAI. OpenAI n’a pas divulgué le nombre de paramètres — qui détermine en grande partie la taille d’un modèle — pour aucun de ses modèles depuis GPT-3, qui comprenait 175 milliards de paramètres. Une étude menée cet été par la société française d’IA Mistral, basée sur ses systèmes internes, a identifié une forte corrélation entre la taille d’un modèle et sa consommation d’énergie, notant qu’un modèle dix fois plus grand générerait des impacts d’un ordre de grandeur supérieur pour la même quantité de jetons générés. Des estimations précédentes suggéraient largement que GPT-4 était dix fois la taille de GPT-3, et des experts comme Jegham, Kumar et Shaolei Ren, professeur à l’Université de Californie, Riverside, qui étudie l’empreinte des ressources de l’IA, estiment que GPT-5 est probablement significativement plus grand que GPT-4.
Les principales entreprises d’IA, y compris OpenAI, affirment que les modèles extrêmement grands sont essentiels pour atteindre l’Intelligence Artificielle Générale (AGI), un système d’IA capable d’effectuer des tâches humaines. Altman lui-même a exprimé ce point de vue en février, suggérant que « vous pouvez dépenser des sommes arbitraires et obtenir des gains continus et prévisibles », bien qu’il ait précisé que GPT-5 n’avait pas surpassé l’intelligence humaine.
Bien que l’échelle impressionnante de GPT-5 soit un moteur principal de ses demandes énergétiques, d’autres facteurs influencent également sa consommation de ressources. Le modèle bénéficie d’un déploiement sur du matériel plus efficace que certaines itérations précédentes. De plus, GPT-5 semble utiliser une architecture de « mélange d’experts », une conception simplifiée où tous les paramètres ne sont pas activés pour chaque requête, ce qui peut potentiellement réduire la consommation d’énergie. Inversement, les capacités multimodales de GPT-5, lui permettant de traiter des vidéos et des images en plus du texte, et son « mode de raisonnement », qui implique des temps de calcul plus longs avant de générer une réponse, sont susceptibles d’augmenter significativement son empreinte énergétique. Ren estime que l’utilisation du mode de raisonnement pourrait entraîner une augmentation de cinq à dix fois des dépenses de ressources pour la même réponse.
L’équipe de l’Université de Rhode Island a calculé ses estimations en multipliant le temps moyen qu’un modèle prend pour répondre à une requête par sa consommation d’énergie moyenne pendant le fonctionnement. Abdeltawab Hendawi, professeur de science des données à l’Université de Rhode Island, a noté l’effort considérable requis pour estimer la consommation d’énergie d’un modèle, en particulier en raison du manque d’informations sur la manière dont les différents modèles sont déployés dans les centres de données. Leur document final comprend des estimations des puces utilisées par des modèles spécifiques et de la manière dont les requêtes sont distribuées entre diverses puces dans un centre de données. Notamment, le chiffre de 0,34 watts-heure par requête pour ChatGPT, cité par Altman dans son article de blog de juin, correspond étroitement aux conclusions du groupe pour GPT-4o, ce qui confère de la crédibilité à leur méthodologie.
Hendawi, Jegham et les autres membres de leur groupe de recherche soulignent que leurs conclusions mettent en évidence un besoin urgent de plus grande transparence de la part des entreprises d’IA à mesure qu’elles continuent de publier des modèles de plus en plus grands et puissants. Marwan Abdelatti, un autre professeur de l’URI, a affirmé : « Il est plus critique que jamais d’aborder le véritable coût environnemental de l’IA. Nous appelons OpenAI et les autres développeurs à profiter de ce moment pour s’engager à une transparence totale en divulguant publiquement l’impact environnemental de GPT-5. »