Hoher Energieverbrauch von GPT-5: OpenAI schweigt

Theguardian

OpenAIs neu veröffentlichtes GPT-5-Modell, das den beliebten ChatGPT-Chatbot antreiben soll, ruft unter Experten erhebliche Bedenken hinsichtlich seines Energieverbrauchs hervor. Während das Unternehmen die fortschrittlichen Fähigkeiten von GPT-5 — einschließlich seiner Fähigkeit, Websites zu generieren, wissenschaftliche Fragen auf Doktoranden-Niveau zu beantworten und komplexe Denkprobleme zu lösen — hervorgehoben hat, scheinen diese Durchbrüche mit erheblichen Umweltkosten verbunden zu sein, die OpenAI bisher nicht offengelegt hat.

Zum Vergleich: Eine Anfrage an eine frühere Version von ChatGPT Mitte 2023, wie beispielsweise ein Rezept für Artischocken-Pasta oder Anweisungen für ein rituelles Opfer an die alte kanaanäische Gottheit Moloch, hätte etwa 2 Wattstunden Strom verbraucht, was einer Glühbirne entspricht, die zwei Minuten lang brennt. Experten schätzen nun, dass die Generierung einer ähnlichen Textmenge mit GPT-5 ein Vielfaches dieser Energie erfordern könnte, potenziell bis zu 20 Mal mehr.

OpenAI hat, wie viele seiner Konkurrenten, seit dem Debüt von GPT-3 im Jahr 2020 keine offiziellen Daten zum Stromverbrauch seiner Modelle veröffentlicht. Obwohl CEO Sam Altman in seinem Blog diesen Juni einige Zahlen zum Ressourcenverbrauch von ChatGPT teilte — 0,34 Wattstunden und 0,000085 Gallonen Wasser pro Abfrage — fehlten diesen Zahlen spezifische Modellzuordnungen und unterstützende Dokumentationen.

Professor Rakesh Kumar von der University of Illinois, dessen Forschung sich auf den Energieverbrauch von Computer- und KI-Modellen konzentriert, erklärte, dass ein komplexeres Modell wie GPT-5 sowohl in seinen Trainings- als auch in seinen Betriebsphasen von Natur aus mehr Strom verbrauchen würde. Er fügte hinzu, dass sein Design für „langes Denken“ stark auf einen viel höheren Stromverbrauch als sein Vorgänger GPT-4 hindeutet.

Tatsächlich stellten Forscher des KI-Labors der University of Rhode Island am Tag der Veröffentlichung von GPT-5 fest, dass das Modell bis zu 40 Wattstunden Strom verbrauchen könnte, um eine mittelgroße Antwort von etwa 1.000 Tokens zu erzeugen, die die Bausteine von Text für ein KI-Modell sind, was ungefähr Wörtern entspricht. Ein später vom Labor eingeführtes Dashboard zeigte an, dass der durchschnittliche Energieverbrauch von GPT-5 für eine solche Antwort knapp über 18 Wattstunden liegt. Dieser Wert übertrifft alle anderen von ihnen getesteten Modelle, mit Ausnahme von OpenAIs im April veröffentlichtem o3-Reasoning-Modell und R1, das von der chinesischen KI-Firma Deepseek entwickelt wurde. Nidhal Jegham, eine Forscherin der Gruppe, bestätigte, dass dies „deutlich mehr Energie als GPT-4o“, OpenAIs früheres Modell, darstellt.

Um dies ins rechte Licht zu rücken: 18 Wattstunden sind vergleichbar mit einer Glühbirne, die 18 Minuten lang brennt. Angesichts jüngster Berichte, dass ChatGPT täglich 2,5 Milliarden Anfragen verarbeitet, könnte der gesamte von GPT-5 verbrauchte Energiebedarf potenziell dem täglichen Strombedarf von 1,5 Millionen US-Haushalten entsprechen.

Forscher in diesem Bereich hatten diese hohen Zahlen weitgehend erwartet, da GPT-5 als wesentlich größer als OpenAIs frühere Modelle gilt. OpenAI hat seit GPT-3, das 175 Milliarden Parameter umfasste, keine Parameterzahlen – die maßgeblich die Größe eines Modells bestimmen – für seine Modelle offengelegt. Eine diesen Sommer von dem französischen KI-Unternehmen Mistral auf Basis seiner internen Systeme durchgeführte Studie identifizierte eine starke Korrelation zwischen der Größe eines Modells und seinem Energieverbrauch, wobei festgestellt wurde, dass ein zehnmal größeres Modell für die gleiche Menge generierter Token Auswirkungen einer Größenordnung mehr erzeugen würde. Frühere Schätzungen legten weitgehend nahe, dass GPT-4 zehnmal so groß war wie GPT-3, und Experten wie Jegham, Kumar und Shaolei Ren, ein Professor an der University of California, Riverside, der den Ressourcen-Fußabdruck von KI untersucht, glauben, dass GPT-5 wahrscheinlich erheblich größer als GPT-4 ist.

Führende KI-Unternehmen, einschließlich OpenAI, argumentieren, dass extrem große Modelle unerlässlich sind, um Künstliche Allgemeine Intelligenz (AGI) zu erreichen, ein KI-System, das menschliche Aufgaben ausführen kann. Altman selbst formulierte diese Ansicht im Februar und schlug vor, dass „man beliebige Geldsummen ausgeben und kontinuierliche und vorhersehbare Gewinne erzielen kann“, obwohl er klarstellte, dass GPT-5 die menschliche Intelligenz nicht übertroffen hatte.

Während die schiere Größe von GPT-5 ein Haupttreiber seines Energiebedarfs ist, beeinflussen auch andere Faktoren seinen Ressourcenverbrauch. Das Modell profitiert vom Einsatz auf effizienterer Hardware als einige frühere Iterationen. Darüber hinaus scheint GPT-5 eine „Mixture-of-Experts“-Architektur zu nutzen, ein optimiertes Design, bei dem nicht alle Parameter für jede Abfrage aktiviert werden, was potenziell den Energieverbrauch reduziert. Umgekehrt dürften die multimodalen Fähigkeiten von GPT-5, die es ihm ermöglichen, zusätzlich zu Text auch Videos und Bilder zu verarbeiten, und sein „Reasoning-Modus“, der längere Rechenzeiten vor der Generierung einer Antwort mit sich bringt, seinen Energie-Fußabdruck erheblich erhöhen. Ren schätzt, dass die Verwendung des Reasoning-Modus zu einer fünf- bis zehnfachen Erhöhung des Ressourcenverbrauchs für dieselbe Antwort führen könnte.

Das Team der University of Rhode Island berechnete seine Schätzungen, indem es die durchschnittliche Zeit, die ein Modell zur Beantwortung einer Abfrage benötigt, mit seiner durchschnittlichen Leistungsaufnahme während des Betriebs multiplizierte. Abdeltawab Hendawi, Professor für Datenwissenschaft an der University of Rhode Island, wies auf den erheblichen Aufwand hin, der zur Schätzung des Stromverbrauchs eines Modells erforderlich ist, insbesondere aufgrund des Mangels an Informationen darüber, wie verschiedene Modelle in Rechenzentren eingesetzt werden. Ihr endgültiges Papier enthält Schätzungen für die von bestimmten Modellen verwendeten Chips und wie Abfragen auf verschiedene Chips in einem Rechenzentrum verteilt werden. Bemerkenswert ist, dass Altmans Blogbeitrag vom Juni, in dem 0,34 Wattstunden pro Abfrage für ChatGPT angegeben wurden, eng mit den Ergebnissen der Gruppe für GPT-4o übereinstimmt, was ihrer Methodik Glaubwürdigkeit verleiht.

Hendawi, Jegham und andere Mitglieder ihrer Forschungsgruppe betonen, dass ihre Ergebnisse einen dringenden Bedarf an größerer Transparenz von KI-Unternehmen unterstreichen, da diese weiterhin immer größere und leistungsfähigere Modelle veröffentlichen. Marwan Abdelatti, ein weiterer Professor an der URI, erklärte: „Es ist kritischer denn je, die wahren Umweltkosten von KI anzugehen. Wir fordern OpenAI und andere Entwickler auf, diesen Moment zu nutzen, um sich zu voller Transparenz zu verpflichten, indem sie die Umweltauswirkungen von GPT-5 öffentlich offenlegen.“