GPT-5: Inkrementeller KI-Fortschritt inmitten überzogenen Hypes
OpenAIs mit Spannung erwartetes GPT-5, ihr neues Flaggschiffmodell, ist endlich da, und der Konsens unter den Beobachtern ist klar: Während es ein verfeinertes Benutzererlebnis bietet, bleibt es weit hinter einem revolutionären Durchbruch zurück. Wie ein Kollege es prägnant formulierte, ist GPT-5 „vor allem ein verfeinertes Produkt“. Diese Einschätzung stimmt mit dem breiteren Gefühl überein, dass aktuelle Modellveröffentlichungen in der gesamten Branche zunehmend inkrementellen Smartphone-Updates ähneln, die darauf ausgelegt sind, bestehende Funktionen zu verbessern, anstatt völlig neue Paradigmen einzuführen. OpenAI-CEO Sam Altman selbst zog einen Vergleich zur Einführung des Retina-Displays durch Apple, ein Vergleich, der, obwohl für iterative Verbesserungen gültig, die Frage aufwirft: Wo ist der transformative Sprung von einer BlackBerry-Tastatur zu einem Touchscreen-iPhone? Wo ist die grundlegende Verschiebung, die völlig neue Anwendungen und Industrien erschließt, ähnlich wie assistiertes GPS Echtzeitnavigation ermöglicht und Unternehmen wie Uber entstehen ließ?
Tatsächlich stieß der Start von GPT-5 auf unerwarteten Benutzerwiderstand. Kunden, die an die ausgeprägte „Persönlichkeit“ von GPT-4o gewöhnt waren, lobbyierten OpenAI erfolgreich, es als Option für Plus-Abonnenten wieder einzuführen. Diese Episode unterstreicht zusätzlich, dass die GPT-5-Veröffentlichung die Feinabstimmung der Benutzererfahrung gegenüber signifikanten Leistungsverbesserungen priorisierte.
Doch trotz dieser Realität war der Hype um GPT-5 immens. Stunden vor der Ankündigung neckte Altman die Veröffentlichung mit einem Bild eines aufsteigenden Todessterns. Am Starttag pries er dessen „Intelligenz auf Promotionsniveau“ an und behauptete später in einer Morgensendung, es würde „viele Leben retten“. Während solche Äußerungen oft auf Skepsis stoßen, ist Altman bei dieser Selbstdarstellung keineswegs allein. Erst letzte Woche verfasste Meta-CEO Mark Zuckerberg ein langes Memo über das bevorstehende Eintreffen der KI-Superintelligenz, und Anfang dieses Jahres löste Anthropic-CEO Dario Amodei mit seiner Vorhersage, dass KI innerhalb eines Jahres die Hälfte aller Einstiegsjobs ernten könnte, weitreichende Besorgnis aus. Diese Branchenführer diskutieren häufig die existenziellen Risiken, die von ihren Kreationen ausgehen, auch wenn ihre fortschrittlichen Modelle immer noch mit grundlegenden Abfragen zu kämpfen haben, wie dem Zählen der 'b’s in “blueberry”.
Dies soll die beeindruckenden Fähigkeiten von Produkten von OpenAI, Anthropic und anderen Entwicklern nicht schmälern. Sie sind zweifellos leistungsstarke Werkzeuge mit erheblichem Nutzen. Der Hype-Zyklus um diese Modellveröffentlichungen ist jedoch übertrieben geworden. Als häufiger Nutzer von ChatGPT und Google Gemini, oft mehrmals täglich, habe ich ihren Nutzen aus erster Hand erfahren. Kürzlich begegnete meine Frau einem Wal, der wiederholt mit dem Schwanz auf das Wasser schlug, ein Verhalten, das sie trotz umfangreicher Erfahrung mit Meereslebewesen noch nie zuvor beobachtet hatte. Neugierig wandte ich mich an ChatGPT und fragte: „Warum schlagen Wale wiederholt mit dem Schwanz auf das Wasser?“ Der Chatbot identifizierte das Verhalten selbstbewusst als „Lobtailing“ und lieferte eine Liste potenzieller Gründe. Obwohl beeindruckend, hätte eine Standard-Google-Suche ähnliche Informationen geliefert. Wichtiger noch, die Erklärung von ChatGPT war, obwohl prägnant, übermäßig definitiv. In Wirklichkeit, während Theorien im Überfluss vorhanden sind, bleiben die genauen Gründe für das Lobtailing ein wissenschaftliches Geheimnis.
Mein Wissen über dieses Geheimnis stammt aus der tieferen Auseinandersetzung mit traditionellen Suchergebnissen, die mich zu einem aufschlussreichen Essay von Emily Boring führten. Sie beschreibt eloquent ihre Beobachtungen eines buckelwalartigen Lobtailings und erforscht die wissenschaftliche Unsicherheit, die dieses energieintensive Verhalten umgibt. Dient es der Nahrungssuche, Kommunikation oder dem Imponiergehabe? Wie der Biologe Hal Whitehead vorschlägt: „Breaches und Lob-Tails sind genau deshalb gute Signale, weil sie energetisch aufwendig sind und somit die Wichtigkeit der Botschaft und den physischen Zustand des Senders anzeigen.“ Ein Schwanzschlag wird in diesem Kontext zu einer kraftvollen Erklärung: „Aufgepasst! Ich bin wichtig! Nimm mich wahr!“
In vielerlei Hinsicht ist der aktuelle KI-Hype-Zyklus ein notwendiges Nebenprodukt des gewaltigen Investitionsniveaus. Die unzähligen Milliarden Dollar an versenkten Kosten, die massiven Rechenzentrumserweiterungen mit ihren erheblichen Umweltfolgen, all das erfordert eine Rechtfertigung. So viel Kapital steht auf dem Spiel, dass die Branche gezwungen ist, einen konstanten Strom großer Versprechen zu generieren.
Das soll nicht heißen, dass in der KI nicht wirklich coole Dinge passieren. Ich war von bestimmten KI-Veröffentlichungen, wie ChatGPT 3.5, Dall-E, NotebookLM, Veo 3 und Synthesia, wirklich begeistert. Und erst diese Woche war Google DeepMinds Genie 3, das einen einfachen Textbefehl in eine immersive, navigierbare 3D-Welt verwandeln kann, wirklich umwerfend. Doch Genie 3 selbst macht deutlich, dass die interessantesten Fortschritte in der KI oft außerhalb des Bereichs der Chatbots stattfinden.
Man könnte sogar argumentieren, dass in diesem Stadium die am konstantesten erstaunten Beobachter neuer Large-Language-Model-Chatbot-Veröffentlichungen oft diejenigen sind, die am direktesten von ihrer Förderung profitieren. Vielleicht ist diese Perspektive zynisch, aber ich glaube, sie ist weniger zynisch, als einen Todesstern zu versprechen und einen Chatbot zu liefern, dessen primärer neuer Reiz die automatische Modellauswahl ist. Es ist weniger zynisch, als Superintelligenz zu versprechen und das zu liefern, was einem überhypten, oft definitiven, aber letztendlich begrenzten Werkzeug gleichkommt. Es ist alles nur viel Lobtailing: „Aufgepasst! Ich bin wichtig! Nimm mich wahr!“