Zhipu AIs GLM-4.5: Open-Source LLM fordert westliche Modelle heraus
Das chinesische KI-Kraftpaket Zhipu AI hat seine neuesten Fortschritte vorgestellt, die Modellfamilien GLM-4.5 und GLM-4.5V, die einen bedeutenden Schritt bei Open-Source-Sprachmodellen (LLMs) signalisieren, die für komplexe logische Schlussfolgerungen, anspruchsvolle Programmierung und autonome Agentenaufgaben entwickelt wurden. Diese neuen Modelle sind darauf ausgelegt, eine Reihe praktischer Anwendungen zu bewältigen, von der Generierung interaktiver Minispiele und komplexer Physiksimulationen bis zur autonomen Erstellung von Präsentationsfolien mit integrierten Web-Suchfunktionen und sogar der Entwicklung kompletter Webanwendungen, die sowohl Front-End- als auch Back-End-Funktionalitäten umfassen.
Die multimodale Variante, GLM-4.5V, erweitert diese Fähigkeiten durch die Integration fortschrittlicher Bild- und Videoanalyse. Diese Version kann ganze Websites aus bloßen Screenshots rekonstruieren und Bildschirmoperationen durchführen, was hochautonome Agentenverhaltensweisen ermöglicht. Benutzer können diese Funktionen über eine ChatGPT-ähnliche Oberfläche, die nach einer einfachen Anmeldung kostenlos auf chat.z.ai verfügbar ist, erkunden.
Zhipu AIs neue Produktpalette umfasst drei verschiedene Modelle: das robuste GLM-4.5, das ressourceneffizientere GLM-4.5-Air und das multimodale GLM-4.5V, das auf der Air-Version aufbaut. Jedes Modell bietet einen Dual-Modus-Betriebsansatz, der einen „Denkmodus“ für tiefe, komplexe Schlussfolgerungen und einen „Schnellantwortmodus“ für schnelle, prägnante Antworten umfasst.
Ein Hauptmerkmal der GLM-4.5-Serie ist ihre bemerkenswerte Parametereffizienz in Verbindung mit starker Leistung. Zhipu AI behauptet, dass GLM-4.5V die leistungsfähigsten Fähigkeiten unter Open-Source-Modellen vergleichbarer Größe liefert. In umfassenden Bewertungen über zwölf verschiedene Benchmarks hinweg belegte GLM-4.5 insgesamt einen beeindruckenden dritten Platz unter dreizehn großen Sprachmodellen und einen bemerkenswerten zweiten Platz speziell für autonome Aufgaben. Die Leistung umfasst eine Punktzahl von 70,1 Prozent bei TAU-Bench-Agentenaufgaben, eine Erfolgsquote von 91,0 Prozent bei AIME 24-Mathematikproblemen und solide 64,2 Prozent bei SWE-Bench Verified-Software-Engineering-Aufgaben.
Die Modelle demonstrieren außergewöhnliche Effizienz: GLM-4.5 verwendet nur die Hälfte der Parameter von Deepseek-R1 und nur ein Drittel der Parameter von Kimi K2, erreicht aber konstant deren Leistung oder übertrifft sie sogar. Für die Web-Navigation erreichte GLM-4.5 26,4 Prozent bei BrowseComp und übertraf damit sogar das wesentlich größere Claude Opus 4, das 18,8 Prozent erreichte. Selbst das kompaktere GLM-4.5-Air-Modell konkurriert bei Codierungsaufgaben mit Deepseek R1, obwohl es eine viel geringere Parameteranzahl aufweist.
Grundlage dieser Modelle ist eine hochentwickelte Mixture-of-Experts (MoE)-Architektur. GLM-4.5 verfügt über insgesamt 355 Milliarden Parameter, von denen 32 Milliarden zu jedem Zeitpunkt aktiv sind, während GLM-4.5-Air 106 Milliarden Parameter aufweist, von denen 12 Milliarden aktiv sind. Im Gegensatz zu einigen Zeitgenossen, die breitere Netzwerke bevorzugen, hat sich Zhipu AI für tiefere Architekturen mit mehr Schichten entschieden, eine Designwahl, die auf ihrer Forschung basiert, welche darauf hindeutet, dass eine erhöhte Tiefe die Denkfähigkeiten erheblich verbessert. Die Modelle wurden ausgiebig mit etwa 23 Billionen Token trainiert, wobei sie mehrere Phasen von allgemeinen Daten bis hin zu spezialisierten Code- und Denkaufgaben durchliefen.
Alle Modelle sind über die Z.ai-Plattform zugänglich und bieten OpenAI-kompatible API-Endpunkte. Für die Entwicklergemeinschaft ist der Code auf GitHub Open Source, und Modellgewichte stehen zum Download von Hugging Face und Alibabas Modelscope zur Verfügung.
Zhipu AI, 2019 von Professoren der Tsinghua-Universität gegründet und mit Hauptsitz in Peking, erlangte 2022 erstmals internationale Aufmerksamkeit, als sein GLM-130B-Modell eine Leistung zeigte, die die Angebote von Branchenriesen wie Google und OpenAI übertraf. Heute beschäftigt das Unternehmen über 800 Mitarbeiter, überwiegend in Forschung und Entwicklung. Es hat erhebliche Investitionen von prominenten chinesischen Technologieunternehmen wie Alibaba, Tencent und Xiaomi sowie von mehreren Staatsfonds und internationalen Geldgebern wie Saudi Aramcos Prosperity7 Ventures angezogen, was zu einer Bewertung von über 5 Milliarden US-Dollar führte, während es sich auf einen Börsengang vorbereitet.
Der schnelle Aufstieg chinesischer KI-Modelle, einschließlich der von Zhipu AI, vollzieht sich jedoch innerhalb eines einzigartigen geopolitischen Rahmens. Alle derartigen Modelle unterliegen der staatlichen Zensur, was die Prioritäten und ideologischen Direktiven der chinesischen Regierung widerspiegelt. Dies steht im Gegensatz zu den Vereinigten Staaten, wo die Regierung ebenfalls Beschränkungen für heimische KI-Modelle prüft, wenn auch aus einem anderen Satz politischer Werte. In beiden Fällen laufen diese leistungsstarken KI-Systeme Gefahr, zu Werkzeugen in umfassenderen Kulturkämpfen zu werden, wobei unterschiedliche Ideologien ihre Fähigkeiten und zulässigen Ausgaben prägen und letztendlich zu ähnlichen Formen der Inhaltskontrolle führen.