Erwartungsmanagement für erfolgreiche KI-Projekte
Damit Projekte im Bereich der künstlichen Intelligenz (KI) wirklich erfolgreich sind, ist die Kunst des Erwartungsmanagements von größter Bedeutung. Im Gegensatz zur traditionellen Softwareentwicklung sind KI-Initiativen von Natur aus von Unsicherheit geprägt, eine Eigenschaft, die ein gesamtes Vorhaben entweder vorantreiben oder zum Scheitern bringen kann. Viele Stakeholder, die oft mit der komplexen Funktionsweise von KI nicht vertraut sind, verstehen nicht, dass Fehler nicht nur Störungen, sondern ein intrinsischer und oft entscheidender Teil des Prozesses sind. Folglich kann ein Mangel an klar definierten Erwartungen schnell zu Projektfehlern und Enttäuschungen führen.
Ein entscheidender Ratschlag für die Navigation in diesem Umfeld ist, dem Drang zu widerstehen, Performance im Voraus zu versprechen. Sich auf spezifische Metriken festzulegen, bevor man die Daten, die Betriebsumgebung oder gar die genauen Projektziele gründlich verstanden hat, ist ein sicherer Weg zum Scheitern. Solche verfrühten Garantien führen oft zu verfehlten Zielen oder, schlimmer noch, zu einem Anreiz, statistische Ergebnisse zu manipulieren, um ein rosigeres Bild zu zeichnen. Ein umsichtigerer Ansatz besteht darin, Leistungsdiskussionen auf einen Zeitpunkt nach einer eingehenden Untersuchung der Daten und des vorliegenden Problems zu verschieben. Einige führende Praktiken befürworten sogar eine anfängliche „Phase 0“, eine Vorstufe, die der Erforschung potenzieller Wege, der Bewertung der Machbarkeit und der Festlegung einer Basislinie vor der formellen Projektgenehmigung gewidmet ist. Die einzigen Szenarien, in denen eine frühzeitige Leistungszusage gerechtfertigt sein könnte, sind, wenn ein Team volles Vertrauen und tiefes Wissen über vorhandene Daten besitzt oder wenn genau dasselbe Problem zuvor mehrfach erfolgreich gelöst wurde.
Das Identifizieren und Verstehen aller Stakeholder von Projektbeginn an ist gleichermaßen wichtig. KI-Projekte umfassen selten eine einzelne, monolithische Zielgruppe; typischerweise umfassen sie eine vielfältige Mischung aus geschäftlichen und technischen Profilen, jedes mit unterschiedlichen Prioritäten, Perspektiven und Erfolgsdefinitionen. Ein effektives Stakeholder-Mapping wird hier unerlässlich und erfordert ein gründliches Verständnis ihrer individuellen Ziele, Bedenken und Erwartungen. Kommunikation und Entscheidungsfindung müssen dann während des gesamten Projektlebenszyklus angepasst werden, um diesen unterschiedlichen Dimensionen gerecht zu werden. Geschäfts-Stakeholder beispielsweise konzentrieren sich hauptsächlich auf den Return on Investment und die betrieblichen Auswirkungen, während ihre technischen Kollegen die Datenqualität, Infrastruktur und Skalierbarkeit genau prüfen werden. Die Vernachlässigung der Bedürfnisse einer der Gruppen kann die erfolgreiche Bereitstellung eines Produkts oder einer Lösung erheblich behindern. Ein früheres Projekt, das die Integration mit einer Produkt-Scanning-Anwendung umfasste, veranschaulicht dies perfekt: Durch die frühzeitige Einbindung der Entwickler der App entdeckte das Projektteam, dass genau die Funktion, die sie bauen wollten, bereits in wenigen Wochen vom Drittanbieter zur Einführung vorgesehen war, was erhebliche Zeit und Ressourcen sparte.
Darüber hinaus ist es unerlässlich, die probabilistische Natur von KI von Anfang an zu kommunizieren. Im Gegensatz zu deterministischer traditioneller Software arbeitet KI mit Wahrscheinlichkeiten, ein Konzept, das für diejenigen, die an solche Unsicherheiten nicht gewöhnt sind, eine Herausforderung darstellen kann. Menschen sind von Natur aus nicht gut im probabilistischen Denken, weshalb eine frühzeitige und klare Kommunikation von größter Bedeutung ist. Wenn Stakeholder unfehlbare, 100% konsistente Ergebnisse erwarten, wird ihr Vertrauen schnell schwinden, wenn die Realität unweigerlich von dieser Vision abweicht. Generative KI bietet ein zeitgemäßes und nachvollziehbares Beispiel: Selbst bei identischen Eingaben sind die Ausgaben selten identisch. Solche Demonstrationen frühzeitig zu nutzen, kann diese grundlegende Eigenschaft effektiv veranschaulichen.
Die Festlegung von Phasenmeilensteinen vom ersten Tag an bietet klare Prüfpunkte für Stakeholder, um den Fortschritt zu bewerten und fundierte Go/No-Go-Entscheidungen zu treffen. Dies fördert nicht nur das Vertrauen, sondern gewährleistet auch eine kontinuierliche Abstimmung der Erwartungen während des gesamten Prozesses. Jeder Meilenstein sollte von einer konsistenten Kommunikationsroutine begleitet werden, sei es durch Berichte, Zusammenfassungs-E-Mails oder kurze Lenkungsausschusssitzungen, die alle über Fortschritt, Risiken und nächste Schritte informieren. Es ist entscheidend zu bedenken, dass Stakeholder schlechte Nachrichten lieber frühzeitig hören, als im Dunkeln gelassen zu werden.
Bei der Berichterstattung über den Fortschritt sollte der Fokus konsequent von rein technischen Metriken weg auf die Demonstration eines greifbaren Geschäftsnutzens verlagert werden. Während technische Metriken wie „Genauigkeit“ unkompliziert erscheinen mögen, hängt ihr wahrer Wert oft vom Kontext ab. Ein zu 60% genaues Modell beispielsweise mag auf dem Papier schlecht erscheinen, aber wenn jeder echte Positive erhebliche Einsparungen für eine Organisation mit minimalen Kosten für Fehlalarme generiert, wird diese 60% plötzlich äußerst attraktiv. Geschäfts-Stakeholder überbetonen oft technische Metriken, weil sie leichter zu verstehen sind, was zu potenziell irreführenden Wahrnehmungen von Erfolg oder Misserfolg führt. In Wirklichkeit ist die Artikulation des Geschäftswerts weitaus aussagekräftiger und zugänglicher. Ein Algorithmus zur Erkennung von Geräteausfällen könnte beispielsweise die Präzision über die Rohgenauigkeit priorisieren, wenn Fehlalarme zu kostspieligen Produktionsstillständen führen, wodurch Einsparungen maximiert werden, indem unnötige Unterbrechungen vermieden und gleichzeitig die wertvollsten Ausfälle erfasst werden.
Ein weiterer entscheidender Kompromiss, der frühzeitig besprochen werden sollte, ist der zwischen Modellgenauigkeit und Interpretierbarkeit. Genauere Modelle sind nicht immer besser interpretierbar; oft sind die Techniken, die die höchste Leistung erbringen, wie komplexe Ensemble-Methoden oder Deep Learning, auch am undurchsichtigsten in der Erklärung ihrer Vorhersagen. Einfachere Modelle hingegen können etwas Genauigkeit für mehr Transparenz opfern. Dies ist weder von Natur aus gut noch schlecht, sondern eine Entscheidung, die mit den Projektzielen übereinstimmen muss. In stark regulierten Sektoren wie Finanzen oder Gesundheitswesen könnte die Interpretierbarkeit marginale Genauigkeitsgewinne überwiegen, während im Marketing ein signifikanter Leistungsschub aufgrund erheblicher Geschäftserträge eine reduzierte Transparenz rechtfertigen könnte. Die Sicherstellung der Zustimmung der Stakeholder zu diesem Gleichgewicht vor der Festlegung eines Weges ist entscheidend.
Schließlich ist das ultimative Ziel jedes KI-Projekts die Bereitstellung, was bedeutet, dass Modelle von Anfang an mit Blick auf die Anwendung in der realen Welt entworfen und entwickelt werden sollten. Ein beeindruckendes Modell, das auf ein Labor beschränkt ist und nicht skaliert, integriert oder gewartet werden kann, ist lediglich ein teurer Proof of Concept ohne nachhaltige Wirkung. Die frühzeitige Berücksichtigung von Bereitstellungsanforderungen – einschließlich Infrastruktur, Datenpipelines, Überwachung und Umschulungsprozessen – stellt sicher, dass die KI-Lösung nutzbar, wartbar und wirkungsvoll ist und den Stakeholdern echten Mehrwert liefert.
Für generative KI-Projekte ist eine offene Diskussion über die Kosten ebenfalls unerlässlich. Während GenAI beeindruckende Genauigkeit liefern kann, sind die Leistungsniveaus, die in verbraucherorientierten Tools zu sehen sind, oft mit erheblichen Kosten verbunden. Dies kann mehrere Aufrufe an große Sprachmodelle (LLMs) innerhalb eines einzigen Workflows, die Implementierung komplexer „Agentic AI“-Architekturen, die mehrstufiges Denken beinhalten, oder die Nutzung teurerer, leistungsfähigerer LLMs umfassen, die die Kosten pro Anfrage drastisch erhöhen. Daher ist die GenAI-Leistung immer ein empfindliches Gleichgewicht aus Qualität, Geschwindigkeit, Skalierbarkeit und Kosten. Geschäftsanwender gehen oft davon aus, dass die Leistung auf Verbraucherebene direkt auf ihre Anwendungsfälle übertragbar ist, ohne zu wissen, dass solche Ergebnisse oft mit Konfigurationen erzielt werden, die für die Produktion im großen Maßstab unerschwinglich teuer sind. Die frühzeitige Festlegung realistischer Erwartungen stellt sicher, dass, wenn Spitzenleistung gewünscht wird, das Unternehmen die damit verbundenen Kosten versteht, oder umgekehrt, eine „gut genug“ Lösung akzeptiert, die Leistung und Erschwinglichkeit unter strengen Budgetbeschränkungen in Einklang bringt.