KI-Produktivität: Forschung deckt hohe Kosten & Hürden auf
Das Versprechen der künstlichen Intelligenz, die Produktivität am Arbeitsplatz zu revolutionieren, ist eine dominante Erzählung, die von führenden Technologieunternehmen, Beratungsriesen und sogar Regierungen, die das Wirtschaftswachstum ankurbeln wollen, aktiv gefördert wird. Tatsächlich bereitet sich die australische Bundesregierung darauf vor, einen Runden Tisch zur Wirtschaftsreform zu veranstalten, wobei KI prominent auf der Tagesordnung stehen wird. Doch ein tieferer Blick auf die realen Auswirkungen von KI deutet darauf hin, dass der Weg zu Produktivitätssteigerungen alles andere als klar ist und sich oft als komplex, kostspielig und mit unvorhergesehenen Herausforderungen behaftet erweist.
Laufende Forschungen, die Erkenntnisse von hochrangigen Beamten des öffentlichen Dienstes von Victoria gewinnen, die direkt an der Beschaffung, Nutzung und Verwaltung von KI-Diensten beteiligt sind, offenbaren eine konsistente Reihe von Bedenken. Ihre Erfahrungen zeigen, dass die Integration von KI-Tools in bestehende Arbeitsabläufe erhebliche organisatorische Vorarbeiten erfordert, die sowohl schwierig als auch teuer sind. Darüber hinaus bleibt die Messung des tatsächlichen Nutzens schwer fassbar, während die KI-Einführung oft neue Risiken und Probleme für die Belegschaft mit sich bringt.
Die Implementierung von KI-Tools ist häufig ein langsames und ressourcenintensives Unterfangen. Organisationen stehen vor erheblichen Hürden bei der Bereitstellung der notwendigen Zeit und des Budgets, um geeignete Produkte zu erforschen und Mitarbeiter umzuschulen. Diese finanzielle Barriere betrifft kleinere Einheiten überproportional; während gut finanzierte Organisationen es sich leisten könnten, Pilotprojekte durchzuführen und verschiedene KI-Anwendungen zu testen, kämpfen diejenigen mit begrenzten Ressourcen oft mit den erheblichen Kosten, die mit der Bereitstellung und Wartung von KI-Systemen verbunden sind. Wie ein Teilnehmer es treffend beschrieb, kann der Versuch, anspruchsvolle KI mit einem begrenzten Budget zu implementieren, sich anfühlen „wie einen Ferrari mit einem kleineren Budget zu fahren“, was oft zu Lösungen führt, deren Betrieb unerschwinglich teuer und deren Unterstützung schwierig ist, obwohl sie für kleinere Operationen ungeeignet sind.
Über die Anfangsinvestition hinaus erfordert die wirkliche Nützlichmachung von KI umfangreiche Grundlagenarbeit, insbesondere in Bezug auf Daten. Während handelsübliche KI-Anwendungen wie Copilot oder ChatGPT relativ einfache Aufgaben rationalisieren können – wie das Extrahieren von Informationen aus großen Datensätzen oder das Transkribieren und Zusammenfassen von Besprechungen –, hängen komplexere Anwendungen, wie fortschrittliche Callcenter-Chatbots oder interne Wissensabrufsysteme, vom Training von KI-Modellen mit den internen Daten einer Organisation ab. Die Qualität der Ergebnisse hängt ausschließlich von hochwertigen, gut strukturierten Daten ab, und Organisationen tragen die Haftung für etwaige Fehler. Viele Organisationen haben jedoch noch nicht die notwendigen Investitionen in die Datenqualität getätigt, um sicherzustellen, dass kommerzielle KI-Produkte wie beworben funktionieren. Ohne diese entscheidende Grundlagenarbeit werden KI-Tools ihr Versprechen einfach nicht einlösen, was die Ansicht unterstreicht, dass „Daten die harte Arbeit sind“.
Die Einführung von KI birgt auch erhebliche Datenschutz- und Cybersicherheitsrisiken. KI-Systeme erzeugen komplexe Datenflüsse zwischen einer Organisation und den Servern multinationaler Technologieunternehmen. Während große KI-Anbieter typischerweise die Einhaltung von Datenresidenzgesetzen zusichern und versprechen, Kundendaten nicht für das Modelltraining zu verwenden, äußern Benutzer oft Skepsis hinsichtlich der Zuverlässigkeit dieser Versprechen. Es gibt auch beträchtliche Besorgnis darüber, wie Anbieter neue KI-Funktionalitäten ohne transparente Benachrichtigung einführen könnten, wodurch potenziell neue Datenflüsse entstehen, die wesentliche Risikobewertungen und Compliance-Prüfungen umgehen. Für Organisationen, die sensible Informationen oder Daten handhaben, die bei Leckage Sicherheitsrisiken darstellen könnten, ist eine sorgfältige Überwachung von Anbietern und Produkten von größter Bedeutung, um die Einhaltung bestehender Vorschriften zu gewährleisten. Darüber hinaus riskieren Mitarbeiter, die öffentlich zugängliche KI-Tools wie ChatGPT verwenden, die Vertraulichkeit zu gefährden, da diese Plattformen keine solchen Garantien bieten.
In der Praxis hat KI einige Erfolge bei der Steigerung der Produktivität für „geringqualifizierte“ Aufgaben gezeigt, wie das Notieren während Besprechungen oder der grundlegende Kundenservice, insbesondere für Junior-Mitarbeiter oder diejenigen, die noch Sprachkenntnisse entwickeln. Die Aufrechterhaltung von Qualität und Rechenschaftspflicht erfordert jedoch ausnahmslos eine menschliche Aufsicht über die KI-Ausgaben. Dies schafft ein Paradoxon: Gerade die Mitarbeiter, die am meisten von KI-Tools profitieren würden – diejenigen mit weniger Fähigkeiten und Erfahrung – sind oft am wenigsten dafür ausgestattet, KI-generierte Inhalte effektiv zu überwachen und zu überprüfen. In Umgebungen mit hohen Einsätzen kann der Grad der erforderlichen menschlichen Aufsicht jegliche potenzielle Produktivitätsgewinne vollständig zunichtemachen. Wenn sich Arbeitsplätze hauptsächlich auf die Überwachung eines KI-Systems verlagern, können Mitarbeiter außerdem Entfremdung und eine verminderte Arbeitszufriedenheit erfahren.
Beunruhigenderweise deckte die Forschung auch Fälle auf, in denen KI für fragwürdige Zwecke eingesetzt wird, wobei Mitarbeiter sie möglicherweise nutzen, um Abkürzungen zu nehmen, ohne die Nuancen der organisatorischen Compliance vollständig zu verstehen. Über Datensicherheits- und Datenschutzbedenken hinaus kann der Einsatz von KI zur Informationsüberprüfung und -extraktion ethische Risiken mit sich bringen, einschließlich der Verstärkung bestehender menschlicher Vorurteile. Diese Dynamik kann Organisationen sogar dazu veranlassen, mehr KI für eine verbesserte Überwachung und Kontrolle am Arbeitsplatz einzusetzen, eine Praxis, die eine kürzliche Untersuchung der viktorianischen Regierung als potenziell schädlich für Arbeitnehmer anerkannte.
Letztendlich bleibt die Messung der wahren Auswirkungen von KI auf die Produktivität eine komplexe Herausforderung. Organisationen verlassen sich häufig auf anekdotisches Feedback von einer Handvoll erfahrener KI-Nutzer oder auf kühne Behauptungen von Anbietern, anstatt auf robuste, objektive Metriken. Ein Interviewpartner bemerkte seine Überraschung über die hohen Produktivitätsgewinne, die Microsoft für sein Copilot-Tool berichtete, was auf eine potenzielle Verzerrung in den vom Anbieter gelieferten Daten hindeutet. Während Organisationen möglicherweise von dem Wunsch nach Personalabbau oder erhöhter Durchsatz angetrieben werden, berücksichtigen diese Metriken oft nicht die Änderungen in der Qualität der Dienstleistungen oder Produkte, die an Kunden geliefert werden. Entscheidend ist, dass sie auch die tiefgreifenden Veränderungen in der Arbeitsplatzerfahrung für die verbleibenden Mitarbeiter sowie die erheblichen Kosten übersehen, die hauptsächlich an multinationale Beratungs- und Technologieunternehmen fließen.