KI wird zur Norm: Akzeptieren wir ihre Fehler mehr?
Im Laufe der Geschichte hat die Menschheit radikale Veränderungen durch neue Erfindungen, von der Druckerpresse bis zum Internet, bewältigt. Jede transformative Technologie wurde unweigerlich mit einem gewissen Grad an Skepsis von denjenigen aufgenommen, die ihr Aufkommen miterlebten. Allein in den letzten drei Jahrzehnten hat das Internet tiefgreifend verändert, wie wir Informationen suchen, verarbeiten und vertrauen, und in jüngerer Zeit, wie wir mit künstlicher Intelligenz umgehen.
Anfangs werden neue Technologien und Methoden oft einer intensiven Prüfung unterzogen, wobei ihre Mängel und Fehler härter beurteilt werden als etablierte Praktiken. Diese Bedenken sind nicht unbegründet; wichtige Debatten über Rechenschaftspflicht, Ethik, Transparenz und Fairness beim Einsatz von KI-Systemen gehen weiter. Doch eine tiefere Frage bleibt: Wie viel unserer Abneigung rührt von der Technologie selbst her, und wie viel ist einfach das Unbehagen, vom vertrauten Status quo abzuweichen?
Dieses Phänomen, als „Algorithmus-Aversion“ bezeichnet, beschreibt die Tendenz, einen Algorithmus härter zu beurteilen, wenn er denselben Fehler macht, den ein Mensch machen könnte. Meine Forschung in der kognitiven Psychologie, die ich mit den Kollegen Jonathan A. Fugelsang und Derek J. Koehler durchgeführt habe, untersucht, wie unsere Bewertung von Fehlern durch den Kontext geprägt wird, insbesondere durch das, was wir als Norm wahrnehmen. Obwohl Algorithmen den Menschen in verschiedenen Vorhersage- und Beurteilungsaufgaben konstant überlegen sind, hat ein anhaltendes Misstrauen jahrzehntelang bestanden. Dieser Widerstand reicht bis in die 1950er Jahre zurück, als die Behauptung des Psychologen Paul Meehl, dass einfache statistische Modelle genauere Vorhersagen treffen könnten als ausgebildete Kliniker, mit dem beantwortet wurde, was Daniel Kahneman später als „Feindseligkeit und Unglauben“ beschrieb. Dieser frühe Widerstand hallt in neueren Studien, die Algorithmus-Aversion demonstrieren, weiterhin wider.
Um diese Voreingenommenheit zu untersuchen, haben wir ein Experiment entworfen, bei dem die Teilnehmer Fehler bewerteten, die entweder von einem Menschen oder einem Algorithmus gemacht wurden. Entscheidend war, dass wir ihnen vor der Präsentation des Fehlers mitteilten, welche Option als „konventionell“ galt – historisch dominant, weit verbreitet und typischerweise in diesem Szenario verwendet. In der Hälfte der Versuche wurden Menschen als die traditionelle Norm dargestellt; in der anderen Hälfte wurden Algorithmen als der konventionelle Akteur bezeichnet.
Unsere Ergebnisse zeigten eine signifikante Verschiebung im Urteilsvermögen. Wenn Menschen als die Norm dargestellt wurden, wurden algorithmische Fehler tatsächlich härter beurteilt. Wenn Algorithmen jedoch als die konventionelle Methode dargestellt wurden, wurden die Teilnehmer nachsichtiger gegenüber algorithmischen Fehlern und, überraschenderweise, kritischer gegenüber Menschen, die dieselben Fehler machten. Dies deutet darauf hin, dass die Reaktionen der Menschen weniger mit der intrinsischen Natur von Algorithmen versus Menschen zu tun haben könnten, und mehr damit, ob eine Methode mit ihrem mentalen Modell davon übereinstimmt, wie Dinge „gemacht werden sollen“. Im Wesentlichen zeigen wir größere Toleranz, wenn die Fehlerquelle auch der vorherrschende Status quo ist, und ein härteres Urteil, wenn Fehler von etwas Neuem oder Unkonventionellem stammen.
Es stimmt, dass Erklärungen für die Algorithmus-Aversion oft intuitiv nachvollziehbar sind; ein menschlicher Entscheidungsträger könnte beispielsweise Nuancen des realen Lebens erfassen, die ein algorithmisches System nicht kann. Aber geht es bei dieser Aversion ausschließlich um die nicht-menschlichen Einschränkungen der KI, oder ist ein Teil des Widerstands in dem breiteren Unbehagen beim Übergang von einer etablierten Norm zu einer anderen verwurzelt? Diese Fragen durch die historische Brille der menschlichen Beziehungen zu vergangenen Technologien zu betrachten, zwingt uns, gängige Annahmen darüber zu überdenken, warum Algorithmen oft mit Skepsis und weniger Vergebung begegnet werden.
Anzeichen dieses Übergangs sind bereits allgegenwärtig. Debatten um KI-Ethik und -Rechenschaftspflicht haben beispielsweise ihre weit verbreitete Akzeptanz nicht verlangsamt. Seit Jahrzehnten unterstützt uns die algorithmische Technologie stillschweigend bei der Verkehrsnavigation, der Partnersuche, der Betrugserkennung, der Unterhaltungsempfehlung und sogar bei medizinischen Diagnosen. Während zahlreiche Studien die Algorithmus-Aversion dokumentieren, weisen neuere Forschungen auch auf „Algorithmus-Wertschätzung“ hin, bei der Einzelpersonen algorithmische Ratschläge in verschiedenen Situationen aktiv bevorzugen oder ihnen folgen. Da unsere Abhängigkeit von Algorithmen wächst – insbesondere wenn sie sich als schneller, einfacher oder nachweislich zuverlässiger erweisen –, scheint eine grundlegende Verschiebung in unserer Wahrnehmung dieser Technologien und ihrer unvermeidlichen Fehler unvermeidlich. Diese Entwicklung von der völligen Abneigung zu einer zunehmenden Toleranz deutet darauf hin, dass unser Urteil über Fehler letztendlich weniger davon abhängen könnte, wer sie macht, und mehr davon, woran wir uns gewöhnt haben.