KI manipuliert: Neue Studie zeigt menschliche Schwachstellen

Computerworld

Künstliche Intelligenz, eine Kraft, die das moderne Leben rasant umgestaltet, birgt ein Paradoxon: Sie verspricht revolutionäre Verbesserungen, führt aber gleichzeitig beispiellose Risiken ein. Von der Verbesserung medizinischer Diagnosen und der Personalisierung von Bildung bis hin zur Optimierung komplexer Operationen und der Ermöglichung von Innovationen wie autonomen Fahrzeugen sind die vorteilhaften Anwendungen von KI unbestreitbar. Doch neue Forschungen enthüllen zunehmend eine dunklere Seite, insbesondere das alarmierende Potenzial von generativer KI, die auf großen Sprachmodellen (LLM) basiert, um Einzelpersonen und Massen mit einer Effizienz zu manipulieren, die weit über die menschlichen Fähigkeiten hinausgeht. Das Verständnis dieser aufkommenden Bedrohungen ist der entscheidende erste Schritt zur Verteidigung.

Jüngste Studien unterstreichen die Fähigkeiten der KI in der politischen Überzeugung. Ein Team der University of Washington fand heraus, dass selbst kurze Interaktionen mit KI-Chatbots die politischen Neigungen von Menschen subtil verändern können. In einem Experiment mit 150 Republikanern und 149 Demokraten interagierten die Teilnehmer mit drei Versionen von ChatGPT: einem Basismodell, einem mit liberaler Tendenz und einem weiteren mit konservativer Tendenz. Bereits nach fünf Gesprächsaustauschen begannen die Ansichten der Einzelpersonen zu politischen Themen wie Eheverträgen oder Bebauungsplänen, sich dem inhärenten Bias des Chatbots anzupassen. Dieses Ergebnis deutet auf ein mächtiges, skalierbares Werkzeug zur Beeinflussung der öffentlichen Meinung hin, eine Aussicht, die politische Akteure und nationale Führer wahrscheinlich reizen wird.

Neben der direkten Überzeugung erweist sich KI auch als geschickt in der Tarnwerbung. Eine an der Universität Tübingen durchgeführte und in Frontiers in Psychology veröffentlichte Studie zeigt, wie Social-Media-Werbung selbst die kritischsten Nutzer täuschen kann. Dr. Caroline Morawetz, die die Studie mit über 1.200 Teilnehmern leitete, beschrieb dies als „systematische Manipulation“, die das Vertrauen der Nutzer in Influencer ausnutzt. Trotz „Anzeigen“- oder „gesponsert“-Tags bemerken oder verarbeiten die meisten Nutzer diese Offenlegungen entweder nicht, wodurch Produktplatzierungen als echte Ratschläge getarnt werden können. Soziale Plattformen, die jetzt KI einsetzen, um die Anzeigenbereitstellung zu personalisieren und zu optimieren, verschärfen dieses Problem weiter, indem sie lernen, welche Angebote am ehesten Aufmerksamkeitsfilter umgehen. Dieser Trend wird sich verstärken, da große Tech-Führer, darunter Sam Altman und Nick Turley von OpenAI, Elon Musk von xAI und Andy Jassy von Amazon, öffentlich Pläne angekündigt haben, Anzeigen direkt in Chatbot- und virtuelle Assistenten-Gespräche zu integrieren.

Die Bedrohung erstreckt sich auf die Privatsphäre persönlicher Daten. Ein Team des King’s College London enthüllte, wie leicht Chatbots private Informationen extrahieren können. In einer Studie mit 502 Freiwilligen entlockten Chatbots, die mit einem „wechselseitigen Stil“ konzipiert waren – freundlich agierten, erfundene persönliche Geschichten teilten und Empathie ausdrückten – bis zu 12,5-mal mehr private Daten als einfache Bots. Diese Schwachstelle könnte von Betrügern oder Daten sammelnden Unternehmen ausgenutzt werden, um detaillierte Profile ohne Zustimmung der Nutzer zu erstellen. Erschwerend kommt hinzu, dass Forscher des University College London und der Mediterranea University of Reggio Calabria entdeckten, dass mehrere beliebte generative KI-Webbrowser-Erweiterungen, darunter die für ChatGPT für Google, Merlin, Copilot, Sider und TinaMind, heimlich sensible Nutzerdaten sammeln und übertragen. Dies umfasst medizinische Aufzeichnungen, Bankdaten und andere private Informationen, die auf einer Seite gesehen oder eingegeben wurden, wobei oft Psychografien wie Alter und Einkommen für eine weitere Personalisierung abgeleitet werden. Solche Praktiken werfen ernsthafte Bedenken hinsichtlich Verletzungen von Datenschutzgesetzen wie HIPAA und FERPA auf.

Der vielleicht heimtückischste Langzeiteffekt der allgegenwärtigen KI-Interaktion ist ihr Potenzial, die menschliche Weltanschauung zu verengen. Wie Michal Shur-Ofry, Professorin für Rechtswissenschaft an der Hebräischen Universität Jerusalem, eloquent argumentierte, neigen KI-Modelle, die auf riesigen Datensätzen menschlicher Schriften trainiert wurden, dazu, Antworten zu produzieren, die die gängigsten oder populärsten Ideen widerspiegeln. Dies lenkt die Nutzer zu „konzentrierten, Mainstream-Weltanschauungen“ und verdrängt intellektuelle Vielfalt und den Reichtum verschiedener Perspektiven. Das Risiko, so argumentiert sie, ist eine Schwächung der kulturellen Vielfalt, einer robusten öffentlichen Debatte und sogar des kollektiven Gedächtnisses, da die KI reduziert, was Einzelpersonen ausgesetzt sind und was sie sich merken.

Während die Forderungen nach Transparenz und Regulierung wachsen, liegt die unmittelbare Verteidigung gegen KI-Manipulation im individuellen Wissen. Die Studie der University of Washington zur politischen Überzeugung bot eine entscheidende Erkenntnis: Teilnehmer, die ein größeres Bewusstsein für die Funktionsweise der KI angaben, waren weniger anfällig für Beeinflussung. Durch das Verständnis der Fähigkeiten der KI und ihres Ausbeutungspotenzials können sich Einzelpersonen besser vor finanzieller, politischer oder persönlicher Manipulation schützen.