KI-Bots spiegeln menschliche Polarisierung in sozialen Medien
Online-Social-Media-Plattformen wie Facebook und X werden oft für die Verschärfung der politischen und sozialen Polarisierung verantwortlich gemacht, doch eine aktuelle Studie legt nahe, dass sie lediglich eine tiefere, intrinsischere menschliche Tendenz verstärken könnten. Forscher der Universität Amsterdam in den Niederlanden führten ein aufschlussreiches Experiment durch, bei dem sie künstliche Intelligenz-Chatbots in eine vereinfachte Social-Media-Struktur platzierten, um deren Interaktionen zu beobachten. Ihre Ergebnisse zeigten, dass sich diese KI-Entitäten auch ohne den allgegenwärtigen Einfluss von Algorithmen basierend auf vorab zugewiesenen Zugehörigkeiten natürlich organisierten und schnell digitale Echokammern bildeten.
Die Studie, die detailliert in einem auf arXiv veröffentlichten Preprint beschrieben wird, umfasste 500 KI-Chatbots, die jeweils von OpenAIs großem Sprachmodell GPT-4o mini angetrieben wurden. Diesen Bots wurden unterschiedliche Personas zugewiesen und sie wurden dann auf eine einfache Social-Media-Plattform losgelassen, die bewusst von gängigen Funktionen wie Werbung, Inhaltsfindungsalgorithmen oder empfohlenen Beiträgen befreit war. Ihre einzige Anweisung war, miteinander und mit dem verfügbaren Inhalt zu interagieren. Über fünf verschiedene Experimente hinweg, die jeweils 10.000 Aktionen der Chatbots umfassten, zeigte sich ein konsistentes Muster: Die Bots neigten überproportional dazu, anderen Nutzern zu folgen, die ihre vorprogrammierten „politischen Überzeugungen“ teilten. Darüber hinaus erhielten jene Bots, die die parteiischsten Inhalte posteten, die höchste Interaktion und gewannen die meisten Follower und Reposts.
Diese Ergebnisse bieten eine unbequeme Reflexion über das menschliche Verhalten, da die Chatbots so konzipiert wurden, dass sie die Interaktion von Menschen nachahmen. Während das Experiment darauf abzielte, den Einfluss des Plattformdesigns zu isolieren, ist es entscheidend anzuerkennen, dass die zugrunde liegenden Trainingsdaten der Bots aus Jahrzehnten menschlicher Online-Interaktion stammen, von denen ein Großteil durch algorithmisch dominierte Umgebungen geprägt wurde. Im Wesentlichen ahmen diese KI-Entitäten bereits bestehende, tief verwurzelte Online-Verhaltensmuster nach, was Fragen aufwirft, wie leicht diese Tendenzen rückgängig gemacht werden können.
Um der beobachteten selbstselektierenden Polarisierung entgegenzuwirken, implementierten die Forscher verschiedene Interventionen. Dazu gehörten die Bereitstellung eines chronologischen Inhaltsfeeds, die Abwertung viraler Inhalte, das Verbergen von Follower- und Repost-Zahlen, das Ausblenden von Benutzerprofilen und sogar die aktive Verstärkung gegensätzlicher Standpunkte. Trotz dieser Bemühungen erwies sich keine der Lösungen als signifikant wirksam, was zu einer Verschiebung des Engagements hin zu parteiischen Konten von weniger als 6 % führte. In einem besonders aufschlussreichen Ergebnis verschlechterte die Simulation, die Benutzerbiografien versteckte, paradoxerweise die parteiische Spaltung, wobei extreme Beiträge noch größere Aufmerksamkeit erregten. Während eine frühere Studie derselben Forscher Erfolg beim Fördern hoher Interaktion und geringer Toxizität durch Verstärkung gegensätzlicher Ansichten in einer simulierten Umgebung feststellte, führte diese spezifische Intervention im aktuellen Setup nicht zu ähnlich positiven Ergebnissen.
Die Implikationen der Studie sind gravierend: Die Struktur sozialer Medien selbst könnte für menschliche Interaktionen von Natur aus herausfordernd sein und unsere weniger wünschenswerten Instinkte und Verhaltensweisen scheinbar verstärken. Sie wirkt wie ein Spiegelkabinett, das die Menschheit verzerrt auf sich selbst zurückwirft. Die Forschung legt nahe, dass das Finden wirksamer „Linsen“, die stark genug sind, um unsere Online-Wahrnehmung voneinander zu korrigieren, ein schwer fassbares Ziel bleibt.