KI-Studie: Soziale Medien sind strukturell fehlerhaft
Ein Großteil des Versprechens der sozialen Medien – einen gesunden öffentlichen Diskurs zu fördern und Individuen in einem utopischen digitalen Raum zu verbinden – ist stattdessen einer tiefgreifenden Fehlfunktion gewichen. Anstatt Gräben zu überbrücken, kultivieren diese Plattformen häufig isolierende Filterblasen und Echokammern. Eine unverhältnismäßig kleine Anzahl hochkarätiger Nutzer beansprucht den Löwenanteil an Aufmerksamkeit und Einfluss, während Algorithmen, die darauf ausgelegt sind, das Engagement zu maximieren, oft Empörung und Konflikte verstärken. Diese Dynamik, so legen Forscher nahe, sichert die Dominanz der lautesten und extremsten Stimmen und verschärft dadurch die gesellschaftliche Polarisierung.
Trotz zahlreicher vorgeschlagener Interventionen auf Plattformebene zur Minderung dieser Probleme legt ein kürzlich in der Physik-arXiv veröffentlichter Preprint nahe, dass die meisten davon unwirksam dürften. Die Studie stellt die gängige Annahme in Frage, dass die Schuld primär bei den vielgeschmähten Algorithmen, nicht-chronologischen Feeds oder gar einer inhärenten menschlichen Neigung zur Negativität liegt. Stattdessen sind die negativen Ergebnisse, so die Autoren, strukturell in der Architektur der sozialen Medien verankert. Dies impliziert, dass Gesellschaften in endlosen toxischen Rückkopplungsschleifen gefangen sein könnten, es sei denn, es entsteht ein wirklich grundlegendes Neudesign, das diese tief verwurzelten Dynamiken ändern kann.
Petter Törnberg und Maik Larooij von der Universität Amsterdam, die Koautoren der Studie, versuchten, die zugrunde liegenden Mechanismen zu verstehen, die die problematischsten Aspekte der sozialen Medien antreiben: parteiische Echokammern, die Konzentration von Einfluss bei einer kleinen Elite (Aufmerksamkeitsungleichheit) und die Verstärkung spaltender, extremer Stimmen. Sie verwendeten einen neuartigen Ansatz, der die standardmäßige agentenbasierte Modellierung – die simuliert, wie einzelne „Agenten“ innerhalb eines Systems interagieren – mit großen Sprachmodellen (LLMs) kombinierte. Dies ermöglichte es ihnen, KI-Personas zu erstellen, die mit detaillierten Merkmalen aus Wählerbefragungen versehen waren, um komplexes Online-Sozialverhalten zu simulieren. Überraschenderweise, so Törnberg, entstanden diese dysfunktionalen Dynamiken organisch aus ihrem Basismodell, ohne dass bewusste algorithmische Eingaben oder Modellanpassungen erforderlich waren.
Die Forscher testeten anschließend rigoros sechs verschiedene Interventionsstrategien, die häufig von Sozialwissenschaftlern vorgeschlagen werden. Dazu gehörten das Wechseln zu chronologischen oder zufälligen Feeds, das Umkehren von Engagement-Optimierungsalgorithmen zur Unterdrückung von Sensationsinhalten, die Förderung von Meinungsverschiedenheit zur Erweiterung der Nutzerexposition gegenüber gegnerischen politischen Ansichten und die Implementierung von „Brückenalgorithmen“, die darauf abzielen, Inhalte zu fördern, die gegenseitiges Verständnis über emotionale Provokation stellen. Sie untersuchten auch das Verbergen sozialer Statistiken wie Reposts und Follower-Zahlen, um Einfluss-Hinweise zu reduzieren, und das Entfernen von Biografien, um identitätsbasierte Signale zu begrenzen.
Die Ergebnisse erwiesen sich als entmutigend. Während einige Interventionen bescheidene Verbesserungen erzielten, gelang es keiner, die grundlegenden Mechanismen, die für die dysfunktionalen Effekte verantwortlich sind, vollständig zu unterbrechen. In einigen Fällen verschärften Interventionen sogar bestehende Probleme. Zum Beispiel verstärkte die chronologische Sortierung, obwohl sie effektiv zur Reduzierung der Aufmerksamkeitsungleichheit beitrug, gleichzeitig die Verstärkung extremer Inhalte. Ähnlich schwächten Brückenalgorithmen die Verbindung zwischen Parteizugehörigkeit und Engagement und verbesserten die Meinungsverschiedenheit geringfügig, jedoch auf Kosten einer erhöhten Aufmerksamkeitsungleichheit. Die Förderung der Meinungsverschiedenheit hatte überraschenderweise keinerlei signifikante Auswirkungen.
Törnberg erklärt, dass diese weit verbreiteten Probleme aus den Kerndynamiken sozialer Online-Netzwerke resultieren – den ständigen Zyklen des Postens, Repostens und Folgens. Diese Handlungen, oft angetrieben von emotionalen und parteiischen Reaktionen, verbreiten nicht nur toxische Inhalte, sondern formen auch aktiv die entstehenden Netzwerkstrukturen. Dies erzeugt eine sich selbst verstärkende Rückkopplungsschleife: Emotionale Handlungen führen zu polarisierten Netzwerkstrukturen, die wiederum die Art der Inhalte bestimmen, denen Nutzer begegnen, und so zu einer zunehmend toxischen Umgebung führen. Selbst Plattformen wie Bluesky, die traditionelle Algorithmen bewusst meiden, scheinen ähnlichen Dynamiken zu erliegen, was die Studienergebnisse untermauert, dass das Problem strukturell und nicht nur algorithmisch ist.
Diese inhärente Struktur verzerrt auch unsere Wahrnehmung der Realität. Soziale Medien, so Törnberg, wirken wie ein „sozialer Medien-Prisma“, das eine Version der Politik präsentiert, die weitaus toxischer und polarisierter erscheint, als sie ist. Während die tatsächliche Polarisierung geringer sein mag, ist die wahrgenommene Polarisierung signifikant höher, was größtenteils auf die Verstärkung einer winzigen Fraktion von Nutzern durch die Plattform zurückzuführen ist – oft jener, die am empörendsten oder extremsten sind – die dann das Gespräch unverhältnismäßig stark beeinflussen. Diese „Potenzgesetzverteilung“ bedeutet, dass lediglich ein Prozent der Nutzer den gesamten Diskurs dominieren kann, wodurch eine Anreizstruktur entsteht, in der bestimmte Persönlichkeiten gedeihen und nicht nur unsere Sicht auf die Politik, sondern auch, wer politisch mächtig wird, neu gestalten.
Die Implikationen gehen über einzelne Plattformen hinaus. Die Studie legt nahe, dass selbst traditionelle Medien und die breitere Kultur durch die „soziale Medienlogik“ umgestaltet werden. Schlagzeilen sind beispielsweise „clickbaitiger“ geworden, um sich an das anzupassen, was online gut funktioniert. Dieser allgegenwärtige Einfluss bedeutet, dass ein einfacher Verzicht auf soziale Medien keine Lösung ist, da deren Anreizstrukturen weiterhin die Politik transformieren, bestimmte Individuen befähigen und die kulturelle Landschaft grundlegend verändern.
Die Forscher räumen ein, dass das aktuelle Modell der sozialen Medien vor einer existenziellen Krise steht, insbesondere mit dem Aufkommen immer leistungsfähigerer großer Sprachmodelle. Diese LLMs, die in der Lage sind, Informationen massenhaft zu produzieren, die auf Aufmerksamkeit optimiert sind – oft falsche oder stark polarisierte Inhalte –, werden voraussichtlich konventionelle Social-Media-Strukturen überwältigen. Während dies zu einem Rückzug hin zu kuratierten, geschlosseneren Gemeinschaften wie privaten Nachrichtengruppen führen könnte, ist unklar, ob diese Verlagerung letztendlich zu einer gesünderen digitalen Umgebung führen wird. Die Studie legt letztlich nahe, dass Gesellschaften, wenn sie einen wirklich konstruktiven öffentlichen Diskurs pflegen wollen, sich von global vernetzten sozialen Netzwerkmodellen hin zu stärker lokalisierten oder gruppenbasierten Strukturen bewegen müssen, die die Fallstricke hoch einflussreicher, zentralisierter Knotenpunkte vermeiden.