KI-Bots simulieren Social Media: Polarisierung ist unvermeidlich
Soziale Medienplattformen werden seit langem als fruchtbarer Boden für Desinformation und extreme Polarisierung kritisiert, wobei sie sich oft zu Echokammern entwickeln, die Engagement über gesunde Diskussionen stellen. Trotz Versprechungen, einen „digitalen Marktplatz“ zu fördern, wo vielfältige Ansichten koexistieren können, scheinen diese Plattformen häufig Empörung zu verstärken und Nutzer in Zyklen spaltender Inhalte zu fangen. Ein kürzlich durchgeführtes und ernüchterndes Experiment von Forschern der Universität Amsterdam deutet darauf hin, dass diese Entwicklung schwer, wenn nicht unmöglich, zu ändern ist.
Petter Törnberg, Assistenzprofessor für KI und soziale Medien, und Forschungsassistent Maik Larooij begaben sich auf eine einzigartige Simulation: Sie schufen ein komplettes soziales Netzwerk, das ausschließlich von KI-Chatbots bevölkert wurde, angetrieben vom fortschrittlichen GPT-4o Large Language Model von OpenAI. Ihr Ziel, detailliert in einer Studie, die noch nicht peer-reviewed wurde, war es zu untersuchen, ob spezifische Interventionen verhindern könnten, dass sich eine solche Plattform zu einem polarisierten Umfeld entwickelt.
Ihre Methodik umfasste das Testen von sechs verschiedenen Interventionsstrategien, darunter die Implementierung chronologischer Newsfeeds, die gezielte Förderung unterschiedlicher Standpunkte, das Verbergen sozialer Metriken wie Follower-Zahlen und das Entfernen von Kontobiografien. Die Hoffnung war, dass eine oder mehrere dieser Anpassungen die Bildung von Echokammern mindern und die Verbreitung extremer Inhalte eindämmen würden.
Zu ihrer beträchtlichen Enttäuschung erwies sich keine der Interventionen als zufriedenstellend wirksam, nur wenige zeigten bescheidene Auswirkungen. Noch besorgniserregender ist, dass einige Strategien Berichten zufolge genau die Probleme verschärften, die sie mindern sollten. Während beispielsweise die chronologische Anordnung des Newsfeeds die Ungleichheit der Aufmerksamkeit reduzierte – was bedeutete, dass mehr Beiträge eine gewisse Sichtbarkeit erhielten – brachte sie unbeabsichtigt extremere Inhalte an die Spitze der Feeds der Nutzer.
Dieses Ergebnis steht in starkem Kontrast zur idealistischen Vision harmonischer Online-Communities, die oft von Plattformbetreibern vertreten wird. Es deutet darauf hin, dass soziale Medienplattformen, mit oder ohne externe Interventionen, von Natur aus dazu prädisponiert sein könnten, sich zu stark polarisierten Umgebungen zu entwickeln, die extremistisches Denken fördern.
Törnberg stellte fest, dass das Problem über das bloße Auslösen von Inhalten hinausgeht. Toxische Inhalte, erklärte er, prägen aktiv die Netzwerkstrukturen, die sich innerhalb dieser Plattformen bilden, wodurch eine Rückkopplungsschleife entsteht, in der die Inhalte, die Nutzer sehen, ständig durch das Netzwerk selbst verstärkt werden. Diese Dynamik führt zu einer „extremen Ungleichheit der Aufmerksamkeit“, bei der eine winzige Minderheit von Beiträgen die überwiegende Mehrheit der Sichtbarkeit erhält, was bestehende Vorurteile weiter festigt.
Das Aufkommen generativer KI verspricht, diese Effekte zu intensivieren. Törnberg warnt, dass eine wachsende Zahl von Akteuren bereits KI nutzt, um Inhalte zu produzieren, die darauf ausgelegt sind, maximale Aufmerksamkeit zu erzielen, oft in Form von Fehlinformationen oder stark polarisierten Narrativen, angetrieben durch die Monetarisierungsmodelle von Plattformen wie X. Da KI-Modelle immer ausgefeilter werden, drohen solche Inhalte die digitale Landschaft zu überfluten. Törnberg äußerte offen seine Zweifel, dass konventionelle Social-Media-Modelle, wie sie derzeit existieren, dieser bevorstehenden Flut standhalten können.