KIs drohende Krise: Journalismus zerfällt, Wahrheit wackelt

Fastcompany

Künstliche Intelligenz assimiliert schnell riesige Mengen journalistischer Inhalte, ähnlich wie Menschen: um ein umfassendes Weltverständnis aufzubauen, kritisches Denken zu kultivieren, Wahrheit von Falschheit zu unterscheiden, Schreibfähigkeiten zu verfeinern und Geschichte und Kontext in zugängliche Formen zu verdichten. Doch eine kritische Frage drängt sich auf: Was wird aus der KI, wenn die journalistischen Institutionen, auf die sie sich verlässt, zu schwächeln beginnen? Auf welchem Fundament verifizierter Wahrheit wird die KI komplexe Fragen beantworten, Mitteilungen entwerfen oder bei komplizierten Aufgaben helfen, wenn dieses Fundament zerfällt? Obwohl die Alarmglocken für den Journalismus seit Jahrzehnten läuten, signalisiert die tiefgreifende Veränderung in der Art und Weise, wie wir Informationen entdecken – oft als “Ende der Suche” bezeichnet – nun einen potenziell tödlichen Schlag. Diese sich entwickelnde Landschaft stellt eine erhebliche Herausforderung für die KI und für die Menschheit dar, während wir versuchen, eine zunehmend verworrene Welt zu navigieren.

In unserer Eile, generative KI in fast jeden Aspekt unseres Lebens zu integrieren, haben wir eine grundlegende Prämisse weitgehend übersehen: KI kann ohne eine zuverlässige Basis verifizierter Fakten nicht effektiv funktionieren. Derzeit wird dieses essentielle faktische Fundament akribisch von dem aufgebaut und gepflegt, was oft als “traditioneller” Journalismus bezeichnet wird – jene Art, die auf strenger Faktenprüfung und redaktioneller Aufsicht basiert. Während die KI weiterhin etablierte Paradigmen der Informationsfindung, Medienmonetarisierung und des Nachrichtenkonsumverhaltens stört, untergräbt sie unbeabsichtigt genau die Industrie, die sie mit den verifizierten Fakten versorgt, von denen sie so kritisch abhängt. So wie eine demokratische Gesellschaft ohne objektiven Journalismus zu kämpfen hat, so auch die künstliche Intelligenz.

Jüngste Forschung von Apple unterstreicht diese Anfälligkeit und stellt fest, dass “es nicht viel braucht, um generative KI in einen ‘völligen Genauigkeitskollaps’ zu stürzen.” Die Studie weist ferner darauf hin, dass generativen KI-Modellen häufig robuste logische Denkfähigkeiten fehlen, und sie oft über einen bestimmten Komplexitätsschwellenwert hinaus nicht effektiv operieren können. Man könnte zum Beispiel einen detaillierten analytischen Beitrag betrachten, wie Andrew Marantz’ Untersuchung der Autokratie in The New Yorker, die disparate historische Fäden meisterhaft miteinander verknüpft, um zeitgenössische Ereignisse zu beleuchten. Es ist schwer vorstellbar, dass KI eine solch nuancierte Einsicht replizieren könnte; sie würde möglicherweise kurzschließen, bevor sie die prägnanten, wirkungsvollen Punkte destillieren könnte, die eine solch tiefgreifende menschliche Analyse ausmachen. Wenn die KI zu tief “denken” soll, hat sie eine Neigung zum Zusammenbruch gezeigt.

Noch besorgniserregendere Ergebnisse gehen aus einem BBC-Bericht hervor, der zu dem Schluss kam, dass KI Schwierigkeiten hat, Nachrichteninhalte genau zusammenzufassen. In einem Experiment wurden ChatGPT, Copilot, Gemini und Perplexity beauftragt, 100 Nachrichtenartikel zusammenzufassen, wobei Expertenjournalisten anschließend jede Ausgabe bewerteten. Der Bericht enthüllte, dass die Chatbots nicht nur offensichtliche sachliche Ungenauigkeiten enthielten, sondern häufig auch “Schwierigkeiten hatten, zwischen Meinung und Tatsache zu unterscheiden, redaktionelle Bearbeitungen vornahmen und oft wesentlichen Kontext nicht einbezogen”. Alarmierend ist, dass fast ein Fünftel – ganze 19 % – dieser Zusammenfassungen falsche Fakten oder verzerrte Zitate enthielten.

Weitere Studien bestätigen diese systemischen Probleme. Forschung von MIT Sloan hat die Tendenz von KI-Tools hervorgehoben, Zitate zu fabrizieren und bestehende Geschlechter- und Rassenverzerrungen zu verstärken. Gleichzeitig deutet eine Analyse in Fast Company darauf hin, dass der oft akzeptierte “gut genug”-Standard für KI-gesteuerten Journalismus hauptsächlich aufgrund der Einnahmen toleriert wird, die diese Tools generieren.

Dies bringt uns zum weniger altruistischen Grund für den Konsum journalistischer Inhalte durch KI: dem finanziellen Gewinn. Entscheidend ist, dass keiner der von der KI generierten beträchtlichen Einnahmen derzeit in die journalistischen Institutionen reinvestiert wird, die dieses gesamte technologische Experiment untermauern. Was wird dann aus unserer Gesellschaft, wenn der Kernpfeiler einer freien und genauen Presse unter dem Gewicht einer Technologie zusammenbricht, die sie unwissentlich konsumiert und untergraben hat? Diejenigen, die die Entwicklung der KI leiten, müssen den intrinsischen Wert faktengeprüfter Berichterstattung mehr denn je erkennen und aktiv unterstützen, um deren Fortbestand und damit die Zuverlässigkeit der KI selbst zu gewährleisten.