KI und Journalismus: Die Krise der Faktenprüfung
Künstliche Intelligenzsysteme integrieren sich rasant in unser tägliches Leben und konsumieren dabei oft riesige Mengen journalistischer Inhalte zu Zwecken, die menschlichen Bestrebungen bemerkenswert ähneln: ein nuanciertes Verständnis der Welt zu entwickeln, kritisches Denken zu verfeinern, Wahrheit von Falschheit zu unterscheiden, Kommunikationsfähigkeiten zu verbessern und Geschichte zu kontextualisieren. Doch eine grundlegende Frage zeichnet sich ab: Was geschieht mit der KI, wenn die journalistischen Institutionen, auf die sie sich stützt, zu zerfallen beginnen? Auf welcher Grundlage verifizierter Wahrheit werden diese Systeme unsere Fragen beantworten, unsere Mitteilungen verfassen oder gar komplexe Aufgaben ausführen? Während der Niedergang des traditionellen Journalismus seit Jahrzehnten ein Anliegen ist, fühlt sich das Aufkommen generativer KI, gepaart mit dem potenziellen „Ende der Suche“, wie wir sie kennen, nun wie eine tiefgreifende existenzielle Bedrohung an. Diese Verschiebung hat kritische Auswirkungen nicht nur auf die Fähigkeiten der KI, sondern auch auf die Fähigkeit der Menschheit, sich in einer zunehmend komplexen Welt zurechtzufinden.
In unserem Bestreben, generative KI in jeden Aspekt der Gesellschaft einzubetten, riskieren wir, eine entscheidende Abhängigkeit zu übersehen: KI kann ohne eine zuverlässige Grundlage verifizierter Fakten nicht effektiv funktionieren. Derzeit wird dieses wesentliche Fundament akribisch von dem aufgebaut und gepflegt, was oft als „traditioneller“ Journalismus bezeichnet wird – eine Branche, die sich durch rigorose Faktenprüfung und redaktionelle Aufsicht auszeichnet. Paradoxerweise untergräbt die KI, selbst wenn sie verspricht, die Suche, die Medienmonetarisierung und die Nachrichtenkonsumgewohnheiten zu revolutionieren, gleichzeitig genau die Branche, die das faktische Fundament liefert, auf das sie angewiesen ist. So wie eine demokratische Gesellschaft ohne objektiven Journalismus nicht gedeihen kann, können es auch fortschrittliche KI-Systeme nicht.
Es häufen sich Beweise für die inhärente Fragilität der KI, wenn sie mit den Nuancen der Wahrheit konfrontiert wird. Jüngste Forschungen von Apple zeigen beispielsweise, dass generative KI leicht einem „vollständigen Genauigkeitskollaps“ erliegen kann. Die Studie deutet darauf hin, dass diesen Modellen häufig eine robuste logische Argumentation fehlt und sie Schwierigkeiten haben, Informationen jenseits eines bestimmten Komplexitätsschwellenwerts effektiv zu verarbeiten. Man könnte sich fragen, wie sich eine solche KI schlagen würde, wenn sie die komplizierte historische Analyse versuchen würde, die in Andrew Marantz’ New Yorker-Artikel zu sehen ist, der Jahrhunderte autokratischer Trends mit der zeitgenössischen amerikanischen Gesellschaft verbindet. Das Risiko besteht darin, dass die KI „kurzschließen“ würde, unfähig, die nuancierten, prägnanten Punkte herauszufiltern, die einem solch tiefgründigen Werk seine Wirkung verleihen.
Ein noch besorgniserregenderer Bericht der BBC bestätigt diese Einschränkungen und offenbart die erheblichen Schwierigkeiten der KI, Nachrichten präzise zusammenzufassen. Als erfahrene Journalisten Zusammenfassungen von 100 Nachrichtenartikeln bewerteten, die von führenden KI-Modellen – ChatGPT, Copilot, Gemini und Perplexity – generiert wurden, waren die Ergebnisse alarmierend. Abgesehen von offensichtlichen sachlichen Ungenauigkeiten hatten die Chatbots „Schwierigkeiten, zwischen Meinung und Tatsache zu unterscheiden, redigierten und versäumten es oft, wesentlichen Kontext einzubeziehen.“ Erschreckenderweise enthielten fast ein Fünftel – erstaunliche 19 % – dieser Zusammenfassungen falsche Fakten oder verzerrte Zitate.
Diese Probleme sind keine Einzelfälle. Eine Studie des MIT Sloan hat die Tendenz von KI-Tools hervorgehoben, Zitate zu fälschen und bestehende Geschlechter- und Rassenvorurteile zu verstärken. Darüber hinaus führt der wirtschaftliche Imperativ, der die Einführung von KI in den Medien vorantreibt, oft zu einer beunruhigenden Akzeptanz von „gut genug“-Standards im KI-gesteuerten Journalismus, wobei die Umsatzgenerierung Vorrang vor der faktischen Integrität hat.
Dies bringt uns zu dem weniger idealistischen, pragmatischeren Grund, warum KI journalistische Inhalte so gierig konsumiert hat: finanzieller Gewinn. Entscheidend ist, dass keiner der beträchtlichen Einnahmen, die durch die Nutzung dieser Inhalte durch KI generiert werden, zurückfließt, um die journalistischen Institutionen zu finanzieren, die dieses ganze Experiment antreiben. Was wird dann aus unserer Gesellschaft, wenn die Kernsäule einer wahren und freien Presse unter dem Gewicht genau der Technologie zusammenbricht, die sie so nachlässig konsumiert hat? Damit KI der Gesellschaft wirklich dienen und ihren Nutzen aufrechterhalten kann, müssen ihre Entwickler dringend den wahren Wert der faktengeprüften Berichterstattung erkennen und darin investieren, um deren Fortbestand zu sichern.