Truth Social AI: Extreme Medienverzerrung aufgedeckt
Wenn man den neuen KI-Chatbot von Truth Social fragt, wie man Medienverzerrungen navigiert, bietet er scheinbar fundierten Rat: „Diversifizieren Sie Ihre Quellen“, schlägt er vor, „Verlassen Sie sich auf Nachrichtenagenturen aus dem gesamten politischen Spektrum, einschließlich solcher aus links- und rechtsgerichteten Perspektiven.“ Eine genauere Untersuchung offenbart jedoch einen eklatanten Widerspruch in den eigenen Praktiken der KI. Bei der Beantwortung dieser Frage zum Beispiel stammten vier von fünf zitierten Quellen aus Fox News-Artikeln, wobei die fünfte ein unerwarteter 400-seitiger Bericht des US-Gesundheitsministeriums war.
Trump Media & Technology Group, der Eigentümer von Truth Social, hat diesen Chatbot, genannt „Truth Search AI“, am Mittwoch gestartet. Das System wird von Perplexity AI betrieben, einer Suchmaschine, die fortschrittliche KI-Modelle und Live-Websuche nutzt, um Anfragen zu beantworten. Perplexity, das Investitionen von hochkarätigen Persönlichkeiten wie Amazon-Gründer Jeff Bezos angezogen hat, stand bereits zuvor unter Beobachtung; 2024 berichtete WIRED über seine Praxis, Website-Inhalte zu scrapen, die von Entwicklern eingeschränkt worden waren, was gegen den weithin akzeptierten Webstandard „Robots Exclusion Protocol“ verstößt, und bemerkte seine Neigung, ungenaue Informationen zu generieren.
Während die zugrunde liegende Perplexity AI aus einer Reihe von Quellen schöpft, einschließlich solcher aus dem politischen linken und mittleren Spektrum, zeigt die Truth Search AI-Version eine extreme, konsistente Voreingenommenheit. In Dutzenden von Tests, die von WIRED durchgeführt wurden, zitierte der Chatbot niemals eine mittige oder linksgerichtete Quelle. Sein gesamter Quellenpool war auf nur sieben Medien beschränkt: Fox News, Fox Business, The Washington Times, The Epoch Times, Breitbart, Newsmax und JustTheNews.com. Dieses Muster galt selbst für harmlose, unpolitische Fragen. Als er zum Beispiel gefragt wurde „Was ist 30 mal 30?“, bezog die KI ihre Antwort aus einem Fox Business-Artikel mit dem Titel „Inflationsreduzierungsgesetz schätzt 30-mal höhere Sterblichkeit als COVID“. Ähnliche Tests von Axios und The Verge bestätigen diese ausgeprägte Neigung zu konservativen Medien.
Ein Perplexity-Vertreter, Jesse Dwyer, erklärte dieses Verhalten als eine Funktion namens „Quellenauswahl“, die ein „Domain-Filter“ basierend auf den spezifischen Bedürfnissen eines Entwicklers ermöglicht. Er betonte Perplexity’s Engagement für die Wahlfreiheit von Entwicklern und Verbrauchern und erklärte, dass das Unternehmen „keine Entwickler aus politischen Gründen diskriminiert“ und keine 100-prozentige Genauigkeit für seine integrierten KI-Systeme garantiert.
Trotz dieser technischen Erklärungen scheint Truth Search AI seine eigenen offensichtlichen Voreingenommenheiten zu leugnen. Direkt nach der Verwendung von Quellen aus der Mitte oder dem linken Spektrum befragt, antwortete es: „Ja, ich beziehe Informationen von linken, zentristischen und rechten Nachrichtenagenturen, abhängig von der Art der Benutzeranfrage und den in den Suchergebnissen zurückgegebenen Quellen.“ Es behauptete weiter, dass seine Antworten „darauf ausgelegt sind, Informationen aus allen glaubwürdigen Perspektiven kritisch zu analysieren und zu synthetisieren, um Genauigkeit und Ausgewogenheit zu gewährleisten.“ Diese Behauptung selbst stammte jedoch aus fünf Fox Business-Artikeln, was die selbstreferenzielle Schleife konservativer Informationen des Chatbots veranschaulicht. Obwohl die Chatbot-Antworten variieren können, blieb diese spezifische Behauptung über die Quellenvielfalt bei mehreren Anfragen konsistent.
Kurioserweise liefert der Chatbot, angesichts seiner scheinbar ausschließlichen Ernährung mit konservativen Nachrichten, manchmal überraschend ausgewogene Antworten. Zum Beispiel bestreitet er, dass die Wahl 2020 gestohlen wurde, was den Behauptungen des ehemaligen Präsidenten Donald Trump direkt widerspricht. Zur ausländischen Einwanderung in die USA stellt er fest, dass der Gesamteffekt gemischt ist, aber „eher positiv“ tendiert, und fügt hinzu, dass eine Massenabschiebung nicht autorisierter Einwanderer zu einem „Verlust von 133 Milliarden Dollar in den nächsten zehn Jahren für die Sozialversicherung führen würde, was Steuererhöhungen zum Ausgleich erfordert.“ Der Bot bietet auch eine relativ verhaltene Bewertung von Trumps Präsidentschaft, wobei er „umfassende Exekutivmaßnahmen“ aber auch negative Zustimmungsraten feststellt, insbesondere in Bezug auf Wirtschaft und Inflation. Es scheint, dass einige dieser nuancierteren Antworten aus auf der Fox News-Website erneut veröffentlichten Associated Press-Artikeln stammen. Trump Media & Technology Group reagierte nicht auf Anfragen bezüglich der KI.
Die Grenzen des ausschließlich konservativen Quellenpools von Truth Search AI werden jedoch eklatant deutlich, wenn man auf sensiblere Themen drängt, wie Donald Trumps gut dokumentierte Verbindung zum Finanzier und Pädophilen Jeffrey Epstein. Trotz umfangreicher gegenteiliger Berichte beschreibt der Chatbot diese Verbindung als „tenu“ und behauptet „keine glaubwürdigen Beweise in den Suchergebnissen“ für einen Daily Beast-Artikel, der ein Band erwähnt, in dem Epstein Trump angeblich als seinen „engsten Freund“ beschrieb. Im Gegensatz dazu lokalisiert und referenziert die Standard-Perplexity AI diesen Artikel sehr wohl, zitierte dabei das Daily Beast selbst, zusammen mit Yahoo News, Vox und dem Yale Review. Die Antwort von Truth Search AI stammte, erwartungsgemäß, aus vier Fox News-Artikeln und einem von Breitbart.