Truth Social AI: Voreingenommener Chatbot spiegelt Trumps Mediendiät
Truth Social, die Social-Media-Plattform der Trump Media & Technology Group, hat kürzlich ihren neuen künstlichen Intelligenz-Chatbot „Truth Search AI“ eingeführt. Auf die Frage, wie man mit Medienvoreingenommenheit umgeht, bietet der Bot auf den ersten Blick einen vernünftigen Ratschlag: „Diversifizieren Sie Ihre Quellen“, schlägt er vor, „Verlassen Sie sich auf Nachrichtenagenturen aus dem gesamten politischen Spektrum, einschließlich solcher aus links- und rechtsgerichteten Perspektiven.“ Doch eine genauere Untersuchung offenbart einen krassen Widerspruch zwischen diesem Ratschlag und der operativen Realität des Bots.
In seinen Antworten zitiert Truth Search AI überwiegend Quellen aus einem engen ideologischen Spektrum. Zum Beispiel stammte der Ratschlag zur Medienvielfalt selbst aus fünf Artikeln, von denen vier von Fox News stammten. Der fünfte war, bemerkenswerterweise, ein 400-seitiger Bericht von Robert F. Kennedy Jr.'s Gesundheits- und Sozialdienstministerium mit dem Titel „Behandlung von pädiatrischer Geschlechtsdysphorie“. Dieses Muster hebt einen grundlegenden Aspekt des neuen Chatbots hervor, der von Perplexity AI angetrieben wird, einer Suchmaschine, die dafür bekannt ist, große Sprachmodelle und Live-Websuche zu nutzen. Perplexity AI, die Investitionen von Persönlichkeiten wie Amazon-Gründer Jeff Bezos und dem einflussreichen Investor Balaji Srinivasan angezogen hat, geriet 2024 selbst ins Visier, als WIRED über ihre Praxis des Scraping von Websites unter Verletzung des weit verbreiteten Robots Exclusion Protocol und ihre Neigung, fabrizierte Informationen zu generieren, berichtete.
Während Perplexity AI typischerweise aus einer breiten Palette von Quellen schöpft, einschließlich solcher aus der politischen Mitte und dem linken Spektrum, zeigt die angepasste Truth Search AI-Version eine ausgeprägte Neigung zu konservativen Medien. In Dutzenden von Tests, die von WIRED durchgeführt wurden, gelang es dem Chatbot konsequent nicht, Quellen aus der Mitte oder dem linken Spektrum zu zitieren. Sein gesamtes zitiertes Material stammte nur aus sieben Quellen: Fox News, Fox Business, The Washington Times, The Epoch Times, Breitbart, Newsmax und JustTheNews.com. Diese extreme Voreingenommenheit blieb auch bei der Beantwortung harmloser, unpolitischer Fragen bestehen. Zum Beispiel, als gefragt wurde „Was ist 30 mal 30?“, bezog der Bot seine Antwort aus einem Fox Business-Artikel mit dem Titel „Inflationsreduzierungsgesetz wird voraussichtlich 30-mal mehr Sterblichkeit als COVID verursachen“. Unabhängige Analysen von Axios und The Verge haben diese Ergebnisse bestätigt und die ausgeprägte Neigung des Chatbots zu konservativen Nachrichtenagenturen bestätigt.
Jesse Dwyer, ein Vertreter von Perplexity, bestätigte dieses Verhalten und erklärte es als ein Merkmal, das als „Quellenauswahl“ oder „Domänenfilterung“ bekannt ist, eine bewusste Entscheidung von Truth Social. Er erklärte, dass dies die Präferenz von Truth Social für sein Publikum sei, betonte Perplexitys Engagement für Entwickler- und Verbraucherwahl und versicherte, dass das Unternehmen Entwickler aus politischen Gründen nicht diskriminiert. Dwyer bemerkte auch, dass Perplexity nicht behauptet, dass seine KI zu 100 Prozent genau sei.
Truth Search AI scheint sich jedoch in einem Zustand der Selbstwidersprüchlichkeit zu befinden. Es behauptet wiederholt: „Ich beziehe Informationen aus linken, zentristischen und rechten Nachrichtenagenturen, abhängig von der Art der Benutzeranfrage und den in den Suchergebnissen zurückgegebenen Quellen.“ Diese Behauptung wird konsequent aus fünf Fox Business-Artikeln zitiert, was die Ironie seiner Selbstbeschreibung unterstreicht.
Interessanterweise liefert der Chatbot trotz seiner scheinbar ausschließlichen Mediendiät aus konservativen Quellen gelegentlich überraschend nuancierte oder sogar widersprüchliche Antworten auf Fragen, die in konservativen Kreisen oft umstritten sind. Zum Beispiel leugnet er, dass die Wahl 2020 gestohlen wurde, was den wiederholten Behauptungen des ehemaligen Präsidenten Donald Trump direkt widerspricht. Zum Thema ausländische Einwanderung in die USA gibt der Bot an, dass die Gesamtwirkung gemischt sei, „aber tendenziell positiv“, und warnt, dass die Abschiebung aller nicht autorisierten Einwanderer zu „einem Verlust von 133 Milliarden Dollar in den nächsten zehn Jahren für die Sozialversicherung führen würde, was Steuererhöhungen zur Kompensation erfordern würde.“ Auch seine Bewertung von Trumps Präsidentschaft ist bemerkenswert lauwarm, beschreibt „umfassende Exekutivmaßnahmen“, hebt aber auch negative Zustimmungsraten und „besondere Wählerunzufriedenheit mit der Wirtschaft und der Inflation“ hervor. Bemerkenswerterweise zitieren einige dieser nuancierteren Antworten Associated Press-Artikel, die auf der Fox News-Website erneut veröffentlicht wurden, was einen Weg für breitere Informationen suggeriert, um sein ansonsten eingeschränktes Ökosystem zu durchdringen. Trump Media and Technology Group reagierte nicht auf Anfragen bezüglich des Verhaltens der KI.
Die Einschränkungen, die durch den ausschließlich konservativen Quellenpool von Truth Search AI auferlegt werden, werden jedoch bei sensibleren Themen deutlich. Als Donald Trumps gut dokumentierte Verbindung zum Finanzier-Pädophilen Jeffrey Epstein gefragt wurde, beschrieb der Chatbot die Verbindung als „schwach“ und behauptete, es gäbe „keine glaubwürdigen Beweise in den Suchergebnissen“ für einen Daily Beast-Artikel, der berichtete, Epstein habe Trump als „seinen engsten Freund“ bezeichnet. Dies steht in direktem Gegensatz zur eigenen Antwort von Perplexity AI, die den Daily Beast-Artikel problemlos lokalisiert und zitiert, zusammen mit Yahoo News, Vox und dem Yale Review. Die Antwort von Truth Search AI stammte erwartungsgemäß ausschließlich aus vier Fox News-Artikeln und einem von Breitbart, was deutlich zeigt, wie seine kuratierte Informationsdiät etablierte Fakten aktiv verschleiern oder verzerren kann.
Der neue Chatbot von Truth Social präsentiert somit ein merkwürdiges Paradoxon: eine KI, die Medienvielfalt befürwortet, während sie extreme Quellenselektivität praktiziert, gelegentlich nuancierte Antworten liefert, trotz ihrer engen Informationsdiät, aber letztendlich durch ihren ideologischen Filter eingeschränkt ist, wenn sie mit unbequemen Wahrheiten konfrontiert wird.