KI-Fälschungen auf Amazon: Expertenidentitäten missbraucht
Ein beunruhigender neuer Trend ist auf Amazon aufgetaucht: Dutzende gefälschte Kochbücher und Gesundheitsratgeber werden unter dem bekannten Namen und Bild von Dr. Eric Topol, einem renommierten Arzt und Wissenschaftler, verkauft. Dr. Topol hat diese Angebote öffentlich als „reinen Betrug“ verurteilt und erklärt, dass diese Bücher vollständig ohne seine Zustimmung hergestellt und veröffentlicht wurden. Seine wiederholten Versuche, die betrügerischen ISBNs an Amazon zu melden, haben Berichten zufolge keine konkreten Ergebnisse erbracht, wobei der Kundendienst des E-Commerce-Riesen nur mit generischen Links antwortete.
Die Auswirkungen dieser Täuschung sind für die Verbraucher bereits spürbar. Ein Käufer berichtete, ein Buch gekauft zu haben, zuversichtlich in die Glaubwürdigkeit, die mit Dr. Topols Namen verbunden ist, nur um festzustellen, dass der Inhalt eine tiefe Enttäuschung war. Dieser Vorfall unterstreicht eine wachsende Anfälligkeit für Verbraucher, die sich beim Online-Kauf auf vertrauenswürdige Namen verlassen.
Obwohl das Problem der KI-generierten Falschbücher auf dem riesigen Amazon-Marktplatz nicht völlig neu ist, unterstreicht das schiere Volumen der Titel, die Dr. Topols Identität unrechtmäßig verwenden, das Ausmaß des Problems. Die weite Verbreitung hochentwickelter generativer KI-Tools wie ChatGPT, kombiniert mit der Einfachheit von Self-Publishing-Plattformen, hat einen fruchtbaren Boden für Betrüger geschaffen. Diese Tools ermöglichen es böswilligen Akteuren, den Markt mit Büchern zu überschwemmen, die den Stil, das Branding und die wahrgenommene Autorität bekannter Persönlichkeiten nachahmen, wodurch es für Plattformen immer schwieriger wird, Inhalte effektiv zu kontrollieren.
Amazon hat auf die aufkeimende Krise reagiert, indem es mehrere Richtlinienänderungen vorgenommen hat. Das Unternehmen hat Self-Publisher auf maximal drei Bücher pro Tag beschränkt und verlangt nun von Autoren, jede Verwendung von KI-generiertem Text, Bildern oder Übersetzungen in ihren Einreichungen zu deklarieren. Diese entscheidenden Informationen über die KI-Generierung werden den Kunden jedoch derzeit nicht offengelegt, sodass sie sich der synthetischen Natur des von ihnen gekauften Inhalts nicht bewusst sind. Darüber hinaus hat Amazon die Vorschriften für Zusammenfassungen und Arbeitsbücher verschärft, die häufig erhebliche Teile von Originalwerken plagiieren. Trotz dieser Maßnahmen dient die anhaltende missliche Lage von Dr. Topol als deutliche Erinnerung daran, dass KI-generierte betrügerische Bücher weiterhin Schutzmaßnahmen umgehen und die hart erarbeiteten Reputationen vertrauenswürdiger Experten effektiv kapern.
Diese spezielle Form der digitalen Täuschung ist Teil eines breiteren Spektrums betrügerischer Aktivitäten, die durch KI ermöglicht werden. Generative KI wird zunehmend in großem Maßstab eingesetzt, um Werbeeinnahmen durch betrügerische Mittel zu generieren, einschließlich gefälschter Prominenten-Empfehlungen und hochgradig personalisierter Phishing-Kampagnen. Über den kommerziellen Betrug hinaus wird die Technologie auch missbraucht, um emotional aufgeladene synthetische Bilder oder Texte zu politisch kontroversen Themen zu erstellen und ganze Mediennarrative zu fabrizieren, was zu einer breiteren Landschaft von Fehlinformationen und Misstrauen beiträgt. Der Fall der gekaperten Identität von Dr. Topol auf Amazon ist ein klares Beispiel dafür, wie sich schnell entwickelnde KI-Fähigkeiten die grundlegenden Prinzipien des geistigen Eigentums, des Verbrauchervertrauens und der Plattformverantwortung im digitalen Zeitalter herausfordern.