Deepfake-Detektoren: Kampf gegen wachsende KI-Betrugsgefahr

Theregister

Das jüngste Zusammentreffen von Sicherheitskonferenzen in Las Vegas, darunter BSides, Black Hat und DEF CON, verdeutlichte ein allgegenwärtiges Problem: die eskalierende Bedrohung durch Betrug, die durch Fortschritte in der künstlichen Intelligenz erheblich verstärkt wird. Da die Kosten für KI-Tools sinken und die Deepfake-Technologie immer ausgefeilter wird, erwarten Experten einen Anstieg digitaler Täuschungen. Deloitte prognostiziert beispielsweise, dass Deepfake-Betrug die US-Wirtschaft bis 2027 bis zu 40 Milliarden US-Dollar kosten könnte, eine Schätzung, die viele in der Sicherheitsgemeinschaft für konservativ halten. Dieser alarmierende Trend folgt auf Äußerungen von Branchenführern wie Sam Altman, der kontrovers behauptete, dass KI die meisten herkömmlichen Authentifizierungsmethoden, außer Passwörtern, effektiv umgangen habe.

Trotz eines aufstrebenden Marktes für Deepfake-Erkennungssoftware bleibt die Wirksamkeit dieser Tools ein kritischer Streitpunkt. Karthik Tadinada, der zuvor über ein Jahrzehnt lang Betrug für große britische Banken bei Featurespace überwachte, stellt fest, dass Anti-Deepfake-Technologien typischerweise eine Genauigkeit von etwa 90 Prozent bei der Identifizierung betrügerischer Aktivitäten und der Eliminierung von Fehlalarmen erreichen. Obwohl dies scheinbar hoch ist, bietet dieser Fehlerspielraum von 10 Prozent Kriminellen eine erhebliche Chance, insbesondere da die Kosten für die Generierung gefälschter Identitäten weiter sinken. Wie Tadinada betont: „Die Wirtschaftlichkeit der Leute, die diese Dinge generieren, im Vergleich zu dem, was man erkennen und damit umgehen kann – nun, diese 10 Prozent sind immer noch groß genug für Profit.“

Video-Impersonation, obwohl älter als KI, wurde durch maschinelles Lernen dramatisch verstärkt. Tadinada und sein ehemaliger Featurespace-Kollege Martyn Higson demonstrierten dies, indem sie das Gesicht des britischen Premierministers Keir Starmer nahtlos auf Higsons Körper legten, komplett mit einer überzeugenden Stimmimitation, alles mit nur einem MacBook Pro. Während dieses spezielle Beispiel nicht ausgefeilt genug war, um fortschrittliche Deepfake-Erkennungssysteme zu umgehen – KI-generierte Gesichter weisen oft verräterische Anzeichen wie unnatürlich geschwollene Kinnpartien oder steife Erscheinungen auf –, erwies es sich als mehr als ausreichend für die Verbreitung von Propaganda oder Desinformation. Dies wurde durch einen kürzlichen Vorfall unterstrichen, bei dem der Journalist Chris Cuomo kurzzeitig ein Deepfake-Video der US-Abgeordneten Alexandria Ocasio-Cortez mit kontroversen Aussagen postete und dann zurückzog.

Mike Raggo, Red-Team-Leiter bei der Medienüberwachungsfirma Silent Signals, stimmt zu, dass sich die Qualität von Videofälschungen drastisch verbessert hat. Er weist jedoch auch auf neue Techniken hin, die eine effektivere Erkennung versprechen. Silent Signals entwickelte beispielsweise Fake Image Forensic Examiner v1.1, ein kostenloses Python-basiertes Tool, das in Verbindung mit OpenAI’s GPT-5 eingeführt wurde. Dieses Tool analysiert hochgeladene Videos Bild für Bild und sucht akribisch nach Anzeichen von Manipulationen wie Unschärfen an Objekträndern oder Anomalien in Hintergrundelementen. Entscheidend ist die Untersuchung von Metadaten, da viele Videomanipulationswerkzeuge, ob kommerziell oder Open Source, unbeabsichtigt digitale Spuren im Dateicode hinterlassen, die ein robustes Erkennungssystem identifizieren kann.

Über Videos hinaus sind Bilder vielleicht der besorgniserregendste Vektor für Betrüger, angesichts ihrer einfachen Erstellung und der zunehmenden Abhängigkeit von Unternehmen von ihnen. Tadinadas Erfahrung im Bankwesen verdeutlichte die Anfälligkeit elektronischer Aufzeichnungen, insbesondere während der COVID-19-Pandemie, als persönliche Bankgeschäfte zurückgingen. Die Eröffnung eines Bankkontos im Vereinigten Königreich erfordert beispielsweise typischerweise einen gültigen Ausweis und eine aktuelle Stromrechnung, die Tadinada demonstrierte, dass sie leicht gefälscht werden können und elektronisch schwer zu überprüfen sind. Während Raggo auf der Black Hat einige vielversprechende Deepfake-Erkennungslösungen beobachtete, betonte er, dass jedes effektive Tool die Metadatenanalyse priorisieren muss – die Suche nach fehlenden International Color Consortium (ICC)-Profilen (digitale Signaturen im Zusammenhang mit dem Farbgleichgewicht) oder anbieterspezifischen Metadaten, wie Googles Angewohnheit, „Google Inc“ in Android-Bilddateien einzubetten. Zusätzlich sind die Kantenanalyse, die die Grenzen von Objekten auf Unschärfen oder Helligkeitsinkonsistenzen untersucht, und die Pixelvarianz, die Farbverschiebungen innerhalb von Objekten misst, wichtige Techniken.

Die Erkennung von Stimm-Deepfakes stellt jedoch eine andere Reihe von Herausforderungen dar, und diese stimmlichen Angriffe nehmen zu. Im Mai gab das FBI eine Warnung vor einer Betrugskampagne heraus, die KI-generierte Stimmen von US-Politikern einsetzte, um Personen dazu zu bringen, Zugang zu Regierungssystemen für finanzielle Gewinne zu gewähren. Der Rat des FBI, bemerkenswerterweise nicht-technisch, forderte die Benutzer auf, die Quelle unabhängig zu überprüfen und auf subtile Inkonsistenzen in Wortschatz oder Akzent zu achten, und räumte die wachsende Schwierigkeit ein, KI-generierte Inhalte zu unterscheiden. Ähnlich bot ein einjähriger Wettbewerb, der von der Federal Trade Commission gesponsert wurde, um KI-generierte Stimmen zu erkennen, ein bescheidenes Preisgeld von 35.000 US-Dollar an, was den jungen Stand dieses Erkennungsfeldes widerspiegelt.

Während Stimmklon-Technologien legitime Anwendungen haben, wie Transkription, Medien-Synchronisation und die Verbesserung von Callcenter-Bots – Microsofts Azure AI Speech kann beispielsweise überzeugende Stimmklone aus nur wenigen Sekunden Audio generieren, wenn auch mit unvollkommener Wasserzeichen – sind sie auch ein mächtiges Werkzeug für Betrüger. Eine Studie von Consumer Reports zu sechs Stimmklon-Diensten ergab, dass zwei Drittel wenig Anstrengungen unternahmen, um Missbrauch zu verhindern, oft nur eine einfache Bestätigung des gesetzlichen Rechts zum Klonen einer Stimme per Checkbox erfordernd. Nur ein getestetes Unternehmen, Resemble AI, verlangte einen Echtzeit-Audioclip, obwohl selbst dieser manchmal durch aufgezeichnetes Audio getäuscht werden konnte, wenn auch mit reduzierter Genauigkeit aufgrund von Klangqualitätsproblemen. Viele Stimmklon-Unternehmen, einschließlich Resemble AI, integrieren nun Deepfake-Erkennung in ihre Angebote. Zohaib Ahmed, CEO von Resemble, erklärte, dass ihre umfangreiche Datenbank realer und geklonter Stimmen wertvolle Einblicke liefert, die es ihnen ermöglichen, subtile, vom Menschen nicht erkennbare „Artefakte“ zu identifizieren, die Fälschungen unterscheiden.

Letztendlich gibt es, ähnlich wie bei der traditionellen Cybersicherheit, keine unfehlbare technologische Lösung für die Deepfake-Erkennung. Das menschliche Element bleibt entscheidend. Eric Escobar, Red-Team-Leiter bei Sophos, rät zu „Vorsicht“ und betont, dass „Verifizierung absolut entscheidend ist, insbesondere wenn es um Geld geht“. Er fordert Einzelpersonen auf zu fragen: „Ist das im Charakter?“ und im Zweifelsfall doppelt zu prüfen. Tadinada bekräftigt dies für die Finanzbranche und betont, dass neben dem Deepfake-Scanning auch Finanztransaktionen selbst auf verdächtige Muster überwacht werden müssen, was anderen Betrugserkennungsmethoden entspricht.

Das eskalierende Wettrüsten wird durch Generative Adversarial Networks (GANs) weiter verkompliziert, die zwei konkurrierende KI-Engines einsetzen – einen Generator, der Medien erstellt, und einen Diskriminator, der versucht, hergestellte Inhalte zu identifizieren –, um den Realismus von Deepfakes iterativ zu verbessern. Während aktuelle GANs erkennbare Signaturen in Metadaten hinterlassen können, verspricht die Technologie immer überzeugendere Ergebnisse, was unweigerlich zu erfolgreicheren betrügerischen Unternehmungen führen wird.