KI-generierte Hassvideos überschwemmen das Netz: Sicherheitsbedenken
Was zunächst wie ein unbeschwertes, KI-generiertes Video zur Unterhaltung erscheint, nimmt schnell eine beunruhigende Wendung. Der Clip zeigt einen pelzigen Bigfoot, geschmückt mit einem Cowboyhut und einer mit der amerikanischen Flagge verzierten Weste, hinter dem Steuer eines Pick-up-Trucks. „Wir fahren heute zur LGBT-Parade“, kichert die affenähnliche Figur und fügt hinzu: „Es wird dir gefallen.“ Die Szene eskaliert dann in Gewalt, als Bigfoot durch eine schreiende Menschenmenge fährt, von denen einige Regenbogenflaggen festhalten. Dieses Video, im Juni auf der TikTok-Seite von AmericanBigfoot gepostet, hat über 360.000 Aufrufe und Hunderte zustimmender Kommentare gesammelt, was einen besorgniserregenden Trend signalisiert.
In den letzten Monaten wurden Social-Media-Plattformen mit ähnlichen KI-generierten Inhalten überflutet, die offen Gewalt fördern und Hass gegen LGBTQ+, jüdische, muslimische und andere Minderheitengruppen verbreiten. Während die genauen Ursprünge vieler dieser Videos unklar bleiben, hat ihre Verbreitung online Empörung und tiefe Besorgnis bei Experten und Befürwortern ausgelöst. Sie argumentieren, dass die aktuellen kanadischen Vorschriften leider unzureichend sind, um mit der schnellen Verbreitung von KI-generierten Hass-Inhalten Schritt zu halten und die inhärenten Risiken für die öffentliche Sicherheit nicht zu adressieren.
Helen Kennedy, Geschäftsführerin von Egale Canada, einer LGBTQ±Interessenorganisation, bringt die tiefe Besorgnis der Gemeinschaft hinsichtlich der Zunahme transphober und homophober Fehlinformationen zum Ausdruck. Sie erklärt, dass diese KI-Tools „als Waffen eingesetzt werden, um Trans- und geschlechtsdiverse Personen zu entmenschlichen und zu diskreditieren“, und betont, dass bestehende digitale Sicherheitsgesetze nicht in der Lage sind, das Ausmaß und die Geschwindigkeit dieser neuen Bedrohung zu bewältigen. Kennedy unterstreicht, dass die sich schnell entwickelnde Technologie bösartigen Akteuren ein mächtiges Instrument zur Verbreitung von Fehlinformationen und Hass an die Hand gegeben hat, wobei Transgender-Personen überproportional ins Visier genommen werden. „Von Deepfake-Videos bis zur algorithmusgesteuerten Verstärkung von Hass – die Schäden sind nicht künstlich, sie sind real“, warnt sie.
Die LGBTQ±Gemeinschaft ist laut Evan Balgord, Geschäftsführer des Canadian Anti-Hate Network, nicht das einzige Ziel. Er stellt fest, dass islamophobe, antisemitische und gegen südasiatische Personen gerichtete Inhalte, die mit generativen KI-Tools erstellt wurden, ebenfalls weit verbreitet in den sozialen Medien zirkulieren. Balgord warnt davor, dass die Förderung eines Umfelds, in dem Gewalt gegen diese Gruppen gefeiert wird, reale Gewalt wahrscheinlicher macht. Er weist darauf hin, dass Kanadas digitale Sicherheitsgesetze bereits hinterherhinkten und Fortschritte in der KI das Problem nur noch verschärft haben. „Wir haben überhaupt keine Sicherheitsregeln, wenn es um Social-Media-Unternehmen geht“, behauptet Balgord, „wir haben keinerlei Möglichkeit, sie zur Rechenschaft zu ziehen.“
Versuche, diese Gesetzeslücke zu schließen, sind gescheitert. Andrea Slane, Professorin für Rechtswissenschaften an der Ontario Tech University, die umfassend zu Online-Sicherheit geforscht hat, erklärt, dass Gesetzesentwürfe zur Bekämpfung schädlicher Online-Inhalte und zur Schaffung eines regulativen KI-Rahmens starben, als das Parlament im Januar vertagt wurde. Slane besteht darauf, dass die Regierung dringend die Gesetzgebung zu Online-Schäden überprüfen und den Gesetzentwurf wieder einbringen muss, und plägt für schnelles Handeln.
Justizminister Sean Fraser deutete im Juni an, dass die Bundesregierung das Gesetz über Online-Schäden „neu“ prüfen werde, obwohl eine Entscheidung, ob es neu geschrieben oder einfach wieder eingebracht werden soll, noch aussteht. Der ursprüngliche Gesetzesentwurf zielte darauf ab, Social-Media-Plattformen für die Reduzierung der Exposition gegenüber schädlichen Inhalten zur Rechenschaft zu ziehen. Eine Sprecherin des neu gegründeten Ministeriums für Künstliche Intelligenz und digitale Innovation, Sofia Ouslis, bestätigte, dass die Regierung KI-generierte Hass-Inhalte ernsthaft angeht, insbesondere wenn sie sich an gefährdete Minderheitengruppen richten. Während sie anerkannte, dass bestehende Gesetze „wichtige Schutzmaßnahmen“ bieten, räumte Ouslis ein, dass sie nicht dafür konzipiert wurden, der Bedrohung durch generative KI entgegenzuwirken. Sie fügte hinzu, dass die Regierung von Premierminister Mark Carney sich auch dazu verpflichtet hat, die Verbreitung von nicht einvernehmlichen sexuellen Deepfakes zu kriminalisieren. „Es besteht ein echter Bedarf zu verstehen, wie KI-Tools verwendet und missbraucht werden – und wie wir die Schutzmaßnahmen stärken können“, erklärte Ouslis und stellte fest, dass diese Arbeit im Gange ist und die Überprüfung von Rahmenbedingungen, die Überwachung von Gerichtsentscheidungen und die Konsultation von Experten umfasst. Sie schloss, dass es in diesem sich schnell entwickelnden Bereich vorzuziehen ist, eine korrekte Regulierung zu erreichen, anstatt zu schnell vorzugehen und Fehler zu machen, und nannte die Europäische Union und das Vereinigte Königreich als Modelle.
Obwohl die EU bei der KI-Regulierung und digitalen Sicherheit an vorderster Front steht, bemerkt Slane, dass immer noch das Gefühl besteht, dass mehr getan werden muss. Eine erhebliche Herausforderung bei der Regulierung von Inhalten, die von Social-Media-Giganten verbreitet werden, ergibt sich aus deren internationaler Natur, da die meisten keine kanadischen Unternehmen sind. Das aktuelle politische Klima südlich der Grenze erschwert die Angelegenheit zusätzlich, da US-Tech-Unternehmen weniger Vorschriften unterliegen, was sie „mächtiger und weniger verantwortlich“ macht, bemerkt Slane.
Peter Lewis, Canada Research Chair in Trustworthy Artificial Intelligence und Assistenzprofessor an der Ontario Tech University, hebt einen jüngsten „Durchbruch“ hervor, der die Produktion hochwertiger Videos bemerkenswert einfach und erschwinglich, oft sogar kostenlos, gemacht hat. „Es ist jetzt für fast jeden mit ein bisschen technischem Wissen und Zugang zu den richtigen Tools wirklich zugänglich“, erklärt er. Während große Sprachmodelle wie ChatGPT Schutzmaßnahmen zur Filterung schädlicher Inhalte implementiert haben, betont Lewis die dringende Notwendigkeit ähnlicher Schutzmaßnahmen im Videobereich. Er stellt fest, dass Menschen zwar von solchen Videos entsetzt sein können, KI-Systeme jedoch nicht in der Lage sind, ihre eigenen Kreationen zu reflektieren. Lewis schlägt vor, dass, obwohl bestehende Gesetze einige Rechtsmittel gegen die Online-Verherrlichung von Hass und Gewalt bieten mögen, die schnelle Entwicklung und weit verbreitete Verfügbarkeit generativer KI-Tools neue technologische Lösungen und eine robuste Zusammenarbeit zwischen Regierungen, Verbrauchern, Befürwortern, sozialen Plattformen und KI-App-Entwicklern erforderlich machen. Er plädiert für „wirklich robuste, reaktionsschnelle Melde-Mechanismen“, um solche Inhalte so schnell wie möglich zu entfernen, warnt jedoch, dass KI-Tools, da sie probabilistisch sind, nicht alles erfassen werden.