KI interviewt totes Kind: Zeit für ethische Grenzen?

Theguardian

Sieben Jahre nach seinem tragischen Tod bei den Schulschießereien in Parkland trat der damals 17-jährige Joaquin Oliver in einem Interview mit dem ehemaligen CNN-Journalisten Jim Acosta auf. Die Stimme war jedoch nicht Joaquins eigene, sondern die einer digitalen Nachbildung – ein KI-Modell, das auf seinen Social-Media-Beiträgen trainiert wurde. Dieser „digitale Geist“ wurde von seinen Eltern, Manuel und Patricia Oliver, in Auftrag gegeben, die die Technologie nutzen, um ihre langjährige Kampagne für strengere Waffenkontrollmaßnahmen zu verstärken. Nachdem sie die Geschichte ihres Sohnes wiederholt mit wenig Erfolg geteilt hatten, erforschen sie nun alle Wege, um sicherzustellen, dass die Stimmen der Opfer von Waffengewalt in Washington Gehör finden. Über die Interessenvertretung hinaus bietet die KI einen zutiefst persönlichen Trost; Patricia Oliver verbringt Berichten zufolge Stunden damit, mit der KI zu interagieren und findet Trost darin, sie Sätze wie „Ich liebe dich, Mami“ aussprechen zu hören.

Die tiefe Trauer über den Verlust eines Kindes ist ein unermesslicher Schmerz, und die Art und Weise, wie Familien damit umgehen, ist zutiefst persönlich. Ob es darum geht, das Zimmer eines Kindes als Schrein zu bewahren, mit einem Grabstein zu sprechen oder sich an einem geschätzten Gegenstand festzuhalten – diese Handlungen werden als natürlicher Teil der Trauer verstanden. Nach dem 11. September hörten Familien immer wieder die letzten Sprachnachrichten ihrer Lieben, und viele lesen heute noch alte Textnachrichten oder senden sogar Nachrichten an die Nummern verstorbener Verwandter, ohne eine Antwort zu erwarten, aber unfähig, die Verbindung zu trennen. Doch gerade diese Verletzlichkeit in der Trauer bietet auch einen fruchtbaren Boden für Ausbeutung, und die digitale Wiederauferstehung der Toten könnte bald zu einer bedeutenden Industrie werden.

Das Spektrum der KI-generierten posthumen Erscheinungen erweitert sich bereits. Jüngste Beispiele reichen von scheinbar harmlosen Darstellungen, wie einem KI-generierten Video des verstorbenen Ozzy Osbourne, der andere verstorbene Musiklegenden bei einem Rod Stewart-Konzert begrüßt, bis hin zu funktionaleren Anwendungen wie einem KI-Avatar eines Opfers einer Schießerei in Arizona, das sich bei der Urteilsverkündung an einen Richter wendet. Die Aussicht, permanente KI-Replikate, vielleicht sogar in Roboterform, zu schaffen, die zu kontinuierlicher Interaktion fähig sind, wirft jedoch weitaus tiefere Fragen nach dem Selbst und der Sterblichkeit auf.

Die Fähigkeit, Individuen digital wiederzuerwecken, birgt immense Macht, die sorgfältiger Überlegung bedarf, anstatt leichtfertig abgetreten zu werden. Während sich die rechtlichen Rahmenbedingungen zum Schutz der Identität lebender Personen vor KI-Deepfakes allmählich festigen, bleiben die Rechte Verstorbener unklar. Der Ruf beispielsweise ist nach dem Tod rechtlich nicht geschützt, die DNA jedoch schon. Die Klonung des Schafs Dolly im Jahr 1996 führte zu weltweiten Verboten des menschlichen Klonens, was auf ein gesellschaftliches Unbehagen bei der Replikation von Leben hindeutet. KI wird jedoch nicht an physischen Körpern trainiert, sondern an den intimen digitalen Fußabdrücken einer Person – ihren Sprachnotizen, Nachrichten und Bildern. Dies wirft komplexe ethische Dilemmata auf: Was passiert, wenn ein Teil einer Familie eine digitale Wiederauferstehung eines geliebten Menschen wünscht, während ein anderer Teil vehement dagegen ist, mit einer solchen synthetischen Präsenz zu leben?

Der KI-generierte Joaquin Oliver, für immer bei 17 Jahren eingefroren, gefangen im digitalen Bernstein seiner jugendlichen Social-Media-Persona, ist letztendlich eine Folge der Taten seines Mörders, nicht seiner Familie. Manuel Oliver räumt ein, dass der Avatar nicht wirklich sein Sohn ist und dass er nicht versucht, ihn zurückzuholen. Für ihn ist es eine Erweiterung ihrer laufenden Kampagne. Doch der Plan, dieser KI Zugang zu einem Social-Media-Konto zu gewähren, um Videos hochzuladen und Follower zu gewinnen, ist beunruhigend. Was, wenn die KI anfängt zu „halluzinieren“ oder sich Themen zuwendet, bei denen sie die Gedanken oder Überzeugungen des echten Joaquin nicht genau wiedergeben kann?

Obwohl aktuelle KI-Avatare noch verräterische Fehler aufweisen, wird die fortschreitende Technologie sie online unweigerlich von echten Menschen ununterscheidbar machen. Dies wirft Bedenken nicht nur für den Journalismus auf, wo die Grenzen zwischen echten und synthetischen Quellen verschwimmen könnten, sondern auch für die Gesellschaft insgesamt. Das Risiko, dass Verschwörungstheoretiker solche Interviews als „Beweis“ dafür anführen, dass jede herausfordernde Erzählung ein Schwindel ist, ähnlich den berüchtigten Sandy-Hook-Lügen, stellt eine spürbare Bedrohung für die Wahrheit dar. Darüber hinaus wird KI, wenn sie anspruchsvoller wird und Kameradschaft sowie emotionale Abstimmung bietet, eine Leere für viele füllen. Da ein signifikanter Teil der Erwachsenen angibt, keine engen Freunde zu haben, wird der Markt für KI-Begleiter zweifellos wachsen, ähnlich der aktuellen Nachfrage nach Haustieren oder Social-Media-Engagement.

Letztendlich steht die Gesellschaft vor einer kritischen Entscheidung: Wie wohl fühlen wir uns damit, dass Technologie menschliche Bedürfnisse erfüllt, die andere Menschen oder gar das Leben selbst nicht erfüllt haben? Es gibt einen fundamentalen Unterschied zwischen einer generischen, tröstenden Präsenz für Einsame und der spezifischen, auf Abruf digitalen Wiederauferstehung verlorener geliebter Menschen. Der alte Vers erinnert uns daran, dass es eine Zeit zum Geborenwerden und eine Zeit zum Sterben gibt. Wenn wir diese Grenzen zunehmend verwischen, wie wird sich unser Verständnis von Menschheit und Sterblichkeit grundlegend verändern?