Sam Altman: KI-Fotos und die verschwommene Realität
Sam Altman, eine prominente Figur in der Landschaft der künstlichen Intelligenz, formulierte kürzlich eine Vision für die Zukunft digitaler Inhalte, die sowohl überzeugend als auch, für einige, grundlegend fehlerhaft ist. In einem kürzlichen Interview sprach Altman die zunehmende Herausforderung an, zwischen echten und KI-generierten Inhalten zu unterscheiden, wobei er sich speziell auf ein virales Video von Kaninchen bezog, die scheinbar auf einem Trampolin herumtollten – eine charmante, harmlose Szene, die tatsächlich vollständig von einer KI erstellt wurde. Er deutet an, dass sich unsere Definition von „real“ mit fortschreitender KI-Technologie und deren Durchdringung unseres digitalen Lebens verschieben wird.
Altman zieht eine Parallele zwischen anspruchsvoller KI-Generierung und der allgegenwärtigen Verarbeitung, die in modernen Smartphone-Kameras stattfindet. Er argumentiert, dass selbst ein mit einem iPhone aufgenommenes Foto „größtenteils real, aber ein wenig nicht“ sei, und verweist auf die umfangreichen rechnerischen Anpassungen, die zwischen dem Auftreffen von Licht auf den Kamerasensor und dem endgültigen Bild vorgenommen werden. Dieser Prozess, erklärt er, beinhaltet unzählige algorithmische Entscheidungen bezüglich Kontrast, Schärfe und Farbe, oft unter Kombination von Daten aus mehreren Einzelbildern, um die Szene zu optimieren, Elemente wie Boden und Himmel zu erkennen und sogar Gesichter subtil zu schmeicheln. Altman postuliert, dass, da wir dieses Maß an Manipulation bereitwillig als „real“ akzeptieren, unsere Schwelle für das, was Realität ausmacht, sich weiterentwickeln wird, wenn KI-Inhalte alltäglicher werden.
Dieser Vergleich übersieht jedoch, so oberflächlich ansprechend er auch sein mag, einen entscheidenden Unterschied. Es gibt einen tiefgreifenden Unterschied zwischen einem Bild, das von tatsächlichen Photonen stammt, die auf einen Sensor treffen – selbst wenn es stark verarbeitet wurde – und einem Bild, das vollständig von Grund auf von generativer KI erstellt wurde. Obwohl beide auf einem Spektrum digitaler Manipulation existieren, ist der Graben zwischen ihnen erheblich. Darüber hinaus sind sich viele Verbraucher des Ausmaßes der Verarbeitung, die ihre Telefonkameras durchführen, weitgehend unbewusst, und entscheidend ist, dass diese Verarbeitung typischerweise nicht das Erfinden von Details oder das Hinzufügen von Elementen beinhaltet, die in der ursprünglichen Szene nie vorhanden waren. Obwohl Anomalien wie „Dämonengesicht“-Fehler oder die Verwendung externer generativer KI-Bearbeitungswerkzeuge existieren, bestand die Kernfunktion einer Telefonkamera, basierend auf jahrelangen umfangreichen Tests, nicht darin, nicht existierende Objekte autonom in Fotos einzufügen.
Trotz der problematischen Natur von Altmans Analogie enthält sein breiterer Punkt über unsere sich entwickelnde Wahrnehmung der Realität eine gewisse Wahrheit. Unser Verständnis dessen, was „real“ ist, hat sich im Laufe der Zeit nachweislich verschoben; das Aufkommen von Photoshop beispielsweise veränderte unwiderruflich, wie wir Bilder wahrnehmen. Wir akzeptieren im konventionellen Sinne ein stark inszeniertes und bearbeitetes Magazin-Cover-Foto im Allgemeinen als „real“, auch wenn wir die umfangreiche Manipulation anerkennen. Diese Akklimatisierung an veränderte Realitäten hat sich im KI-Zeitalter bereits beschleunigt und beeinflusst, wie wir Bilder in sozialen Medien, Anzeigen und Produktlisten interpretieren, und dieser Trend wird sich wahrscheinlich fortsetzen.
Doch Altmans Behauptung impliziert, dass wir, wenn sich unsere Definition von „real“ erweitert, alle Inhalte gleichermaßen schätzen werden, ähnlich wie wir Science-Fiction-Filme genießen, obwohl wir wissen, dass sie fiktiv sind. Hier stockt sein Argument. Der Genuss, der aus Inhalten gewonnen wird, wird oft durch deren wahrgenommene Authentizität kalibriert. Das virale Video der Kaninchen auf dem Trampolin beispielsweise verliert einen Großteil seines Charmes und Humors, sobald seine KI-generierte Natur enthüllt wird. Die Prämisse – „schau dir an, was diese echten Kaninchen Lustiges gemacht haben“ – wird vollständig untergraben, wenn die Handlungen der Kaninchen lediglich algorithmische Konstrukte sind. Wenn soziale Medienplattformen mit ähnlich niedlichen, aber vollständig fabrizierten Videos übersättigt werden, ist es sehr wahrscheinlich, dass die Nutzer nicht einfach aufhören, sich um Authentizität zu kümmern und sie weiterhin genießen. Stattdessen ist ein Rückgang des Engagements auf solchen Plattformen ein wahrscheinlicheres Ergebnis, da der grundlegende Reiz echter, geteilter Erfahrungen erodiert.