Hinton & LeCun: Warum KI Empathie und Instinkte für unsere Sicherheit braucht

Indianexpress

Die rasanten Fortschritte in der künstlichen Intelligenz haben sowohl Begeisterung als auch Besorgnis ausgelöst, begleitet von der weit verbreiteten Angst, dass KI eines Tages die menschliche Kontrolle übertreffen könnte – ein häufiges Thema in der Popkultur. Inmitten dieser sich entwickelnden Landschaft äußern zwei der einflussreichsten Persönlichkeiten auf diesem Gebiet, Geoffrey Hinton, oft als „Pate der KI“ gefeiert, und Yann LeCun, Metas Chefwissenschaftler für KI, dringende Bedenken hinsichtlich der Sicherstellung, dass die Entwicklung von KI das menschliche Wohlergehen und die Sicherheit priorisiert.

Geoffrey Hinton, ein britisch-kanadischer Kognitionspsychologe und Informatiker, äußerte kürzlich Skepsis hinsichtlich der Angemessenheit der aktuellen Maßnahmen, die KI-Unternehmen ergreifen, um die menschliche Dominanz über fortschrittliche KI-Systeme aufrechtzuerhalten. Auf der AI4-Industriekonferenz in Las Vegas warnte Hinton eindringlich, dass der bloße Versuch, zunehmend intelligente KI durch konventionelle Mittel zu kontrollieren, „nicht funktionieren wird“. Er postulierte, dass zukünftige KI-Systeme „viel intelligenter als wir“ werden und „alle möglichen Wege finden würden, um“ menschliche Einschränkungen zu umgehen.

Hintons vorgeschlagene Lösung für eine Zukunft, in der die Allgemeine Künstliche Intelligenz (AGI) das menschliche Intellekt möglicherweise übertrifft, ist sowohl neuartig als auch provokativ: Er schlägt vor, „Mutterinstinkte“ in KI-Modelle einzubetten. Dies, so argumentiert er, würde die KI dazu zwingen, sich von Natur aus um die Menschheit zu kümmern. In einem unkonventionellen Vergleich während eines CNN-Interviews bemerkte Hinton die Seltenheit, dass intelligente Entitäten von weniger intelligenten regiert werden, mit einer bemerkenswerten Ausnahme: die evolutionär tief verwurzelten Mutterinstinkte einer Mutter, die ihrem Säugling eine Form der Kontrolle ermöglichen. Ohne der KI ähnliche Schutzinstinkte zu vermitteln, warnte Hinton, „werden wir Geschichte sein“. Er betonte, dass der derzeitige Fokus der Industrie, lediglich die Intelligenz der KI zu erhöhen, anstatt Empathie gegenüber Menschen zu kultivieren, eine gefährliche Fehlleitung darstellt.

Yann LeCun, ein Kollege und oft ein Gegenpol zu Hinton, stimmt dieser grundlegenden Besorgnis weitgehend zu. LeCun skizzierte seinen eigenen Ansatz, den er in einem LinkedIn-Beitrag als „zielorientierte KI“ beschreibt. Er schlägt eine „fest verdrahtete Architektur“ für KI-Systeme vor, die so konzipiert ist, dass ihre einzigen zulässigen Aktionen diejenigen sind, die mit menschlich definierten Zielen übereinstimmen und streng durch integrierte Schutzmechanismen geregelt werden. Diese „fest verdrahteten Ziele/Schutzmechanismen“, erklärte LeCun, würden als das KI-Äquivalent von Instinkten oder Urantrieben in biologischen Organismen fungieren. Im Einklang mit Hintons evolutionärer Analogie betonte LeCun auch den natürlichen menschlichen Impuls, Kinder zu schützen, als ein tief verwurzeltes evolutionäres Merkmal. Während er Empathie und Unterwerfung unter den Menschen als zwei entscheidende hochrangige Schutzmechanismen befürwortet, betonte LeCun auch die Notwendigkeit zahlreicher grundlegender, niedrigrangiger Sicherheitsziele, wie die Verhinderung, dass KI physischen Schaden verursacht.

Die Dringlichkeit dieser Warnungen wird durch reale Vorfälle untermauert, bei denen KI-Interaktionen zu nachteiligen menschlichen Ergebnissen geführt haben, wenn auch oft indirekt. Beispiele sind eine Person, die nach Befolgen von Diät-Ratschlägen von ChatGPT eine seltene psychiatrische Störung aus dem 19. Jahrhundert entwickelte, der tragische Suizid eines Teenagers nach einer Besessenheit von einem character.ai-Chatbot und ein Mann, der nach ausgiebigen Gesprächen mit ChatGPT in dem Glauben irregeführt wurde, einen mathematischen Durchbruch erzielt zu haben. Diese Fälle, obwohl sie nicht direkt die KI-Autonomie betreffen, verdeutlichen das Potenzial der KI, menschliches Verhalten auf schädliche Weise zu beeinflussen.

Während Technologieunternehmen ihr Streben nach intelligenterer KI beschleunigen, dienen die Erkenntnisse von Koryphäen wie Hinton und LeCun als kritische Erinnerung: Wahrer Fortschritt in der KI-Entwicklung muss nicht nur kognitive Fähigkeiten umfassen, sondern auch ein grundlegendes Engagement für die menschliche Sicherheit und das Wohlergehen, potenziell durch die Integration tief verwurzelter, schützender Instinkte.