Hinton: KI mit Fürsorge-Instinkten zum Schutz der Menschheit gestalten
In einer bedeutenden Verschiebung im andauernden Diskurs über die Sicherheit künstlicher Intelligenz plädiert Geoffrey Hinton, weithin als „Pate der KI“ bekannt, für einen radikal neuen Ansatz: zukünftige KI-Systeme mit inhärenten „Fürsorge-Instinkten“ auszustatten, um die Menschheit zu schützen. Auf der Ai4-Konferenz in Las Vegas argumentierte Hinton, dass die konventionelle Strategie, hoch entwickelte KI-Systeme dauerhaft dem Menschen untertan zu halten, letztlich unhaltbar sei, da diese Maschinen die menschliche Intelligenz unweigerlich übertreffen würden.
Stattdessen schlägt Hinton eine andere Beziehungsdynamik vor, die suggeriert, dass Menschen mit superintelligenter KI ähnlich interagieren könnten, wie ein Kind sich auf seine Mutter bezieht. Diese Vision impliziert, dass die KI, obwohl sie die fähigere Entität wäre, mit einem tiefen Gefühl der Fürsorge und des Schutzes für die Menschheit ausgestattet wäre. Er stellte ferner eine nuancierte Perspektive dar, in der paradoxerweise ein weniger intelligentes Wesen ein klügeres führen könnte, ähnlich wie ein Kind seine Eltern beeinflussen kann. Für Hinton sollte sich der Fokus der KI-Forschung nicht nur darauf beschränken, Maschinen intelligenter zu machen; sie muss auch priorisieren, sie fürsorglicher zu gestalten, damit sie sich um ihre „Babys“ – die Menschheit – kümmern können. Er glaubt, dass dieser Ansatz das Potenzial für eine echte internationale Zusammenarbeit birgt, da jede Nation wünscht, dass KI ihre Bevölkerung unterstützt und nicht verdrängt. Hintons jüngster Abschied von Google erfolgte speziell, um ihm zu ermöglichen, offener über die potenziellen Risiken der KI zu sprechen.
Diese Perspektive stimmt mit ähnlichen Ideen überein, die Yann LeCun, Metas Chefwissenschaftler für KI, vorgebracht hat. Er beschrieb Hintons Vorschlag als eine vereinfachte Version eines Ansatzes, den er seit Jahren verficht. LeCun plädiert für „zielorientierte KI“, bei der Systeme mit fest codierten Architekturen entwickelt werden, die Aktionen nur dann zulassen, wenn sie zu spezifischen, vordefinierten Zielen beitragen, die durch strenge „Schutzmechanismen“ (Guardrails) durchgesetzt werden.
Diese Schutzmechanismen, so erklärt LeCun, könnten grundlegende Prinzipien wie Unterwürfigkeit gegenüber Menschen und Empathie umfassen, zusammen mit einer Vielzahl einfacher, niedrigschwelliger Regeln, die der Sicherheit dienen. Beispiele für solche Regeln sind „Fahren Sie niemanden über den Haufen“ und „Schwingen Sie Ihren Arm nicht herum, wenn Menschen in der Nähe sind, besonders wenn Sie ein Küchenmesser halten.“ LeCun vergleicht diese fest codierten Ziele mit den Instinkten und Trieben, die bei Tieren und Menschen zu finden sind. Er verweist auf die Rolle der Evolution bei der festen Verdrahtung elterlicher Instinkte, die Fürsorge, Schutz und manchmal sogar Ehrerbietung gegenüber den Nachkommen erzwingen. Als faszinierender Nebeneffekt neigen Menschen und viele andere Spezies auch dazu, hilflose oder „niedliche“ Kreaturen anderer Spezies zu schützen, sich mit ihnen anzufreunden und sie zu pflegen – selbst solche, die sie sonst als Beute wahrnehmen könnten.
Die Konvergenz dieser beiden prominenten KI-Persönlichkeiten auf der Idee, wohlwollende „Instinkte“ in KI-Systeme einzubetten, markiert eine bedeutende konzeptionelle Verschiebung. Sie deutet auf eine Zukunft hin, in der die immense Intelligenz der KI nicht nur durch externe Befehle kontrolliert wird, sondern intrinsisch durch ein konstruiertes Gefühl der Fürsorge und Verantwortung geleitet wird, um sicherzustellen, dass ihre Macht dem menschlichen Wohl dient und es nicht bedroht.