Angst vor AGI-Apokalypse: MIT-Studentin bricht Studium ab – Experten gespalten

Futurism

In einer Ära, in der viele Universitätsstudenten ihr Studium aufgeben, um Chancen in aufstrebenden Startups für künstliche Intelligenz zu ergreifen, hat eine ehemalige Studentin des Massachusetts Institute of Technology (MIT) einen auffallend anderen Weg eingeschlagen: Sie zog sich aus ihrem Programm zurück, aufgrund einer tiefgreifenden Angst: der Überzeugung, dass Künstliche Allgemeine Intelligenz (AGI) zur Auslöschung der Menschheit führen wird, noch bevor sie ihren Abschluss machen kann.

Alice Blair, die ihr Studium am MIT im Jahr 2023 begann, äußerte ihre ernsten Bedenken gegenüber Forbes und erklärte: “Ich befürchtete, wegen AGI nicht mehr am Leben zu sein, um meinen Abschluss zu machen.” Sie erläuterte ihre düstere Prognose und schlug vor: “Ich denke, in einer großen Mehrheit der Szenarien, aufgrund der Art und Weise, wie wir auf AGI hinarbeiten, kommt es zur Auslöschung der Menschheit.” Blair hat seitdem ihre Karriere umorientiert und arbeitet nun als technische Redakteurin für das gemeinnützige Center for AI Safety, ohne unmittelbare Pläne, in die Wissenschaft zurückzukehren. Ihre anfängliche Hoffnung, im akademischen Umfeld des MIT Gleichgesinnte zu treffen, die sich auf KI-Sicherheit konzentrieren, sei, so deutete sie an, größtenteils unerfüllt geblieben.

Ihre Befürchtungen finden bei einigen in der Tech-Branche Anklang. Nikola Jurković, ein Harvard-Absolvent und ehemaliges Mitglied des KI-Sicherheitsclubs seiner Universität, zeigte Verständnis für Blairs Entscheidung. Er vertrat eine pragmatische Ansicht zur schnellen Entwicklung der KI und schlug vor: “Wenn Ihre Karriere bis zum Ende des Jahrzehnts automatisiert wird, dann ist jedes im College verbrachte Jahr ein Jahr, das von Ihrer kurzen Karriere abgezogen wird.” Jurković bot seine eigenen kühnen Vorhersagen an und schätzte, dass AGI nur noch vier Jahre entfernt sein könnte, gefolgt von der vollständigen Wirtschaftsautomatisierung innerhalb von fünf oder sechs Jahren.

Das Streben nach AGI – einem System, das menschliche kognitive Fähigkeiten erreichen oder übertreffen kann – bleibt für einen Großteil der KI-Industrie ein zentrales, langfristiges Ziel. Sam Altman, CEO von OpenAI, charakterisierte beispielsweise die jüngste Einführung des GPT-5-Modells seines Unternehmens als einen bedeutenden Fortschritt in Richtung AGI und beschrieb es sogar als “allgemein intelligent”.

Allerdings teilen nicht alle Experten diese optimistische oder alarmistische Zeitlinie. Gary Marcus, ein prominenter KI-Forscher und lautstarker Kritiker des Branchen-Hypes, bleibt äußerst skeptisch hinsichtlich der Unmittelbarkeit von AGI. “Es ist extrem unwahrscheinlich, dass AGI in den nächsten fünf Jahren kommt”, sagte Marcus Forbes und wies solche Behauptungen als “Marketing-Hype” ab. Er verwies auf hartnäckige, ungelöste grundlegende Probleme in aktuellen KI-Modellen, wie “Halluzinationen” – bei denen KI faktisch falsche oder unsinnige Informationen generiert – und weit verbreitete Denkfehler, als Beweis dafür, dass echte AGI noch eine ferne Aussicht ist.

Darüber hinaus, während er die sehr realen und unmittelbaren Schäden anerkennt, die KI verursachen kann, betrachtet Marcus die Vorstellung einer vollständigen Auslöschung der Menschheit als weit hergeholt. Er schlägt eine kritische, vielleicht zynische Interpretation der häufigen Anspielungen der KI-Industrie auf Weltuntergangsszenarien vor. Tech-Führungskräfte, einschließlich Altman, haben selbst diese existenziellen Risiken angesprochen, eine Strategie, die Marcus glaubt, dazu dient, die öffentliche Wahrnehmung der aktuellen Fähigkeiten der KI aufzublähen. Dies, so argumentiert er, ermöglicht es diesen mächtigen Unternehmen, die öffentliche Erzählung über die Technologie effektiver zu kontrollieren und ihre Regulierung zu beeinflussen.

Jenseits der dramatischen, filmischen Visionen von maschinengesteuerten Apokalypsen, ähnlich wie in “Matrix”, manifestieren sich die unmittelbareren und greifbareren Folgen der KI bereits. Dazu gehören die weit verbreitete Automatisierung von Arbeitsplätzen, erhebliche Umweltauswirkungen durch den Energiebedarf der KI-Infrastruktur, die Verbreitung von Fehlinformationen und minderwertigen Inhalten online, die Erweiterung der staatlichen Überwachungsfähigkeiten und sogar die potenzielle Verschärfung psychischer Belastungen bei Einzelpersonen. Die Debatte um AGI umfasst daher nicht nur futuristische Ängste, sondern auch drängende Bedenken hinsichtlich des aktuellen, sehr realen Fußabdrucks der KI in der Gesellschaft.