Roboter programmieren sich mit KI: Ein „Terminator“-Schritt
Der Informatiker Peter Burke hat einen bedeutenden Sprung in der künstlichen Intelligenz demonstriert und enthüllt, dass Roboter nun die „Gehirne“ anderer Roboter mithilfe fortschrittlicher generativer KI-Modelle programmieren können. Diese bahnbrechende Arbeit, die in einem kürzlich veröffentlichten Preprint-Papier detailliert beschrieben wird, markiert einen erkennbaren Schritt in Richtung einer Zukunft, die oft in der Science-Fiction vorgestellt wird, wo Maschinen die Fähigkeit besitzen, sich selbst zu replizieren und ihre eigene Intelligenz zu entwickeln.
Burke, Professor für Elektrotechnik und Informatik an der University of California, Irvine, beginnt seine Studie offen mit Verweis auf das fiktive „Terminator“-Szenario, in dem selbstbewusste Roboter die Kontrolle übernehmen. Während er diese dramatische Parallele anerkennt, drückt er auch die inbrünstige Hoffnung aus, dass ein solches Ergebnis niemals eintritt – ein Gefühl, das angesichts des wachsenden militärischen Interesses an KI-Technologien besonders relevant ist.
Das Projekt definiert „Roboter“ auf zwei unterschiedliche Weisen. Der erste „Roboter“ umfasst verschiedene generative KI-Modelle wie Claude, Gemini und ChatGPT, die auf einem lokalen Laptop und in der Cloud betrieben werden. Diese Modelle wurden beauftragt, den zweiten „Roboter“ zu programmieren – eine Drohne, die mit einer kompakten Raspberry Pi Zero 2 W-Leiterplatte ausgestattet ist und ihr Steuerungssystem hosten soll. Traditionell befindet sich das Bodenkontrollsystem (GCS) einer Drohne, das Echtzeit-Kartierung, Missionsplanung und Konfiguration handhabt, auf einem bodengestützten Computer und kommuniziert über eine drahtlose Verbindung mit der Drohne. Burkes Innovation zeigt, dass generative KI den gesamten notwendigen Code für eine Drohne schreiben kann, um ihr eigenes GCS als Webserver zu hosten, der während des Fluges über das Internet zugänglich ist.
Der Entwicklungsprozess umfasste eine Reihe intensiver „Sprints“, bei denen verschiedene KI-Modelle und integrierte Entwicklungsumgebungen (IDEs) wie VS Code, Cursor und Windsurf zum Einsatz kamen. Frühe Versuche, wie ein erster Sprint mit Claude, stießen auf Einschränkungen, wobei das KI-Modell bereits nach etwa einem Dutzend Prompts seine „Kontextfenster“-Kapazität erreichte und effektiv den Überblick über die laufende Konversation verlor. Nachfolgende Bemühungen mit Gemini und Cursor stießen ebenfalls auf Hürden, einschließlich Skriptfehlern und der Notwendigkeit einer erheblichen Code-Refaktorierung, um Modellbeschränkungen zu berücksichtigen.
Letztendlich erwies sich ein vierter Sprint mit der Windsurf KI-IDE als erfolgreich. Dieses von der KI generierte Drohnen-Kontrollsystem, oder WebGCS, erforderte über einen Zeitraum von zweieinhalb Wochen etwa 100 Stunden menschliche Aufsicht und führte zu 10.000 Codezeilen. Dies stellt eine bemerkenswerte Effizienzsteigerung dar, etwa 20-mal weniger Stunden, als Burke für ein vergleichbares, von Menschen entwickeltes Projekt namens Cloudstation schätzt, für dessen Erstellung er und ein Team von Studenten vier Jahre benötigten.
Eine wichtige Beobachtung aus Burkes Arbeit ist die derzeitige Einschränkung von KI-Modellen, die Schwierigkeiten zu haben scheinen, mehr als 10.000 Codezeilen effektiv zu verarbeiten und zu generieren. Dieses Ergebnis stimmt mit anderen aktuellen Forschungen überein, wie einer Studie von S. Rando et al., die einen signifikanten Genauigkeitsrückgang bei Modellen wie Claude 3.5 Sonnet feststellte, wenn die Kontextlänge zunahm. Burkes Erfahrung deutet darauf hin, dass eine Codezeile ungefähr 10 „Tokens“ entspricht, den Informationseinheiten, die KI-Modelle verarbeiten, was eine praktische Obergrenze für die aktuelle generative KI bei der großflächigen Codegenerierung hervorhebt.
Hantz Févry, CEO des Raumdatenunternehmens Geolava, lobte das Drohnenprojekt als „faszinierend“ und bemerkte dessen Übereinstimmung mit dem aufstrebenden Feld der räumlichen Intelligenz. Er betonte, dass das Konzept einer Drohne, die autonom ihr eigenes Kommando- und Kontrollzentrum über generative KI aufbaut, nicht nur ehrgeizig, sondern auch ein Indikator für zukünftige Trends ist. Févry unterstrich jedoch auch die kritische Notwendigkeit „strenger Kontrollen und Grenzen für die Sicherheit“, ein Anliegen, das in Burkes Papier teilweise angesprochen wird, das die Wartung eines redundanten, menschlich gesteuerten Senders für manuelle Übersteuerung während des Drohnenbetriebs erwähnt.
Févry erläuterte ferner die umfassenderen Implikationen für die Luftbildindustrie und schlug vor, dass die autonome Erfassung sich von einem Luxus zu einem grundlegenden Aspekt der räumlichen KI wandelt, sei es von Drohnen, Stratosphärenplattformen oder Satelliten im niedrigen Erdorbit. Er glaubt, dass Systeme wie die von Burke einen Einblick in eine Zukunft bieten, in der Sensor-, Planungs- und Argumentationsfähigkeiten in nahezu Echtzeit nahtlos verschmelzen, und verweist auf Plattformen wie Skydio, die bereits das Umweltverständnis neu gestalten. Der ultimative Test für solche KI-Systeme, so Févry abschließend, werde ihre Fähigkeit sein, in adversen oder zweideutigen realen Umgebungen zu navigieren und sich anzupassen, was auf eine Zukunft „generalisierbarer Autonomie“ hindeutet und nicht nur auf aufgabenspezifische Robotik.