KI-Coding-Tools: Frühe Hürden spiegeln vergangene Tech-Revolutionen wider

Theregister

Mitte 2025 zeigt die Landschaft der KI im Coding ein krasses Paradoxon. Während der CEO von GitHub, der allgegenwärtigen Plattform für Entwickler, kühn proklamiert, dass künstliche Intelligenz bald alle Coding-Aufgaben übernehmen wird – und dass dies eine positive Entwicklung sei –, deutet die Realität für viele Programmierer, die aktuelle KI-Coding-Tools verwenden, auf eine andere Geschichte hin. Anstatt die Effizienz zu steigern, mindern diese Tools oft die Produktivität, auch wenn sie bei den Nutzern den irrigen Glauben fördern, effektiver zu arbeiten.

Diese Diskrepanz zwischen hohen Erwartungen und der tatsächlichen Leistung wirft eine grundlegende Frage auf: Kann eine Technologie, die ihre Nutzer anfangs behindert, sich schließlich zu einem unverzichtbaren Gut entwickeln? Die Geschichte bietet eine überzeugende Parallele, die darauf hindeutet, dass eine solche Kehrtwende nicht nur möglich, sondern vielleicht unvermeidlich ist. Um diese Entwicklung nachzuvollziehen, könnte man siebzig Jahre zurückblicken auf die Pionierarbeit von Konteradmiral Grace Hopper. 1955 initiierte Hopper die Entwicklung von FLOW-MATIC, der ersten höheren Computersprache, die darauf ausgelegt war, Datenverarbeitung mittels englischähnlicher Befehle anstelle komplexer Symbole zu ermöglichen. Diese Innovation ebnete bald den Weg für COBOL, eine Sprache, die heute noch überraschend weit verbreitet ist.

Hopper, eine ehemalige Mathematikprofessorin, stieß mit ihrer Vision auf erheblichen Widerstand. 1955 waren in den Vereinigten Staaten nur etwa 88 elektronische Computer in Betrieb, was Rechenleistung zu einer äußerst knappen und teuren Ressource machte. Sie wurde eifersüchtig von einer Elite von Mathematikern und Ingenieuren bewacht, die Verarbeitungszyklen und Speicher für zu wertvoll hielten, um sie für die Übersetzung menschenlesbarer Wörter in Maschinenbefehle zu „verschwenden“. Sie hielten es für unerträglich, Personen entgegenzukommen, die nicht bereit oder in der Lage waren, maschinennahe Symbole zu lernen. Hopper erkannte diese Haltung jedoch als zutiefst einschränkend, insbesondere wenn das Computing jemals weit verbreitet werden sollte. Ihre Weitsicht erwies sich als richtig; während die unmittelbaren Ressourcenbeschränkungen real waren, machte der schnelle technologische Fortschritt diese spezifische Kritik schnell obsolet.

Doch das zugrunde liegende Thema der Ressourcenbeschränkung, gepaart mit eingefahrenem Denken, hielt an und tauchte bei jedem nachfolgenden Technologiesprung wieder auf. Als Computer eine breitere Akzeptanz fanden, führten neue Durchbrüche oft anfängliche Performance-Overheads ein, die ältere, auf rohe Effizienz optimierte Programmierpraktiken zu bevorzugen schienen. Zum Beispiel wurde die Programmiersprache C, die für plattformübergreifende Software auf frühen Minicomputern entscheidend war, von Assembler-Programmierern zunächst als wenig mehr als ein „aufgehübschter Makro-Assembler“ verspottet. Ähnlich stieß in der aufkommenden Ära der Mikrocomputer die Einführung der Intermediate Representation (IR) – bei der ein Compiler zunächst ein gemeinsames Format generiert, das später über eine virtuelle Maschine in ausführbaren Code übersetzt wird – auf Skepsis. Frühe IR-Implementierungen wie Pascals P-Code und Javas Bytecode waren notorisch langsam, was zu Witzen über die ununterscheidbare Leistung eines abgestürzten C-Programms im Vergleich zu einer laufenden Java-Anwendung führte.

Javas Überleben und spätere Allgegenwart waren maßgeblich auf das exponentielle Wachstum der Rechenleistung, das durch Moores Gesetz vorhergesagt wurde, und den Aufstieg allgegenwärtiger Netzwerke zurückzuführen. Heute ist IR ein Eckpfeiler der modernen Softwareentwicklung, beispielhaft durch Technologien wie LLVM, und selbst C fungiert nun als IR in Compilern für Sprachen wie Nim und Eiffel. Diese geschichtete Abstraktion ist grundlegend für die reiche und leistungsstarke vernetzte Coding-Welt, in der wir leben.

Dieser historische Verlauf zeigt, dass eine erhöhte Abstraktion, obwohl sie oft anfängliche Leistungshürden mit sich bringt, letztendlich größere Komplexität und Leistungsfähigkeit freisetzt. Tatsächlich wird ein Großteil des Codes, der heute in der Mainstream-IT auf Silizium läuft, niemals direkt von Menschen berührt oder sogar gesehen; er wird von Maschinen generiert und optimiert, oft durch mehrere Transformationen.

Dies bringt uns zur KI. Aktuelle Tools der künstlichen Intelligenz im Coding stehen vor einer dreifachen Herausforderung: ihrem Namen selbst, dem begleitenden Hype und ihren anspruchsvollen Ressourcenanforderungen. KI zeichnet sich im Kern durch ausgeklügelte Datenanalyse und Inferenz aus; sie ist nicht „intelligent“ im menschlichen Sinne, und sie als solche zu bezeichnen, setzt unrealistische Erwartungen. Obwohl sie für klar definierte, spezifische Aufgaben hochwirksam ist, wird KI oft als Universallösung vermarktet, was weitere Skepsis schürt und eingefahrene Haltungen verstärkt. Das aktuelle Unbehagen rührt von den enormen Ressourcenanforderungen her, insbesondere für das Training großer KI-Modelle, die oft nur den größten Cloud-Anbietern zugänglich sind. Dies, gepaart mit fragwürdigen Geschäftsmodellen, schafft ein Umfeld, in dem die Entwicklung wirklich effektiver KI-Coding-Tools eine Herausforderung darstellt, was sie in ihren frühen Phasen zu einem zweischneidigen Schwert macht.

Diese Situation ist jedoch dazu bestimmt, sich zu ändern, dem historischen Muster folgend. Wie Grace Hopper so klar verstand, beschleunigt das Beseitigen von Barrieren zwischen menschlichem Denken und technologischer Ausführung den Fortschritt. KI im Coding ist genau dazu prädestiniert. Wenn die Technologie reift und die Ressourcenbeschränkungen nachlassen, wird sich der primäre menschliche Beitrag auf tiefere Voraussicht, Design und eine klarere Artikulation gewünschter Ergebnisse verlagern – Disziplinen, die derzeit oft unterentwickelt sind. Es erinnert an einen alten Programmiererwitz: Wenn Computer in geschriebenem Englisch programmiert werden können, werden wir feststellen, dass Programmierer kein Englisch schreiben können. Hoffentlich wird der unaufhaltsame Marsch des technologischen Fortschritts diese Beobachtung ebenso veraltet machen wie den anfänglichen Widerstand gegen höhere Sprachen.