KI im Studium: Studierende erweitern Lernen, statt nur Aufgaben auszulagern

Theconversation

Eine aktuelle Umfrage am Middlebury College zeigt, dass über 80 % seiner Studierenden aktiv generative künstliche Intelligenz für ihre Kursarbeiten nutzen, was eine der schnellsten Technologiewachstumsraten überhaupt darstellt. Diese Zahl übertrifft die 40 %ige Akzeptanzrate unter US-Erwachsenen dramatisch und ist in weniger als zwei Jahren seit der öffentlichen Einführung von Tools wie ChatGPT erreicht worden. Obwohl sich die Umfrage auf eine einzelne Institution konzentrierte, stimmen ihre Ergebnisse mit breiteren Studien überein und zeichnen gemeinsam ein aufkommendes Bild der Integration von KI in die Hochschulbildung.

Die zwischen Dezember 2024 und Februar 2025 durchgeführte Umfrage umfasste 634 Studierende, was über 20 % der Studierendenschaft von Middlebury entspricht. Die vorläufigen Ergebnisse, die in einem Arbeitspapier veröffentlicht wurden, stellen die vorherrschende alarmistische Erzählung über KI in der Wissenschaft in Frage. Anstatt Ängste vor weit verbreiteter akademischer Unehrlichkeit zu bestätigen, legt die Forschung nahe, dass institutionelle Richtlinien priorisieren sollten, wie KI verwendet wird, anstatt vollständige Verbote zu verhängen.

Entgegen reißerischer Schlagzeilen, die suggerieren, KI würde das akademische Projekt untergraben, stellte die Studie fest, dass Studierende KI primär nutzen, um ihr Lernen zu verbessern, nicht um Arbeit zu umgehen. Bei der Befragung zu zehn verschiedenen akademischen Anwendungen – von der Erklärung komplexer Konzepte und der Zusammenfassung von Lesestoffen bis hin zum Korrekturlesen, der Generierung von Programmiercode und sogar dem Verfassen von Aufsätzen – stand „Konzepte erklären“ durchweg an erster Stelle. Viele Studierende beschrieben KI als „On-Demand-Tutor“, besonders wertvoll für sofortige Hilfe außerhalb der traditionellen Sprechstunden oder spät in der Nacht.

Die Forscher kategorisierten die KI-Nutzung in zwei verschiedene Typen: „Augmentation“ (Erweiterung), die sich auf Nutzungen bezieht, die das Lernen verbessern, und „Automation“ (Automatisierung), für Aufgaben, die mit minimalem Aufwand Arbeit erzeugen. Ein signifikanter Anteil von 61 % der KI-nutzenden Studierenden berichtete, diese Tools zu Erweiterungszwecken einzusetzen, während 42 % sie für Automatisierungsaufgaben wie das Verfassen von Aufsätzen oder die Codegenerierung nutzten. Selbst wenn Studierende sich für Automatisierung entschieden, zeigten sie Diskretion und behielten sie oft für Hochdruckphasen wie die Prüfungszeit oder für risikoarme Aktivitäten wie das Formatieren von Bibliografien und das Entwerfen routinemäßiger E-Mails vor, anstatt sie als Standard für Kernkursarbeiten zu verwenden.

Obwohl das Middlebury College eine kleine Hochschule für Geisteswissenschaften mit einer relativ wohlhabenden Studierendenschaft ist, finden die Ergebnisse weltweit Resonanz. Eine Analyse von Daten anderer Forscher, die über 130 Universitäten in mehr als 50 Ländern umfasste, spiegelte die Ergebnisse von Middlebury wider: Studierende weltweit, die KI nutzen, tun dies eher zur Erweiterung ihrer Kursarbeiten als zu deren Automatisierung.

Um Bedenken hinsichtlich der Zuverlässigkeit von selbstberichteten Umfragedaten – bei denen Studierende unangemessene Verwendungen wie das Verfassen von Aufsätzen unter- und legitime überberichten könnten – zu begegnen, verglichen die Forscher ihre Ergebnisse mit tatsächlichen Nutzungsmustern von Anthropic, einem KI-Unternehmen hinter dem Chatbot Claude AI. Die Daten von Anthropic, die aus Universitäts-E-Mail-Adressen stammen, zeigten, dass „technische Erklärungen“ eine Hauptverwendung waren, was mit dem Umfrageergebnis übereinstimmt, dass Studierende KI hauptsächlich zur Erklärung von Konzepten nutzen. Ähnlich deuteten die Protokolle von Anthropic auf eine erhebliche Nutzung zum Entwerfen von Übungsfragen, Bearbeiten von Aufsätzen und Zusammenfassen von Materialien hin, was die Schlussfolgerungen der Umfrage weiter bestätigt. Im Wesentlichen stimmten die selbstberichteten Daten eng mit den realen KI-Konversationsprotokollen überein.

Diese Unterscheidung zwischen weit verbreiteter Akzeptanz und universellem Betrug ist entscheidend. Alarmistische Berichterstattung, die oft beides vermischt, birgt das Risiko, akademische Unehrlichkeit zu normalisieren, indem verantwortungsbewusste Studierende sich naiv fühlen, wenn sie sich an Regeln halten, während sie wahrnehmen, dass „alle anderen es tun“. Darüber hinaus liefern solche verzerrten Darstellungen Universitätsverwaltungen ungenaue Informationen, was ihre Fähigkeit beeinträchtigt, effektive, evidenzbasierte Richtlinien zu erstellen.

Die Ergebnisse legen nahe, dass extreme Richtlinien, wie pauschale Verbote oder uneingeschränkte Nutzung, inhärente Risiken bergen. Verbote könnten Studierende, die am meisten von den Tutoring-Fähigkeiten der KI profitieren, unverhältnismäßig benachteiligen, während sie potenziell unfaire Vorteile für diejenigen schaffen könnten, die Regeln missachten. Umgekehrt könnte eine völlig uneingeschränkte Nutzung schädliche Automatisierungspraktiken fördern, die das echte Lernen untergraben. Solange keine umfassendere Forschung darüber verfügbar ist, wie verschiedene Arten der KI-Nutzung die Lernergebnisse von Studierenden beeinflussen – und ob diese Auswirkungen bei den Studierenden variieren –, müssen Bildungseinrichtungen sorgfältig abwägen, um Studierende bei der Unterscheidung zwischen vorteilhaften und potenziell schädlichen KI-Anwendungen anzuleiten.