L'IA au collège : les étudiants augmentent l'apprentissage, ne sous-traitent pas

Theconversation

Une enquête récente menée au Middlebury College révèle que plus de 80 % de ses étudiants utilisent activement l’intelligence artificielle générative pour leurs travaux de cours, marquant l’un des taux d’adoption technologique les plus rapides jamais enregistrés. Ce chiffre dépasse considérablement le taux d’adoption de 40 % observé chez les adultes américains et s’est produit en moins de deux ans depuis le lancement public d’outils comme ChatGPT. Bien que l’enquête se soit concentrée sur une seule institution, ses conclusions s’alignent sur des études plus larges, brossant collectivement un tableau émergent de l’intégration de l’IA dans l’enseignement supérieur.

Menée entre décembre 2024 et février 2025, l’enquête a impliqué 634 étudiants, représentant plus de 20 % du corps étudiant de Middlebury. Les résultats préliminaires, publiés dans un document de travail, remettent en question le récit alarmiste prédominant concernant l’IA dans le milieu universitaire. Au lieu de confirmer les craintes d’une généralisation de la tricherie académique, la recherche suggère que les politiques institutionnelles devraient prioriser comment l’IA est utilisée, plutôt que d’imposer des interdictions pures et simples.

Contrairement aux titres sensationnalistes qui suggèrent que l’IA est en train de défaire le projet académique, l’étude a révélé que les étudiants utilisent principalement l’IA pour améliorer leur apprentissage, et non pour se soustraire au travail. Lorsqu’on leur a posé des questions sur dix applications académiques différentes — allant de l’explication de concepts complexes et de la synthèse de lectures à la relecture, la génération de code de programmation et même la rédaction d’essais — « expliquer des concepts » a constamment figuré en tête de liste. De nombreux étudiants ont décrit l’IA comme un « tuteur à la demande », particulièrement précieux pour une assistance immédiate en dehors des heures de bureau traditionnelles ou tard le soir.

Les chercheurs ont classé l’utilisation de l’IA en deux types distincts : l’« augmentation », faisant référence aux utilisations qui améliorent l’apprentissage, et l’« automatisation », pour les tâches qui produisent du travail avec un minimum d’effort. Un pourcentage significatif de 61 % des étudiants utilisant l’IA ont déclaré employer ces outils à des fins d’augmentation, tandis que 42 % les ont utilisés pour des tâches d’automatisation telles que la rédaction d’essais ou la génération de code. Même lorsque les étudiants optaient pour l’automatisation, ils faisaient preuve de discrétion, la réservant souvent pour les périodes de forte pression comme la semaine d’examens ou pour des activités à faible enjeu comme la mise en forme de bibliographies et la rédaction d’e-mails de routine, plutôt que comme une option par défaut pour les travaux de cours fondamentaux.

Bien que le Middlebury College soit une petite institution d’arts libéraux avec un corps étudiant relativement aisé, les conclusions résonnent à l’échelle mondiale. Une analyse des données d’autres chercheurs, englobant plus de 130 universités dans plus de 50 pays, a reflété les résultats de Middlebury : les étudiants du monde entier qui utilisent l’IA sont plus susceptibles de le faire pour augmenter leurs travaux de cours que pour les automatiser.

Pour répondre aux préoccupations concernant la fiabilité des données d’enquête auto-déclarées — où les étudiants pourraient sous-déclarer les utilisations inappropriées comme la rédaction d’essais et sur-déclarer les utilisations légitimes — les chercheurs ont recoupé leurs conclusions avec les modèles d’utilisation réels d’Anthropic, une entreprise d’IA derrière le chatbot Claude AI. Les données d’Anthropic, dérivées des adresses e-mail universitaires, ont montré que les « explications techniques » étaient une utilisation majeure, ce qui concorde avec la conclusion de l’enquête selon laquelle les étudiants utilisent principalement l’IA pour expliquer des concepts. De même, les journaux d’Anthropic ont indiqué une utilisation substantielle pour la conception de questions de pratique, l’édition d’essais et la synthèse de matériaux, validant davantage les conclusions de l’enquête. En substance, les données auto-déclarées correspondaient étroitement aux journaux de conversation IA du monde réel.

Cette distinction entre l’adoption généralisée et la tricherie universelle est cruciale. Une couverture alarmiste, qui confond souvent les deux, risque de normaliser la tricherie académique en faisant en sorte que les étudiants responsables se sentent naïfs d’adhérer aux règles lorsqu’ils perçoivent que « tout le monde le fait ». De plus, de telles représentations déformées fournissent aux administrateurs universitaires des informations inexactes, entravant leur capacité à élaborer des politiques efficaces et fondées sur des preuves.

Les conclusions suggèrent que les politiques extrêmes, telles que les interdictions générales ou l’utilisation illimitée, comportent des risques inhérents. Les interdictions pourraient désavantager de manière disproportionnée les étudiants qui bénéficient le plus des capacités de tutorat de l’IA, tout en créant potentiellement des avantages injustes pour ceux qui ignorent les règles. Inversement, une utilisation complètement illimitée pourrait favoriser des pratiques d’automatisation nuisibles qui sapent l’apprentissage authentique. En attendant des recherches plus complètes sur la manière dont les différents types d’utilisation de l’IA impactent les résultats d’apprentissage des étudiants — et si ces impacts varient d’un étudiant à l’autre — les établissements d’enseignement doivent faire preuve de discernement pour guider les étudiants à distinguer les applications d’IA bénéfiques de celles potentiellement préjudiciables.