Les Enseignants Adoptent l'IA pour l'Innovation en Classe
Au printemps dernier, dans une salle de classe d’un lycée du Texas, des élèves se sont retrouvés plongés dans une sinistre expérience de pensée : une apocalypse zombie mondiale avait décimé la civilisation, ne laissant que 100 embryons humains congelés en sécurité dans un abri anti-atomique. Les adultes censés s’en occuper ayant disparu, 12 civils au hasard y ont trébuché, mais il n’y avait de nourriture et d’oxygène que pour sept. Les élèves ont été confrontés à la tâche déchirante de décider qui vivrait pour élever l’avenir de l’humanité et qui périrait.
Parmi les choix difficiles figuraient Amina, une actrice de 26 ans, et son mari Bubak, qui avait un casier judiciaire. Pendant des années, le professeur d’anglais Cody Chamberlain avait guidé ses élèves à travers de tels dilemmes éthiques. Cette fois, cependant, il a ajouté une nouvelle variable : l’intelligence artificielle. Lorsque Chamberlain a soumis le scénario à ChatGPT, le grand modèle linguistique a pris une décision radicale : il a éliminé Bubak mais a sauvé Amina, non pas pour une compétence particulière, mais parce qu’elle pouvait avoir des enfants. « C’est tellement froid », ont haleté les élèves, déconcertés par le jugement algorithmique et impassible de l’IA. Pour Chamberlain, ce fut un moment révélateur, offrant un contrepoint essentiel aux débats des élèves. « ChatGPT a dit que nous avions besoin d’elle, façon Servante écarlate », a-t-il raconté, notant comment le raisonnement inattendu de l’IA a incité les élèves à réagir et à examiner de manière critique sa logique.
Si les éducateurs ont longtemps tiré parti de la technologie pour améliorer les leçons et gérer les charges de travail, le lancement public de ChatGPT en 2022 a marqué un tournant significatif. Les enseignants n’intégraient plus seulement des outils comme les iPads ; ils étaient confrontés à une technologie déjà profondément ancrée dans la vie des élèves, capable d’aider à la fois à l’étude et à la tromperie. Une enquête du Pew Research Center à l’automne 2023 a révélé qu’un quart des enseignants estimaient que l’IA causait plus de torts que de bénéfices, tandis que 32 % la considéraient comme un mélange des deux. Le choix est devenu clair : résister à l’IA, ou trouver un moyen de collaborer avec elle.
Cette année scolaire, l’IA est appelée à être plus omniprésente que jamais dans les salles de classe américaines. Les enseignants déploient de plus en plus des grands modèles linguistiques pour générer des quiz, adapter des textes à différents niveaux de lecture, fournir des retours et concevoir des instructions différenciées adaptées aux besoins individuels des élèves. En l’absence de politiques claires à l’échelle du district, les éducateurs fixent en grande partie leurs propres limites, une requête IA à la fois. Comme le note Jeff Johnson, un professeur d’anglais californien qui forme ses collègues à l’intégration de l’IA, cette technologie est « trop facile et trop séduisante. Cela va tout changer. Mais nous devons décider ce que cela signifie réellement. »
L’enseignement a historiquement exigé un travail non rémunéré considérable, avec des nuits passées à planifier, rechercher et adapter des matériaux pour les élèves ayant des besoins spéciaux ou ceux qui apprennent l’anglais. Pour Johnson, l’IA offre une forme d’assistance cruciale qui peut lutter contre l’épuisement professionnel. Il utilise divers outils d’IA pour générer rapidement de courts quiz, rationaliser la planification des leçons et créer des feuilles de travail personnalisées pour différents niveaux de compétence. Il est crucial qu’il évite d’utiliser l’IA pour noter des copies ou répondre directement aux questions des élèves, se concentrant plutôt sur l’accélération de la préparation. « Cela seul me fait gagner des jours et des semaines », souligne Johnson, « du temps qui peut être mieux consacré à interagir avec les élèves. » Jennifer Goodnow, une enseignante d’anglais langue seconde à New York, partage une perspective similaire, utilisant l’IA pour créer des versions simplifiées de lectures complexes pour les élèves débutants et des versions plus avancées pour d’autres, complètes avec des questions de compréhension correspondantes. Amanda Bickerstaff, ancienne enseignante et PDG de AI for Education — une organisation qui fournit des formations et des ressources sur l’IA aux éducateurs — affirme que les enseignants adoptent l’IA parce qu’ils ont toujours eu besoin de meilleurs outils de planification, et qu’ils les ont enfin.
Cela s’applique particulièrement aux élèves ayant des Plans d’Éducation Individualisés (PEI), notamment ceux souffrant de troubles de lecture ou de traitement. L’IA générative peut simplifier les structures de phrases, mettre en évidence le vocabulaire clé ou décomposer des passages denses en morceaux plus digestes. Certains outils peuvent même reformater les matériaux pour inclure des éléments visuels ou audio, offrant ainsi aux élèves des moyens alternatifs d’accéder au même contenu.
Si l’IA offre des avantages significatifs dans les arts du langage, son application dans des matières comme les mathématiques suscite le scepticisme. Bickerstaff souligne que les grands modèles linguistiques sont généralement peu performants en calcul, et son organisation déconseille explicitement d’utiliser des outils comme ChatGPT pour enseigner directement les mathématiques. Au lieu de cela, les professeurs de mathématiques pourraient tirer parti de l’IA pour des tâches adjacentes, telles que la génération de diapositives de présentation, le renforcement du vocabulaire mathématique, ou le guidage des élèves à travers les étapes de résolution de problèmes sans fournir de solutions complètes.
Au-delà de son utilité comme aide pédagogique, l’IA devient également un outil permettant aux enseignants de garder une longueur d’avance sur leurs élèves. Près de trois ans après le lancement public de ChatGPT, les éducateurs ne peuvent plus ignorer que leurs élèves l’utilisent. Johnson raconte un cas où un élève, invité à analyser la chanson « America » de West Side Story, a soumis une thèse sur la chanson du même nom de Simon & Garfunkel. Plutôt que d’interdire purement et simplement les outils d’IA, de nombreux enseignants conçoivent des devoirs qui les contournent ou les intègrent. Johnson exige que les élèves rédigent des essais étape par étape dans Google Docs avec l’historique des versions activé, ce qui lui permet de suivre leur processus d’écriture. Chamberlain exige que les élèves soumettent des documents de planification avec leur travail final. Goodnow expérimente même le fait que les élèves insèrent des essais générés par l’IA dans leurs devoirs, puis critiquent les résultats. « Il y a trois ans, je leur aurais jeté le livre à la figure », réfléchit Chamberlain. « Maintenant, c’est plutôt : ‘Montre-moi ton processus. Où as-tu été l’acteur de cela ?’ »
Malgré ces adaptations, la détection de l’utilisation de l’IA reste souvent un « jeu d’intuition », car les vérificateurs de plagiat sont notoirement peu fiables. Les districts scolaires ont hésité à tracer des lignes rigides, en partie parce que la technologie évolue plus vite que les politiques ne peuvent suivre. Pourtant, il existe un large consensus : les élèves ont désespérément besoin de littératie en IA, et ils ne la reçoivent pas adéquatement. Goodnow souligne la nécessité de cours dédiés au lycée sur l’utilisation de l’IA, insistant sur un « dialogue continu entre les élèves et les enseignants sur la manière d’utiliser éthiquement… ces outils. » Des organisations comme AI for Education travaillent à combler cette lacune, en fournissant des conseils et des formations aux districts scolaires. Cependant, même dans les écoles proactives, l’accent reste souvent mis sur l’utilisation des outils plutôt que sur la compréhension critique. Les élèves peuvent savoir comment générer des réponses, mais ils ont du mal à discerner si ces réponses sont inexactes, biaisées ou fabriquées. Johnson a commencé à construire des leçons autour des « hallucinations » de l’IA, par exemple, en demandant à ChatGPT combien de R il y a dans « strawberry » pour démontrer sa faillibilité. « Ils doivent voir qu’on ne peut pas toujours lui faire confiance », explique-t-il.
À mesure que les outils d’IA deviennent plus sophistiqués, ils atteignent également les élèves plus jeunes, soulevant de nouvelles préoccupations quant à leur interaction avec les grands modèles linguistiques. Bickerstaff avertit que les jeunes enfants, qui développent encore leur capacité à distinguer le fait de la fiction, sont particulièrement vulnérables à une confiance excessive envers les outils génératifs. Une telle dépendance, suggère-elle, pourrait avoir un impact profond sur leur développement et leur sens de la réalité. Déjà, certains élèves utilisent l’IA non seulement pour accomplir des tâches, mais aussi pour les réfléchir, brouillant la ligne entre un simple outil et un tuteur personnel.
À travers le paysage éducatif, les éducateurs perçoivent cet automne comme un moment charnière. Les districts introduisent de nouveaux produits d’IA, les élèves deviennent plus adroits, et les enseignants s’empressent d’établir des normes avant que la technologie ne les dicte. « Si nous savons que nous préparons les élèves à la future main-d’œuvre — et nous entendons des dirigeants de nombreuses entreprises différentes que l’IA va être super importante — alors nous devons commencer maintenant », conclut Bickerstaff. Cet impératif pousse des enseignants comme Johnson et Goodnow, alors qu’ils naviguent dans les complexités de l’IA, une requête, un élève et un scénario d’apocalypse bizarre à la fois.