L’IA débarque en classe : info ou intox ?

Temps de lecture : 3 minutes

un-eleve-apprend-avec-une-ia

Quand TikTok devient prof d’IA

Vous avez déjà surpris votre ado demandant à ChatGPT de faire ses devoirs… ou de rédiger sa lettre de motivation en anglais ? Rassurez-vous, vous n’êtes pas seul·e. Aujourd’hui, bien plus que les manuels scolaires, ce sont les réseaux sociaux qui forment une génération d’élèves à l’usage de l’intelligence artificielle. Sur TikTok, Discord ou Instagram, les jeunes explorent, testent et partagent sans filtre.

Mais que fait le personnel enseignant pendant ce temps ? Il tente courageusement de suivre… en salle des profs ou sur LinkedIn. Du bricolage pédagogique, en somme, parfois éclairé, parfois intuitif. Et comme le souligne le chercheur Johanathan Woodworth, cette approche informelle crée un vrai déséquilibre : une diffusion rapide, mais incomplète, des savoirs. Résultat : des usages inégaux, et peu de réflexion critique sur les biais ou l’éthique.

Une réponse du terrain : former les futurs enseignants

À la Mount Saint Vincent University, un projet pilote a tenté de structurer l’apprentissage de l’IA dans un cours de formation à l’enseignement. Au menu : exploration des outils d’IA comme aide à la rétroaction, scénarios éthiques (par exemple dans des classes multilingues), et co-construction d’évaluations où l’IA devient un partenaire pédagogique plutôt qu’un tricheur masqué.

Et devinez quoi ? Pas besoin de gadgets brillants ou de budgets mirobolants. En quelques sessions, les futur·es enseignant·es ont nettement augmenté leur maîtrise du sujet. Mieux encore, ils ont enrichi leur langage professionnel : expressions comme « biais algorithmique » ou « consentement éclairé » ne les faisaient plus lever un sourcil.

À titre d’anecdote, une étudiante confiait à mi-voix : « Avant, je pensais que ChatGPT, c’était juste pour les fainéants en rédaction. Maintenant, je l’utilise pour repenser mes consignes d’évaluation… » Comme quoi, un peu de cadre change la donne !

Des politiques… floues comme un selfie flouté

Sur le terrain, la situation n’est pas plus simple. Certaines universités interdisent tout usage d’IA. D’autres hésitent, ou jouent les équilibristes. Résultat : de la confusion, du stress, et un risque d’isolement pour les enseignant·es, souvent livrés à eux-mêmes.

Avec la professeure Emily Ballantyne, Johanathan Woodworth propose un modèle d’intégration qui inclut les dimensions affectives et relationnelles. Car oui, l’IA change non seulement la façon dont on apprend, mais aussi comment on entre en relation dans une classe. Une IA mal utilisée ? C’est parfois l’équivalent numérique d’une porte claquée.

En parallèle, une recherche rappelle que l’IA peut accentuer les inégalités si elle est abordée sans esprit critique. Et cela pose clairement une question : comment éviter que les élèves déjà éloignés du système soient les premiers à en faire les frais ?

Mais concrètement : que peut-on faire ?

Les chercheur·es avancent plusieurs pistes toutes simples (et pleines de bon sens) :

  • Intégrer la formation au numérique et à l’IA dans les curriculums, pas comme une option, mais comme un outil du quotidien pédagogique.
  • Clarifier les attentes dans les institutions : on distingue les usages « fantômes » (faire le devoir à la place de l’élève) des usages « éclairants » (aider à mieux structurer une réponse, donner un retour d’explication).
  • Créer des communautés d’apprentissage, où l’on peut échanger ses doutes autant que ses succès.
  • Et garder en tête une valeur phare : l’équité. Car tous les élèves n’ont pas le même accès aux technologies… ni aux codes implicites qui conditionnent leur bon usage.

IA et troubles DYS : et nous alors ?

Petit détour par notre univers DYS préféré. Vous êtes professeur et vous avez un élève dyspraxique, ou dysgraphique ? Vous utilisez déjà sûrement des outils technos pour l’accompagner. Traduire un concept complexe, donner un retour oral, proposer un correcteur vocal : tout cela interagit désormais avec l’IA. Il serait dommage de passer à côté de ses apports… ou de ses pièges !

Imaginez une IA qui détecte automatiquement les difficultés liées à une consigne mal formulée ou un retour non adapté. Science-fiction ? Pas tant que ça. Mais cela suppose une IA pensée POUR et AVEC les enseignants, et pas à leur place.

Conclusion : devenir acteur plutôt que spectateur

Dans un monde de plus en plus rempli d’algorithmes, les outils d’intelligence artificielle seront des coéquipiers de jeu. Mais encore faut-il apprendre à les coacher !

Former les enseignant·es à l’usage critique et éthique de l’IA, c’est comme offrir une boussole à quelqu’un plongé dans un labyrinthe numérique. Et cette démarche profite aussi aux élèves, surtout les plus vulnérables.

Et vous, avez-vous déjà vu l’IA transformer une pratique de classe ? Ou au contraire un élève se retrouver plus perdu qu’aidé ? Venez partager vos anecdotes en commentaires ou sur nos réseaux, on est toujours friands de vos retours du terrain !

➕ Pour approfondir : l’article original en anglais sur The Conversation.

Partagez :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut