Ia Durzy MJA

L’enseignement à l’ère de l’Intelligence artificielle : pourquoi et comment IA ne doit pas devenir votre béquille mentale

Retour et synthèse sur deux interventions terrain sur le thème de l’intelligence artificielle et l’aprentissage & petit point synthétique sur ce que la recherche en sciences cognitives nous dit vraiment des risques (et des conditions) d’un bon usage de l’IA pour apprendre.

Kitcreanet Durzy MJA 2026 04
Je retourne au Lycée 😉 Pour la bonne cause !

Lycée Durzy Villemandeur, 8 avril. Maison des Jeunes d’Amilly, 13 avril. Deux dates, deux ambiances, mais une même effervescence. Entre les lycéens attentifs et les collégiens curieux, une question était sur toutes les lèvres : « L’IA pour faire mes devoirs à ma place, ou pour m’apprendre à mieux réfléchir ? »

L’évolution depuis mon passage en juin 2025 à Durzy est frappante. Un test simple ne trompe pas : le sondage à main levée. Là où les bras se levaient timidement il y a un an, les mains s’élancent désormais franchement vers le ciel. En 2026, l’usage est totalement décomplexé : on lève la main sans tabou, même pour afficher un « mésusage » assumé de l’IA.

Pour eux, l’IA n’est plus un gadget, c’est un colocataire omniprésent — et parfois un peu trop présent. Et comme pour tout colocataire, il faut savoir poser les règles pour ne pas se laisser déborder.

Article de la République du Centre qui a couvert mon intervention.


1. L’IA n’est pas née hier

Pour comprendre où nous allons, nous avons commencé par regarder dans le rétroviseur. L’Intelligence Artificielle n’a pas jailli d’un chapeau magique le 30 novembre 2022 avec ChatGPT. Voici les jalons qui ont marqué les esprits :

  • 1943 : Le premier neurone mathématique (une sorte d’interrupteur « Oui/Non »).
  • 1950 : Alan Turing et sa fameuse machine (si vous n’avez pas vu Imitation Game, courez-y !).
  • 1997 : Le choc Deep Blue contre Kasparov. Le champion du monde d’échecs est battu par la puissance de calcul brute.
  • 1998 : Google et son algorithme PageRank arrivent pour organiser le web. La recherche devient enfin efficace.
  • 2015 : Création d’OpenAI par Sam Altman et Elon Musk, avec l’ambition de rendre l’IA accessible et sûre pour tous.
  • 2016 : AlphaGo (Google) bat Lee Sedol au jeu de Go. Ici, la machine n’a pas seulement calculé vite, elle a époustouflé le monde par sa « créativité ».
  • 2018 : Google met au point BERT, une révolution dans la compréhension naturelle du langage.
  • 2020 : Arrivée de GPT-3, un modèle géant aux résultats si impressionnants qu’il préfigure la déflagration grand public de 2022.
  • 2022 : Open AI livre ChatGPT au monde !

2. C’est quoi, concrètement, un LLM ?

Pour comprendre l’outil que vous avez dans votre poche, oubliez la magie. Un LLM (Large Language Model), c’est avant tout une machine à prédictions statistiques.

Pour l’expliquer aux élèves, nous avons joué à un jeu simple : commencer une phrase et laisser l’autre la terminer.

Le jeu du texte à trous

  • « Le ciel est… » → La réponse la plus probable : bleu.
  • « Il est 21h, le ciel est… » → Soudain moins évident. Noir ? Étoilé ? Sombre ? Mais dans 90% des cas la réponse la plus probable sera « Noir ».

L’IA fait exactement cela : elle calcule le mot qui a la plus forte probabilité de suivre le précédent, en fonction de tout ce qu’elle a « lu » lors de son entraînement.

Des mots transformés en chiffres

Sous le capot, l’IA ne voit pas de lettres — elle transforme chaque fragment de mot en un code numérique, appelé token.

  • « Le chat miaule » sera traduit par une suite simple comme [12-891-2450].
  • « Le chat de l’aiguille » donnera une suite comme [12, 891, 15, 5, 1432].

Le code du mot « chat » reste 891 dans tous les contextes, mais sa valeur mathématique — sa position dans l’espace — est recalculée dynamiquement selon ce qui l’entoure.

La bibliothèque en 1000 dimensions

Imaginez une bibliothèque en 3D — ou plutôt en 1 000D. Chaque mot y possède des coordonnées précises : ce sont les embeddings. Si « chat » côtoie « miaule », il se rapproche mathématiquement d’« animal ». Si « chat » côtoie « aiguille », il glisse vers le concept de « couture ». C’est la même représentation numérique, mais son sens émerge du contexte.


3. Les pièges de l’apprentissage fantôme

C’est là que les échanges sont devenus les plus vifs. Utiliser l’IA pour générer un résumé de cours, c’est facile. Trop facile, peut-être ?

Ce risque n’est pas qu’une intuition d’enseignant — il est documenté par la recherche en sciences cognitives. Dès les années 2000, des travaux ont montré que la simple fluidité de lecture d’un texte peut induire une illusion de compétence : la croyance erronée de maîtriser un sujet parce qu’on a lu une explication soigneusement rédigée. 1 2

Avec l’IA générative, cette illusion se réactive à grande échelle. Des analyses récentes montrent que des réponses très fluides et bien structurées produites par une IA poussent les utilisateurs à surévaluer leur propre compréhension — ce qui nuit à la construction de savoirs durables. 3 4 Des travaux du MIT Media Lab décrivent ce phénomène comme une cognitive debt — une dette cognitive : l’usage intensif de l’IA pour rédiger ou résumer fait porter à l’outil la charge de penser, au détriment de l’effort nécessaire à un apprentissage profond. 5 6

⚠️ Ce que la recherche dit — et ne dit pas

  • L’étude MIT (Kosmyna et al., 2025) a mesuré l’activité cérébrale (EEG) de 54 étudiants répartis en trois groupes : IA, moteur de recherche, aucun outil. Les utilisateurs de ChatGPT présentaient la connectivité cérébrale la plus faible et peinaient à se souvenir de ce qu’ils avaient rédigé quelques minutes plus tôt.
  • Limite importante : l’étude porte sur 54 étudiants dans une tâche unique (rédaction d’essais). Elle n’était pas encore publiée dans une revue à comité de lecture au moment de sa diffusion virale. Ses auteurs ont eux-mêmes demandé que l’on n’utilise pas les mots « terrifiante » ou « brain rot » pour la résumer.
  • Bonne nouvelle : une session complémentaire a montré que les effets négatifs sont largement réversibles. Dès qu’on reprend le contrôle de la tâche, l’engagement cognitif remonte. Ce n’est pas une dette permanente, c’est un signal d’alerte.
  • Une étude de 2026 (Wang & Zhang, publiée dans l’International Journal of Educational Technology in Higher Education) nuance encore davantage : lorsque les étudiants traitent l’IA comme un collaborateur intellectuel actif — en la questionnant, en confrontant ses réponses — les effets sur la pensée critique peuvent être positifs. La distinction n’est pas dans l’outil : elle est dans la posture.

L’illusion de savoir (biais de Dunning-Kruger)

Moins on fait d’efforts pour traiter une information, plus on a tendance à surestimer sa maîtrise. Lire un résumé parfait donne l’impression d’avoir compris — mais sans effort de traitement actif, l’information ne passe pas en mémoire à long terme.

Le cerveau, fainéant stratégique

Notre cerveau consomme environ 20 % de nos calories. Pour survivre, il cherche systématiquement le chemin de moindre résistance. Si l’IA produit un résultat sans activer les zones de réflexion profonde (le cortex préfrontal), il l’acceptera volontiers — quitte à sacrifier la mémorisation. C’est comme regarder quelqu’un faire du sport : on comprend le mouvement, mais on ne muscle pas son propre corps.

Le biais d’automatisation — l’effet GPS

On accorde une confiance excessive aux systèmes automatisés. On délègue la charge mentale à l’outil en supposant que son résultat « vaut » pour notre propre réflexion — ce qui court-circuite l’effort de récupération, pourtant essentiel à l’apprentissage.

Usage passif — risqué

Usage actif — bénéfique

Demander à l’IA de produire à votre place. Copier le résumé sans le reformuler. Laisser l’outil structurer votre pensée avant même d’avoir essayé.

Ébaucher d’abord ses propres idées, puis soumettre à l’IA pour challenger. S’en servir pour tester sa compréhension, pas la remplacer.


4. Devenir un bon « prompt engineer » : l’IA comme coach, pas comme oracle

La question n’est plus d’être « pour » ou « contre ». L’IA est là. Le vrai sujet : qui saura bien l’utiliser ?

Pour transformer l’IA en allié de l’apprentissage profond (comprendre, intégrer, pratiquer), il faut maîtriser l’Art du Prompt. J’ai partagé avec les élèves la règle d’or : Garbage In, Garbage Out (si vous rentrez des déchets, vous sortirez des déchets).

Les 4 piliers d’un prompt malin

Clarté & précision — Contexte explicite — Persona demandé — Itération

  1. Clarté & Précision : Donnez des instructions structurées.
  2. Le Contexte : Expliquez à quel usage ou pour quel public vous destinez la réponse.
  3. Le Persona : Demandez à l’IA d’adopter un rôle. « Explique-moi ce concept de physique comme si tu étais un chargé d’études en biodiversité s’adressant à des collégiens. »
  4. L’Itération (Le « Pro-Tip ») : Achevez votre prompt par cette phrase magique : « Pose-moi les questions nécessaires pour que tu puisses me donner le meilleur résultat possible ».

Exemple — persona + itération

« Explique-moi ce concept de physique comme si tu étais un chargé d’études en biodiversité s’adressant à des collégiens. Pose-moi les questions nécessaires pour que tu puisses me donner le meilleur résultat possible. »

Cette dernière phrase — « Pose-moi les questions nécessaires » — est le vrai pro-tip. Elle force un aller-retour qui réengage votre cognition au lieu de vous laisser passif face à une réponse monolithique.


5. Gems et NotebookLM : créez votre propre expert sur mesure

C’est la partie qui a le plus enthousiasmé les élèves : ne plus parler à une IA générique, mais paramétrer sa propre instance spécialisée.

Les Gems de Gemini — votre tuteur personnel

Avec les Gems, vous créez une version personnalisée de Gemini dotée d’un rôle, d’un niveau de langage et d’une méthode pédagogique définis une fois pour toutes.

Exemple de Gem pédagogique

« Tu es mon coach de révision en Histoire-Géo. Ne me donne jamais la réponse directe. Guide-moi par des questions pour que je la trouve moi-même. »

NotebookLM — la révolution par les documents

Contrairement à une IA classique qui puise sur le web, NotebookLM se base exclusivement sur vos propres documents — cours, PDF, vidéos, articles. C’est une bibliothèque intelligente qui génère :

Quiz instantanés — Flashcards — Infographies structurées — Guides d’étude sourcés — Podcast audio de vos cours — Cartes mentales automatiques

Chaque réponse est ancrée dans vos propres sources — ce qui réduit drastiquement les hallucinations et vous force à rester dans le périmètre de ce que vous avez effectivement étudié. On ne consomme plus l’IA : on collabore avec elle pour extraire la substantifique moelle de ses propres notes.


Ce qu’il faut retenir

L’IA doit être un partenaire de vos efforts. Si vous lui demandez de faire le travail à votre place, vous n’apprenez rien. Si vous lui demandez de vous expliquer pourquoi, vous progressez — la recherche le confirme.

Méfiez-vous de la fluidité. Un texte bien écrit n’est pas forcément une vérité, ni une preuve que vous avez compris. L’illusion de compétence est réelle et documentée. Gardez votre esprit critique activé.

Le moment où vous introduisez l’IA compte autant que la fréquence. Engager d’abord votre propre cognition, puis solliciter l’outil : c’est cette séquence qui préserve — et peut même amplifier — les bénéfices de l’effort mental.

La méthode Feynman reste la meilleure boussole. La meilleure façon de savoir si vous avez vraiment compris quelque chose, c’est de l’expliquer simplement à quelqu’un d’autre. Utilisez l’IA pour tester vos explications — pas pour les remplacer.

Les effets négatifs sont réversibles. Ce n’est pas une fatalité. Dès qu’on reprend le contrôle actif d’une tâche, l’engagement cognitif remonte. La béquille ne devient permanente que si on oublie qu’on peut marcher sans elle.

Et vous, comment utilisez-vous l’IA pour booster vos neurones ?

On en discute en commentaires.


Notes de bas de page :

  1. High fluency can improve recognition sensitivity based on learned metacognitive expectations — étude sur l’illusion de compétence par fluidité de lecture. ↩︎
  2. pmc.ncbi.nlm.nih.gov/articles/PMC9530912 ↩︎
  3. wp.unil.ch — Impacts of AI on learning and teaching ↩︎
  4. pmc.ncbi.nlm.nih.gov/articles/PMC12333830 ↩︎
  5. Kosmyna et al. (2025), Your Brain on ChatGPT, MIT Media Lab — arXiv:2506.08872 (preprint, non encore peer-reviewed au moment de la diffusion). ↩︎
  6. The Conversation — la vérité est un peu plus compliquée ↩︎

Autres sources :

+ Wang & Zhang (2026), International Journal of Educational Technology in Higher Education — effets positifs de l’IA en posture collaborative.
+ Gerlich, M. (2025), AI Tools in Society: Impacts on Cognitive Offloading, MDPI Social Sciences — 666 participants, corrélation négative entre usage passif et pensée critique.
+ UNESCO (2023), recommandations sur l’IA générative en éducation.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *