- Deloitte a récemment dû rembourser 291 000 USD au gouvernement australien après avoir été découvert à utiliser ChatGPT pour rédiger des rapports de conformité contenant des citations et des cas falsifiés. L’IA n’est pas « fautive » — elle se contente d’exécuter des requêtes. L’erreur incombe aux humains, ceux qui cessent de penser et délèguent leur intellect aux machines.
- Le problème ne réside pas dans la technologie, mais dans la manière dont les humains l’utilisent. À l’image du concept d’« éducation bancaire » de Paulo Freire, où les apprenants ne font que « déposer des questions – retirer des réponses », les experts de Deloitte ont soumis des requêtes et ont retiré des informations de mauvaise qualité présentées dans un format professionnel.
- L’hypocrisie dans l’éducation : Un rapport Anthropic de 2025 montre que 48,9 % des professeurs automatisent la notation avec l’IA, même s’ils donnent de mauvaises notes aux étudiants qui font la même chose. Les enseignants utilisent l’IA pour préparer les plans de cours, les étudiants pour rédiger des dissertations – mais seuls ces derniers sont considérés comme trichant. Résultat : les étudiants apprennent à cacher leur utilisation de l’IA, et non à utiliser l’IA de manière responsable.
- Dette cognitive (cognitive debt) : La recherche du MIT indique que les utilisateurs fréquents de LLM ont des connexions neurales plus faibles, oublient le contenu qu’ils ont écrit et ressentent moins de propriété intellectuelle. Leur cerveau apprend qu’il n’est pas nécessaire de penser, car « l’IA l’a déjà fait ». Après quatre mois, ce groupe a montré une réduction des performances linguistiques, cognitives et comportementales.
- Conséquences : les étudiants ne peuvent pas expliquer leurs choix, réagissent de manière défensive lorsqu’on leur demande des raisons et perdent le lien avec le processus d’apprentissage. En surface, l’écriture est soignée, mais à l’intérieur, elle est vide.
- Solution de la sollicitation dialogique (dialogic prompting) : Lorsque les étudiants considèrent l’IA comme un « partenaire de dialogue », tout change. Ils posent des questions critiques, s’auto-vérifient avec des preuves personnelles, débattent entre eux et reconnaissent leurs propres limites.
- Exemple : Au lieu de demander « Analysez le symbolisme dans Gatsby le Magnifique », demandez « Laissez l’IA analyser en premier, puis critiquez et corrigez cette analyse. Quelles hypothèses fait l’IA ? Où pourrait-elle se tromper ? Reliez cela à votre expérience réelle. »
- Ce processus prend plus de temps, mais entraîne des compétences de pensée d’ordre supérieur : questionner, vérifier, synthétiser et interpréter.
- Le rôle des enseignants : Il est impossible de prêcher l’éthique de l’IA tout en automatisant secrètement la notation. La transparence est nécessaire – montrer aux étudiants comment les enseignants utilisent l’IA, les raisons de rejeter les résultats, comment ajouter des éléments humains. L’objectif n’est pas de cacher la technologie, mais de démontrer la pensée critique lors de son utilisation.
📌 L’erreur de 291 000 USD de Deloitte n’était pas un accident, mais un signal d’alarme : lorsque les humains cessent de penser et laissent l’IA penser à leur place, nous créons une génération de professionnels du « déchet de données ». Enseigner la pensée critique aujourd’hui ne consiste plus à « lutter contre l’IA », mais à enseigner le dialogue, la vérification et la prise de décision avec l’IA — afin que la prochaine génération sache encore penser, au lieu de simplement taper des commandes.
