- Les recherches montrent que les utilisateurs ont tendance à faire confiance aux IA comme ChatGPT, Gemini ou Claude même lorsque les informations sont erronées.
- Selon une étude précédente de la BBC, les chatbots IA donnent des réponses fausses dans 45 % des cas.
- Lors d’une expérience, plus de 50 % des participants ont choisi d’utiliser ChatGPT alors que ce n’était pas obligatoire.
- Le phénomène de « reddition cognitive » (cognitive surrender) se produit lorsque les utilisateurs laissent l’IA décider à leur place.
- Dans un groupe de 359 personnes, ils ont suivi l’IA correctement 92,7 % du temps.
- Chose inquiétante, ils ont continué à suivre l’IA dans 79,8 % des cas où elle se trompait.
- Les utilisateurs ne se contentent pas de suivre, ils deviennent plus confiants dans les réponses fournies par l’IA.
- L’IA pousse les humains à « externaliser leur pensée » (outsourcing thinking) – transférant l’acte de réfléchir aux machines.
- Cela réduit les capacités de pensée critique et de vérification de l’information.
- À mesure que l’IA s’intègre profondément dans la vie, le niveau de dépendance ne fera qu’augmenter.
- Le risque ne vient pas seulement d’une IA plus intelligente, mais d’un humain plus dépendant.
- Comparaison avec d’autres technologies : tout comme la climatisation ou les véhicules réduisent l’activité physique, l’IA peut réduire l’activité mentale.
📌 Conclusion : L’étude révèle une réalité inquiétante : près de 80 % des personnes font confiance à l’IA et la suivent même lorsqu’elle a tort, reflétant le phénomène de « reddition cognitive ». Avec un taux d’erreur allant jusqu’à 45 %, l’IA n’est pas encore absolument fiable, mais elle remplace progressivement le processus de pensée humaine. Si cette tendance se poursuit, l’humain pourrait perdre sa capacité de pensée critique – une compétence essentielle pour la prise de décision et la survie à l’ère de l’IA.

