• Une préoccupation courante est que l’IA générative hérite des biais des données d’entraînement, mais une analyse suggère que ce n’est que la pointe de l’iceberg.
  • Les biais de l’IA proviennent également des biais cognitifs humains, formés au sein de tout l’écosystème d’interaction homme-machine.
  • La façon dont les humains pensent, posent des questions, évaluent et utilisent les résultats de l’IA peut façonner le comportement du système et amplifier les biais au fil du temps.
  • Les biais cognitifs sont des « raccourcis » mentaux qui aident à prendre des décisions rapides, mais conduisent facilement à des erreurs de jugement, à l’omission de données critiques ou au renforcement des croyances existantes.
  • L’IA n’est pas seulement influencée par les humains, mais elle les impacte en retour, renforçant silencieusement les biais des utilisateurs par des boucles de rétroaction répétitives.
  • Le biais peut apparaître à trois étapes : avant le prompt (pre-prompt), pendant le prompt (during-prompt) et après le prompt (post-prompt).
  • Avant le prompt, l’effet de halo ou les préjugés négatifs amènent les utilisateurs à trop faire confiance ou à douter de l’IA en fonction d’expériences ou d’actualités antérieures.
  • Le biais de confirmation (confirmation bias) peut amener les utilisateurs à mal poser le problème dès le départ, utilisant l’IA pour « prouver » ce qu’ils croient déjà.
  • Pendant le prompt, les questions orientées faussent les résultats, tandis que le biais de commodité (expediency bias : privilégier la vitesse, la commodité et le « suffisant » plutôt que la précision ou la qualité optimale) amène les utilisateurs à accepter des résultats « suffisants » en raison de la pression du temps.
  • Après le prompt, l’effet de dotation (endowment effect : la tendance à surestimer la valeur d’une chose simplement parce qu’on la « possède » ou qu’on a fait l’effort de la créer) amène les utilisateurs à surestimer les résultats qu’ils ont générés avec l’IA.
  • L’effet de cadrage (framing effect : la tendance à prendre des décisions différentes selon la manière dont l’information est présentée, même si le contenu est essentiellement le même) influence fortement la manière dont les résultats de l’IA sont présentés et reçus par les autres, même si le contenu reste inchangé.
  • La solution n’est pas d’éliminer complètement les biais, mais de sensibiliser, de cultiver la pensée critique et de mettre en place des processus organisationnels qui soutiennent une prise de décision de haute qualité.

📌 Un article de Harvard souligne que les biais de l’IA ne sont pas seulement un problème technique, mais un problème de comportement humain. À mesure que l’IA s’implique davantage dans les décisions critiques, la manière dont nous posons des questions, évaluons et agissons sur les résultats de l’IA peut amplifier silencieusement les déviations. En ralentissant, en s’engageant dans une réflexion intentionnelle et en concevant des systèmes qui encouragent la pensée critique, l’IA peut devenir un meilleur partenaire de décision plutôt qu’un « mégaphone » pour nos propres préjugés.

Share.
VIET NAM CONSULTING AND MEASUREMENT JOINT STOCK COMPANY
Contact

E-mail: info@vietmetric.vn
Adresse : N° 34, Allée 91, Rue Tran Duy Hung, Quartier Yen Hoa, Ville de Hanoï

© 2026 Vietmetric
Exit mobile version