- La relation d’amour-haine avec l’IA ne provient pas de la technologie, mais de la manière dont les humains perçoivent le risque et le contrôle. Nous faisons confiance à ce que nous comprenons, mais l’IA est une « boîte noire » – on entre une commande, le résultat apparaît sans voir le processus. Cette ambiguïté fait ressentir aux utilisateurs une perte de contrôle.
- Le phénomène d’« aversion à l’algorithme » (algorithm aversion) montre que les humains choisissent souvent l’erreur humaine plutôt que l’erreur de la machine. Il suffit de voir l’IA se tromper une fois, et la confiance s’effondre beaucoup plus rapidement que lorsque c’est un humain qui se trompe.
- Lorsque l’IA est trop « polie » ou « devine correctement » les préférences, les utilisateurs peuvent ressentir un frisson dans le dos en raison du phénomène d’« anthropomorphisme » – l’attribution d’émotions ou d’intentions humaines à la machine.
- Inversement, lorsque l’IA commet des erreurs ou manifeste des biais, la réaction négative est plus forte car elle viole l’attente d’objectivité. Les humains pardonnent les erreurs humaines, mais sont moins indulgents envers celles des machines.
- Dans les professions comme l’enseignement, l’écriture, le droit ou le design, l’IA éveille une « menace identitaire » – le sentiment que la valeur professionnelle et le soi sont remplacés. La suspicion devient un mécanisme de défense psychologique.
- Le manque de signaux émotionnels comme la voix, le regard ou l’hésitation rend la communication avec l’IA « sans âme », évoquant la sensation de « vallée dérangeante » (uncanny valley) – presque humain mais avec une déviation désagréable.
- Tous ceux qui doutent de l’IA ne sont pas irrationnels : le biais algorithmique dans l’embauche, le crédit ou la sécurité est une réalité. Les personnes qui ont été lésées par le système forment une « méfiance apprise » (learned distrust) – une méfiance fondée à des fins de protection.
- Pour que les humains fassent confiance à l’IA, celle-ci doit être transparente, interrogeable, responsable et donner aux utilisateurs un sentiment de partenariat, plutôt que de manipulation.
📌 L’acceptation ou la peur de l’IA provient de la psychologie du contrôle, de l’identité et de l’expérience de la confiance. Tant que l’IA reste une « boîte noire », les gens resteront réservés. Ce n’est que lorsque la technologie deviendra transparente, permettant de demander, de comprendre et d’intervenir, que l’IA sera considérée comme un partenaire fiable, et non comme une menace froide.
