- Une étude portant sur plus de 1 300 Américains (âgés de 18 à 84 ans) montre que la majorité ne pense pas que les messages personnels puissent être générés par l’IA, même s’ils l’utilisent régulièrement.
- L’expérience a divisé les participants en 4 groupes : source inconnue, auteur humain connu, auteur IA connu ou origine incertaine.
- Lorsqu’ils savaient qu’un message était écrit par l’IA, les lecteurs le jugeaient plus négativement, le qualifiant de « paresseux », « peu sincère » ou « manquant d’effort ».
- À l’inverse, le même contenu, s’il était attribué à un humain, était jugé « sincère », « attentionné » et « reconnaissant ».
- Il est à noter qu’en l’absence d’information sur la source, les lecteurs croyaient par défaut que l’auteur était humain et donnaient des évaluations positives similaires.
- Les utilisateurs réguliers d’IA n’étaient pas plus performants pour la détection ; ils réduisaient seulement légèrement leur évaluation négative en apprenant la présence de l’IA.
- Le phénomène de la « pénalité de divulgation de l’IA » montre que révéler l’usage de l’IA réduit la crédibilité, alors qu’une utilisation silencieuse n’est pas détectée.
- Cela crée un paradoxe éthique : l’honnêteté est pénalisée, tandis que la dissimulation offre un avantage.
- Cette tendance pourrait inciter les recruteurs à dévaluer les lettres de motivation et à se tourner vers des évaluations via des relations personnelles ou des rencontres physiques.
📌 La recherche montre que les humains sont presque « aveugles » face au contenu généré par l’IA, plus de 1 300 participants croyant par défaut que les textes sont écrits par des humains. Cependant, lorsqu’elle est révélée, l’évaluation chute nettement, créant un paradoxe entre honnêteté et intérêt. Cela pourrait changer la façon dont la société évalue la communication écrite, entraînant une baisse de confiance envers les textes et renforçant le rôle des interactions directes dans le travail et la vie.
