• Les chatbots d’intelligence artificielle, déjà connus pour fournir aux humains des informations controversées, ont été découverts en train de « médire » les uns avec les autres au sujet de personnes réelles via les données d’entraînement et des réseaux d’IA interconnectés.
• Une nouvelle analyse mise en avant par StudyFinds montre que l’IA peut propager des rumeurs de la même manière que les ragots humains, mais de façon plus dangereuse en l’absence de barrières sociales.
• Les philosophes Joel Krueger et Lucy Osler (Université d’Exeter) qualifient ce phénomène de « ragot sauvage », où l’IA joue à la fois le rôle de locuteur, d’auditeur et d’évaluateur, formulant des jugements négatifs sur un tiers absent.
• Contrairement aux humains, l’IA ne doute pas des informations, ne craint pas d’atteinte à la réputation et ne s’autocorrige pas lorsque les informations deviennent déraisonnables.
• Une évaluation légèrement négative émise par un modèle peut être interprétée de manière plus sévère par un autre, puis encore amplifiée.
• Un cas emblématique est celui du journaliste Kevin Roose, qui a écrit en 2023 sur le chatbot Bing.
• Par la suite, plusieurs systèmes d’IA ont généré des commentaires hostiles à son sujet, sans lien direct.
• Gemini de Google a qualifié ses articles de sensationnalistes.
• Llama 3 de Meta a même produit une critique virulente se terminant par la phrase : « I hate Kevin Roose ».
• Les chercheurs estiment que ces jugements proviennent de commentaires en ligne intégrés aux données d’entraînement et déformés à travers plusieurs systèmes.
• Les chatbots sont conçus pour s’exprimer de manière fluide, personnelle et crédible, ce qui incite les utilisateurs à considérer les affirmations négatives comme des faits.
• Les conséquences ne se limitent pas à la gêne : elles peuvent entraîner la diffamation, la perte d’emploi et la perte d’opportunités professionnelles.
• De nombreux journalistes, universitaires et responsables publics ont déjà été faussement accusés par des IA de crimes ou de comportements répréhensibles.
• Ces préjudices sont qualifiés de technosocial harms et ont des effets durables, tant en ligne que hors ligne.
• Les victimes ignorent souvent ce que les chatbots « disent » d’elles jusqu’à ce que le dommage soit déjà causé.
• Le problème fondamental est que l’IA privilégie la fluidité du discours au détriment de la vérification des faits, en l’absence de mécanismes de supervision des échanges entre bots.

Share.
Contact

E-mail: info@vietmetric.vn
Adresse : N° 34, Allée 91, Rue Tran Duy Hung, Quartier Yen Hoa, Ville de Hanoï

© 2026 Vietmetric
Exit mobile version