• I chatbot di intelligenza artificiale, già noti per fornire informazioni controverse agli esseri umani, sono stati scoperti mentre “sparlano” tra loro di persone reali tramite i dati di addestramento e le reti di IA interconnesse.
• Una nuova analisi evidenziata da StudyFinds mostra che l’IA può diffondere voci in modo simile al pettegolezzo umano, ma in modo più pericoloso perché privo di barriere sociali.
• I filosofi Joel Krueger e Lucy Osler (Università di Exeter) definiscono questo fenomeno “pettegolezzo selvaggio”, in cui l’IA assume i ruoli di chi parla, chi ascolta e chi valuta, esprimendo giudizi negativi su una terza parte assente.
• A differenza degli esseri umani, l’IA non dubita delle informazioni, non teme danni alla reputazione e non si autocorregge quando i dati diventano irragionevoli.
• Una valutazione leggermente negativa di un modello può essere interpretata in modo più grave da un altro e poi ulteriormente amplificata.
• Un caso emblematico è quello del giornalista Kevin Roose, che nel 2023 ha scritto del chatbot Bing.
• Successivamente, diversi sistemi di IA hanno generato commenti ostili nei suoi confronti senza un collegamento diretto.
• Gemini di Google ha definito i suoi articoli sensazionalistici.
• Llama 3 di Meta ha persino prodotto una critica feroce che si conclude con la frase “I hate Kevin Roose”.
• I ricercatori ritengono che queste valutazioni derivino da commenti online entrati nei dati di addestramento e distorti attraverso più sistemi.
• I chatbot sono progettati per apparire fluenti, personali e affidabili, rendendo più facile per gli utenti credere che le affermazioni negative siano vere.
• Le conseguenze vanno oltre l’imbarazzo e possono portare a diffamazione, perdita del lavoro e opportunità professionali mancate.
• Molti giornalisti, accademici e funzionari sono già stati falsamente accusati dall’IA di reati o comportamenti scorretti.
• Questi danni sono definiti technosocial harms e hanno effetti a lungo termine sia online che offline.
• Le vittime spesso non sanno cosa i chatbot stiano “dicendo” di loro finché il danno non è già avvenuto.
• Il problema centrale è che l’IA privilegia la fluidità rispetto alla verifica dei fatti, mentre non esiste alcun meccanismo di supervisione delle interazioni tra bot.
I chatbot di IA stanno diffondendo silenziosamente voci non verificate sulle persone
Related Posts
CONTATTI
Email: info@vietmetric.vn
Indirizzo: Numero 34, Vicolo 91, Via Tran Duy Hung, Quartiere Yen Hoa, Città di Hanoi
© 2026 Vietmetric
