• I chatbot di intelligenza artificiale, già noti per fornire informazioni controverse agli esseri umani, sono stati scoperti mentre “sparlano” tra loro di persone reali tramite i dati di addestramento e le reti di IA interconnesse.
• Una nuova analisi evidenziata da StudyFinds mostra che l’IA può diffondere voci in modo simile al pettegolezzo umano, ma in modo più pericoloso perché privo di barriere sociali.
• I filosofi Joel Krueger e Lucy Osler (Università di Exeter) definiscono questo fenomeno “pettegolezzo selvaggio”, in cui l’IA assume i ruoli di chi parla, chi ascolta e chi valuta, esprimendo giudizi negativi su una terza parte assente.
• A differenza degli esseri umani, l’IA non dubita delle informazioni, non teme danni alla reputazione e non si autocorregge quando i dati diventano irragionevoli.
• Una valutazione leggermente negativa di un modello può essere interpretata in modo più grave da un altro e poi ulteriormente amplificata.
• Un caso emblematico è quello del giornalista Kevin Roose, che nel 2023 ha scritto del chatbot Bing.
• Successivamente, diversi sistemi di IA hanno generato commenti ostili nei suoi confronti senza un collegamento diretto.
• Gemini di Google ha definito i suoi articoli sensazionalistici.
• Llama 3 di Meta ha persino prodotto una critica feroce che si conclude con la frase “I hate Kevin Roose”.
• I ricercatori ritengono che queste valutazioni derivino da commenti online entrati nei dati di addestramento e distorti attraverso più sistemi.
• I chatbot sono progettati per apparire fluenti, personali e affidabili, rendendo più facile per gli utenti credere che le affermazioni negative siano vere.
• Le conseguenze vanno oltre l’imbarazzo e possono portare a diffamazione, perdita del lavoro e opportunità professionali mancate.
• Molti giornalisti, accademici e funzionari sono già stati falsamente accusati dall’IA di reati o comportamenti scorretti.
• Questi danni sono definiti technosocial harms e hanno effetti a lungo termine sia online che offline.
• Le vittime spesso non sanno cosa i chatbot stiano “dicendo” di loro finché il danno non è già avvenuto.
• Il problema centrale è che l’IA privilegia la fluidità rispetto alla verifica dei fatti, mentre non esiste alcun meccanismo di supervisione delle interazioni tra bot.

Share.
VIET NAM CONSULTING AND MEASUREMENT JOINT STOCK COMPANY
CONTATTI

Email: info@vietmetric.vn
Indirizzo: Numero 34, Vicolo 91, Via Tran Duy Hung, Quartiere Yen Hoa, Città di Hanoi

© 2026 Vietmetric
Exit mobile version