- L’amore-odio per l’IA non deriva dalla tecnologia, ma da come gli esseri umani percepiscono il rischio e il controllo. Ci fidiamo di ciò che capiamo, ma l’IA è una “scatola nera”: si inserisce un comando, il risultato appare, ma il processo non si vede. Questa ambiguità fa sentire agli utenti una perdita di controllo.
- Il fenomeno dell’«avversione agli algoritmi» (algorithm aversion) mostra che le persone scelgono spesso l’errore umano piuttosto che l’errore della macchina. Basta vedere l’IA sbagliare una volta, e la fiducia crolla molto più rapidamente che quando sbaglia un essere umano.
- Quando l’IA è eccessivamente “educata” o “indovina correttamente” le preferenze, gli utenti possono sentire un brivido a causa del fenomeno dell’«antropomorfismo» – l’attribuzione di emozioni o intenzioni umane a una macchina.
- Al contrario, quando l’IA commette errori o mostra pregiudizi, la reazione negativa è più forte perché viola l’aspettativa di obiettività. Gli esseri umani perdonano gli errori umani, ma sono meno indulgenti con quelli delle macchine.
- Nelle professioni come l’insegnamento, la scrittura, la legge o il design, l’IA suscita la «minaccia all’identità» – la sensazione che il proprio valore professionale e il proprio sé vengano sostituiti. Il sospetto diventa un meccanismo di autodifesa psicologica.
- La mancanza di segnali emotivi come la voce, lo sguardo o l’esitazione rende la comunicazione con l’IA “senz’anima”, evocando la sensazione di «valle perturbante» (uncanny valley) – quasi umano ma con una deviazione sgradevole.
- Non tutti coloro che dubitano dell’IA sono irragionevoli: il pregiudizio algoritmico nell’assunzione, nel credito o nella sicurezza è una realtà. Le persone che sono state danneggiate dal sistema formano una «sfiducia appresa» (learned distrust) – una diffidenza fondata per protezione.
- Affinché le persone si fidino dell’IA, questa deve essere trasparente, interrogabile, responsabile e dare agli utenti la sensazione di essere un partner, non di essere manipolati.
📌 L’accettazione o la paura dell’IA derivano dalla psicologia del controllo, dell’identità e dell’esperienza della fiducia. Finché l’IA rimane una “scatola nera”, le persone saranno caute. Solo quando la tecnologia diventerà trasparente, permettendo agli utenti di chiedere, capire e intervenire, l’IA sarà vista come un partner affidabile, anziché una fredda minaccia.

