- Uno studio condotto su 27.491 persone dimostra che le opere etichettate come generate dall’IA ricevono sempre valutazioni inferiori, anche se il contenuto è identico.
- L’esperimento consisteva in 16 studi diversi su poesie, racconti brevi e vari stili, ma i risultati sono stati coerenti: l’IA viene “penalizzata”.
- Quando i lettori sanno che un testo è scritto dall’IA, valutano più bassi la qualità, la creatività e il grado di gradimento.
- Questo effetto non dipende dal contenuto, dal genere o dalla prospettiva (prima persona, terza persona…).
- Anche quando viene valutata secondo criteri logici e oggettivi anziché emotivi, l’IA riceve comunque punteggi più bassi.
- “Umanizzare” l’IA (dandole un nome o descrivendola con emozioni) o spiegare le sue elevate capacità non riduce il pregiudizio.
- Gli utenti non provano “sentimenti contrastanti”, ma semplicemente valutano più negativamente l’opera una volta nota l’origine artificiale.
- Anche dicendo che l’uomo ha usato l’IA come strumento di supporto, l’opera riceve punteggi bassi come se fosse stata scritta interamente dall’IA.
- La causa principale è la percezione di una “mancanza di autenticità” (authenticity) nel prodotto creato dall’IA.
- Questo fenomeno è molto “radicato” e difficile da cambiare, nonostante vari tentativi di intervento psicologico.
📌 Sebbene l’IA possa scrivere come un essere umano al punto da essere indistinguibile, la psicologia umana rimane strettamente legata al valore dell’ “autenticità”. Con oltre 27.000 partecipanti e 16 esperimenti, i risultati mostrano che la sola consapevolezza dell’origine artificiale fa calare drasticamente la valutazione. Ciò indica che l’ostacolo maggiore per l’IA non è solo la tecnologia, ma la percezione sociale, dove l’uomo privilegia ancora la creatività che porta l’impronta umana rispetto a quella delle macchine.

