- Uno studio condotto su oltre 1.300 americani (dai 18 agli 84 anni) mostra che la maggioranza non pensa che i messaggi personali possano essere generati dall’IA, anche se la utilizzano regolarmente.
- L’esperimento ha diviso i partecipanti in 4 gruppi: fonte sconosciuta, autore umano noto, autore IA noto o origine incerta.
- Quando sapevano che il messaggio era stato scritto dall’IA, i lettori davano valutazioni più negative come “pigro”, “poco sincero”, “poco sforzo”.
- Al contrario, lo stesso contenuto, se attribuito a un essere umano, veniva valutato come “sincero”, “premuroso” e “riconoscente”.
- In particolare, in assenza di informazioni sulla fonte, i lettori davano per scontato che l’autore fosse umano e fornivano valutazioni altrettanto positive.
- Gli utenti abituali di IA non si sono dimostrati più bravi a rilevarla, mostrando solo una leggera riduzione della valutazione negativa quando ne venivano a conoscenza.
- Il fenomeno dell'”AI disclosure penalty” (penalità per la divulgazione dell’IA) mostra che rivelare l’uso dell’IA riduce la credibilità, mentre l’uso silenzioso non viene rilevato.
- Ciò crea un paradosso etico: l’onestà viene penalizzata, mentre la dissimulazione offre un vantaggio.
- Questa tendenza potrebbe spingere i reclutatori a svalutare le lettere di presentazione e a passare a valutazioni basate su relazioni personali o incontri faccia a faccia.
📌 La ricerca mostra che gli esseri umani sono quasi “ciechi” di fronte ai contenuti generati dall’IA, con oltre 1.300 partecipanti che continuano a credere che i testi siano scritti da persone. Tuttavia, quando l’uso viene rivelato, le valutazioni calano drasticamente, creando un paradosso tra onestà e beneficio. Ciò potrebbe cambiare il modo in cui la società valuta la comunicazione scritta, riducendo la fiducia nei testi e aumentando il ruolo dell’interazione diretta nel lavoro e nella vita.
