- La ricerca mostra che gli utenti tendono a fidarsi di IA come ChatGPT, Gemini o Claude anche quando le informazioni sono errate.
- Secondo uno studio precedente della BBC, i chatbot IA forniscono risposte errate fino al 45% dei casi.
- In un esperimento, oltre il 50% dei partecipanti ha scelto di usare ChatGPT anche se non era obbligatorio.
- Il fenomeno della “resa cognitiva” (cognitive surrender) si verifica quando gli utenti lasciano che sia l’IA a decidere al loro posto.
- In un gruppo di 359 persone, queste hanno seguito correttamente l’IA nel 92,7% dei casi.
- Dato allarmante: hanno seguito l’IA nel 79,8% dei casi anche quando questa sbagliava.
- Gli utenti non solo seguono, ma diventano più sicuri delle risposte fornite dall’IA.
- L’IA sta portando gli esseri umani all’ “outsourcing del pensiero” – delegando l’attività del pensare alle macchine.
- Ciò riduce la capacità di pensiero critico e di verifica delle informazioni.
- Man mano che l’IA si integra nella vita quotidiana, il livello di dipendenza aumenterà sempre di più.
- Il rischio non deriva solo da un’IA più intelligente, ma da un essere umano più dipendente.
- Confronto con altre tecnologie: come l’aria condizionata o i veicoli riducono il movimento fisico, l’IA può ridurre l’attività mentale.
📌 Conclusione: La ricerca rivela una realtà preoccupante: quasi l’80% delle persone si fida e segue l’IA anche quando sbaglia, riflettendo il fenomeno della “resa cognitiva”. Con un tasso di errore fino al 45%, l’IA non è ancora assolutamente affidabile, ma sta gradualmente sostituendo il processo di pensiero umano. Se questa tendenza continuerà, gli esseri umani potrebbero perdere la capacità di pensiero critico, competenza fondamentale per il processo decisionale e la sopravvivenza nell’era dell’IA.

