- Deloitte ha recentemente dovuto rimborsare 291.000 USD al governo australiano dopo essere stata scoperta a utilizzare ChatGPT per scrivere rapporti di conformità contenenti citazioni e casi falsificati. L’IA non è “sbagliata” — si limita a eseguire le richieste. L’errore appartiene agli esseri umani, coloro che smettono di pensare e delegano la propria intelligenza alle macchine.
- Il problema non risiede nella tecnologia, ma nel modo in cui l’uomo la utilizza. Similmente al concetto di “educazione bancaria” di Paulo Freire, dove lo studente si limita a “depositare domande – prelevare risposte”, gli esperti di Deloitte hanno presentato richieste e prelevato spazzatura confezionata in un formato professionale.
- L’ipocrisia nell’istruzione: Un rapporto Anthropic del 2025 mostra che il 48,9% dei professori automatizza la valutazione con l’IA, sebbene assegnino voti bassi agli studenti che fanno lo stesso. Gli insegnanti usano l’IA per preparare lezioni, gli studenti per scrivere saggi – ma solo questi ultimi sono considerati imbroglioni. Il risultato: gli studenti imparano a nascondere l’uso dell’IA, non a usarla in modo responsabile.
- Debito cognitivo (cognitive debt): La ricerca del MIT indica che gli utenti frequenti di LLM hanno connessioni neurali più deboli, dimenticano il contenuto che hanno scritto e sentono meno la proprietà intellettuale. Il loro cervello impara che non è necessario pensare, perché “l’IA ha già fatto tutto”. Dopo quattro mesi, questo gruppo ha mostrato una riduzione delle prestazioni linguistiche, cognitive e comportamentali.
- Conseguenze: gli studenti non riescono a spiegare le proprie scelte, reagiscono in modo difensivo quando viene chiesto loro il motivo e perdono la connessione con il processo di apprendimento. In superficie, lo scritto è curato, ma all’interno è vuoto.
- Soluzione di prompting dialogico (dialogic prompting): Quando gli studenti considerano l’IA come un “partner di dialogo”, tutto cambia. Pongono domande critiche, si auto-verificano con prove personali, discutono tra loro, e riconoscono i propri limiti.
- Esempio: invece di chiedere “Analizza il simbolismo ne Il Grande Gatsby”, chiedi “Lascia che l’IA analizzi prima, poi critica e correggi quell’analisi. Quali ipotesi fa l’IA? Dove potrebbe sbagliare? Collega ciò alla tua esperienza reale.”
- Questo processo richiede più tempo, ma allena le abilità di pensiero di ordine superiore: interrogare, verificare, sintetizzare e interpretare.
- Il ruolo degli insegnanti: Non si può predicare l’etica dell’IA automatizzando segretamente la valutazione. È necessaria la trasparenza – mostrare agli studenti come gli insegnanti usano l’IA, i motivi per cui rifiutano un output, come aggiungere elementi umani. L’obiettivo non è nascondere la tecnologia, ma dimostrare il pensiero critico quando la si utilizza.
📌 L’errore di 291.000 dollari di Deloitte non è stato un incidente, ma un campanello d’allarme: quando gli esseri umani smettono di pensare e lasciano che l’IA pensi per loro, creiamo una generazione di professionisti “spazzatura di dati”. Insegnare il pensiero critico oggi non è più insegnare a “combattere l’IA”, ma insegnare il dialogo, la verifica e il processo decisionale con l’IA — affinché la prossima generazione sappia ancora pensare, anziché limitarsi a digitare comandi.

