- Ancora una volta, Deloitte – una delle Big Four – viene criticata per errori legati all’uso dell’IA in un rapporto di consulenza per il governo.
- Questa volta il rapporto è stato preparato da Deloitte per il governo del Canada, al fine di valutare i servizi sanitari nella provincia di Terranova e Labrador.
- Secondo le fonti, il documento conteneva gravi errori fattuali.
- Gli errori includevano descrizioni inaccurate e l’errata identificazione di ospedali e strutture sanitarie.
- I sospetti indicano che Deloitte abbia utilizzato l’IA per generare il contenuto del rapporto.
- Dopo essere stata scoperta, Deloitte ha dichiarato di “sostenere pienamente le raccomandazioni” fatte nel rapporto, nonostante gli errori dovuti all’IA generativa.
- Un portavoce di Deloitte Canada ha detto a The Independent che gli errori erano principalmente nella sezione delle citazioni.
- Deloitte ha affermato che questi errori non hanno influito sul contenuto generale e sulle conclusioni del rapporto.
- Non è la prima volta che Deloitte ha problemi a causa dell’IA.
- In precedenza, l’Australian Financial Review aveva riportato errori di IA nei documenti di Deloitte in Australia.
- Un rappresentante anonimo di Deloitte Canada ha ammesso che l’azienda si assume la piena responsabilità della qualità del lavoro.
- Deloitte si è impegnata a migliorare il sistema di governance e supervisione dell’uso dell’IA in futuro.
- È riconosciuto che l’IA porta grandi benefici, specialmente nell’elaborazione di enormi volumi di dati contabili.
- Tuttavia, Deloitte ha anche ammesso che questa tecnologia non può ancora garantire un’accuratezza assoluta.
- Gli esperti non possono fare affidamento al 100% sull’IA senza il controllo e la valutazione umana.
- L’incidente solleva preoccupazioni sull’affidabilità dei rapporti di consulenza assistiti dall’IA nel settore pubblico.
- La reputazione di Deloitte continua a essere messa in discussione mentre gli errori dell’IA si ripetono in molti paesi.
- Questo caso riflette la sfida comune del settore della revisione e della consulenza nell’applicazione dell’IA generativa.
- I governi potrebbero dover rafforzare i processi di supervisione per i rapporti forniti da terze parti.
- L’IA sta diventando uno strumento potente ma è anche un rischio in mancanza di controllo umano.
📌 Ancora una volta, Deloitte – una delle Big Four – viene criticata per errori legati all’uso dell’IA in un rapporto di consulenza per il governo. Gli errori includevano descrizioni inaccurate e l’errata identificazione di ospedali e strutture sanitarie. Dopo essere stata scoperta, Deloitte ha dichiarato di “sostenere pienamente le raccomandazioni” fatte nel rapporto, nonostante gli errori dovuti all’IA generativa, situati principalmente nella sezione delle citazioni. L’incidente solleva preoccupazioni sull’affidabilità dei rapporti di consulenza assistiti dall’IA nel settore pubblico.

