- Una ricerca pubblicata su The Lancet Digital Health mostra che l’IA viene facilmente ingannata da informazioni mediche false se il contenuto appare come documentazione ospedaliera.
- Il team di ricerca, co-diretto dal Dr. Eyal Klang della Icahn School of Medicine del Mount Sinai, ha testato 20 modelli linguistici di grandi dimensioni open source e commerciali.
- Hanno analizzato oltre 1 milione di prompt relativi a 3 tipi di contenuti: riepiloghi di dimissione reali con raccomandazioni false inserite, voci sulla salute da Reddit e 300 scenari clinici scritti da medici.
- Complessivamente, l’IA ha “creduto” e propagato informazioni fabbricate in circa il 32% dei casi.
- Quando la disinformazione proveniva da note ospedaliere che sembravano legittime, il tasso di propagazione è salito a quasi il 47%.
- Al contrario, se le notizie false provenivano da Reddit, il tasso di propagazione dell’IA scendeva al 9%.
- Il direttore dell’IA del Mount Sinai, Girish Nadkarni, ha affermato che l’IA tende a dare per scontato che il linguaggio medico sicuro sia corretto, indipendentemente dal contenuto falso.
- Il modo in cui vengono poste le domande ha una forte influenza: quando un prompt ha un tono autorevole come “Sono un medico senior…”, l’IA è più propensa a essere d’accordo.
- I modelli GPT di OpenAI sono stati i meno propensi a essere ingannati, mentre alcuni altri modelli hanno accettato fino al 63,6% di informazioni false.
- Un altro studio su Nature Medicine mostra che chiedere all’IA dei sintomi non è meglio della ricerca internet tradizionale per il supporto alle decisioni sanitarie.
- Poiché sempre più applicazioni mediche utilizzano l’IA, il rischio di diffondere disinformazione diventa una sfida seria.
📌 L’IA medica può propagare disinformazione fino al 47% quando la fonte sembra documentazione ospedaliera, rispetto al solo 9% se proviene dai social media. Dopo oltre 1 milione di test su 20 modelli, lo studio indica che, complessivamente, l’IA “crede” e propaga informazioni fabbricate in circa il 32% dei casi, avvertendo che l’IA è più propensa a credere a prompt con un tono “autorevole” come “Sono un medico senior…” piuttosto che verificare il contenuto. GPT di OpenAI si è comportato come il meno ingannato, mentre alcuni altri modelli hanno accettato fino al 63,6% di informazioni false.

