• Secondo l’ultimo rapporto di OpenAI, oltre 1.000.000 di utenti ChatGPT a settimana inviano messaggi con “chiari segnali di pianificazione o intenzione suicida”.
  • Circa lo 0,07% degli utenti attivi settimanali (equivalente a 560.000 su 800.000.000 di persone) mostra “possibili segni di crisi di salute mentale legata a psicosi o mania”.
  • Questa scoperta viene resa pubblica mentre OpenAI deve affrontare una causa legale da parte della famiglia di un adolescente deceduto dopo una lunga chat con ChatGPT, ed è anche sotto indagine della Federal Trade Commission (FTC) per l’impatto negativo del chatbot su bambini e adolescenti.
  • OpenAI afferma che l’aggiornamento GPT-5 ha ridotto significativamente i comportamenti indesiderati, con il 91% delle risposte che aderiscono agli standard di sicurezza, rispetto al 77% della precedente versione GPT-4.
  • Oltre 1.800 risposte del modello sono state valutate da 170 psichiatri e psicologi del Global Physician Network per garantire una gestione appropriata in situazioni delicate di salute mentale.
  • OpenAI sta espandendo l’accesso alle linee di crisi, aggiungendo promemoria di pausa per gli utenti in conversazioni lunghe e migliorando i processi di valutazione automatica per oltre 1.000 scenari ipotetici di autolesionismo.
  • Il CEO Sam Altman afferma che l’azienda ha “ridotto significativamente i gravi rischi per la salute mentale” e sta per allentare le restrizioni, consentendo agli adulti di creare contenuti suggestivi di natura sessuale.

📌 Il rapporto di OpenAI espone una portata allarmante: oltre 1 milione di persone a settimana esprimono intenti suicidi quando usano ChatGPT, insieme a 560.000 potenziali casi di disturbi mentali. Nonostante GPT-5 abbia raggiunto il 91% di standard di sicurezza, la pressione pubblica e le indagini legali stanno costringendo OpenAI a dimostrare che l’IA generativa può supportare, anziché esacerbare, la crisi globale della salute mentale.

Share.
© 2025 Vietmetric
Exit mobile version