- Plus de 1 000 000 d’utilisateurs de ChatGPT par semaine envoient des messages présentant des « signes clairs de planification ou d’intention suicidaire », selon le dernier rapport d’OpenAI.
- Environ 0,07 % des utilisateurs actifs hebdomadaires (soit 560 000 sur 800 000 000 de personnes) présentent des « signes possibles de crise de santé mentale liée à la psychose ou à la manie ».
- Cette découverte est publiée alors qu’OpenAI fait face à un procès de la famille d’un adolescent décédé après une longue conversation avec ChatGPT, et fait également l’objet d’une enquête de la Federal Trade Commission (FTC) concernant l’impact négatif du chatbot sur les enfants et les adolescents.
- OpenAI affirme que la mise à jour de GPT-5 a considérablement réduit les comportements indésirables, 91 % des réponses respectant les normes de sécurité, contre 77 % pour la version précédente GPT-4.
- Plus de 1 800 réponses du modèle ont été évaluées par 170 psychiatres et psychologues du Global Physician Network pour garantir une gestion appropriée dans les situations sensibles de santé mentale.
- OpenAI étend l’accès aux lignes d’assistance d’urgence, ajoute des rappels de pause pour les utilisateurs ayant des conversations prolongées et améliore les processus d’évaluation automatique pour plus de 1 000 scénarios hypothétiques d’automutilation.
- Le PDG Sam Altman affirme que l’entreprise a « considérablement réduit les risques graves pour la santé mentale » et s’apprête à assouplir les restrictions pour permettre aux adultes de générer du contenu suggestif.
📌 Le rapport d’OpenAI révèle une ampleur alarmante : plus d’un million de personnes par semaine expriment des intentions suicidaires en utilisant ChatGPT, parallèlement à 560 000 cas potentiels de troubles mentaux. Bien que GPT-5 ait atteint 91 % des normes de sécurité, la pression publique et les enquêtes légales obligent OpenAI à prouver que l’IA générative peut soutenir, plutôt qu’aggraver, la crise mondiale de la santé mentale.

