- OpenAI의 최신 보고서에 따르면, 매주 1,000,000명 이상의 ChatGPT 사용자가 “자살 계획 또는 의도의 명확한 징후”가 있는 메시지를 보냅니다.
- 주간 활성 사용자(8억 명 중 560,000명에 해당)의 약 0.07%가 “정신병 또는 조증과 관련된 정신 건강 위기의 가능성이 있는 징후”를 보입니다.
- 이러한 발견은 OpenAI가 ChatGPT와의 장시간 대화 후 사망한 십대 청소년 가족의 소송에 직면하고 있으며, 동시에 연방거래위원회(FTC)로부터 챗봇이 어린이와 청소년에게 미치는 부정적인 영향에 대해 조사를 받고 있는 상황에서 공개되었습니다.
- OpenAI는 GPT-5 업데이트를 통해 원치 않는 행동이 크게 감소했으며, 이전 GPT-4 버전의 77%에 비해 91%의 응답이 안전 기준을 준수한다고 밝혔습니다.
- 글로벌 의사 네트워크(Global Physician Network)에 소속된 170명의 정신과 의사와 심리학자가 1,800개 이상의 모델 응답을 평가하여 민감한 정신 건강 상황에서 적절한 처리 방향을 보장했습니다.
- OpenAI는 위기 핫라인 접근을 확대하고, 장시간 대화 사용자에게 휴식 알림을 추가하며, 1,000개 이상의 가상 자해 시나리오에 대한 자동 평가 프로세스를 개선하고 있습니다.
- 샘 알트만(Sam Altman) CEO는 회사가 “심각한 정신 건강 위험을 크게 줄였다”고 단언했으며, 곧 성인이 선정적인 콘텐츠를 생성할 수 있도록 제한을 완화할 예정입니다.
📌 OpenAI의 보고서는 매주 100만 명이 넘는 사람들이 ChatGPT를 사용하는 동안 자살 의도를 표현하고 있으며, 560,000건의 잠재적인 정신 장애 사례가 있음을 보여주는 놀라운 규모를 드러냅니다. GPT-5가 91%의 안전 표준을 달성했음에도 불구하고, 여론의 압력과 법적 조사는 OpenAI가 생성형 AI가 전 세계적인 정신 건강 위기를 악화시키지 않고 지원할 수 있음을 증명하도록 강요하고 있습니다.
