- Hơn 1.000.000 người dùng ChatGPT mỗi tuần gửi tin nhắn có “dấu hiệu rõ ràng của kế hoạch hoặc ý định tự tử”, theo báo cáo mới nhất của OpenAI.
- Khoảng 0,07% người dùng hoạt động hàng tuần (tương đương 560.000/800.000.000 người) thể hiện “dấu hiệu có thể của khủng hoảng tâm thần liên quan đến loạn thần hoặc hưng cảm”.
- Phát hiện này được công bố trong bối cảnh OpenAI đang đối mặt với vụ kiện từ gia đình một thiếu niên tử vong sau khi trò chuyện dài với ChatGPT, đồng thời bị Ủy ban Thương mại Liên bang (FTC) điều tra về tác động tiêu cực của chatbot đối với trẻ em và thanh thiếu niên.
• OpenAI cho biết bản cập nhật GPT-5 đã giảm đáng kể các hành vi không mong muốn, với 91% phản hồi tuân thủ chuẩn an toàn, so với 77% ở phiên bản GPT-4 trước đó. - Hơn 1.800 phản hồi của mô hình được 170 bác sĩ tâm thần và nhà tâm lý học trong Global Physician Network đánh giá để đảm bảo hướng xử lý phù hợp trong các tình huống nhạy cảm về sức khỏe tâm thần.
- OpenAI mở rộng quyền truy cập đến đường dây nóng khủng hoảng, thêm nhắc nhở nghỉ ngơi cho người dùng trò chuyện dài, và cải thiện quy trình đánh giá tự động trong hơn 1.000 tình huống tự hại giả định.
- CEO Sam Altman khẳng định công ty đã “giảm thiểu rủi ro sức khỏe tâm thần nghiêm trọng”, và sắp nới lỏng các hạn chế, cho phép người trưởng thành tạo nội dung gợi cảm.
📌 Báo cáo của OpenAI phơi bày quy mô đáng báo động: hơn 1 triệu người mỗi tuần thể hiện ý định tự tử khi dùng ChatGPT, cùng 560.000 ca tiềm ẩn rối loạn tâm thần. Dù GPT-5 đạt 91% chuẩn an toàn, áp lực dư luận và điều tra pháp lý đang buộc OpenAI phải chứng minh rằng AI tạo sinh có thể hỗ trợ, chứ không làm trầm trọng thêm khủng hoảng tinh thần toàn cầu.
Tổng hợp.

