- 根据OpenAI的最新报告,每周有超过1,000,000名ChatGPT用户发送带有“明确自杀计划或意图迹象”的消息。
- 大约0.07%的每周活跃用户(相当于800,000,000人中的560,000人)表现出“可能与精神病或躁狂症相关的精神危机迹象”。
- 这一发现公布之际,OpenAI正面临一名少年家庭的诉讼,该少年在与ChatGPT进行长时间聊天后死亡,同时联邦贸易委员会(FTC)也在调查聊天机器人对儿童和青少年的负面影响。
- OpenAI表示,GPT-5更新已显著减少了不良行为,其响应中91%符合安全标准,而之前的GPT-4版本为77%。
- 全球医师网络(Global Physician Network)的170名精神病学家和心理学家对超过1,800个模型响应进行了评估,以确保在敏感精神健康情况下的处理方向是适当的。
- OpenAI正在扩大对危机热线的访问权限,为长时间聊天的用户添加休息提醒,并改进了针对1,000多种假定自残情况的自动评估流程。
- 首席执行官山姆·奥特曼(Sam Altman)坚称公司已“显著降低了严重的精神健康风险”,并即将放松限制,允许成年人创建露骨内容。
📌 OpenAI的报告揭示了一个惊人的规模:每周有超过100万人使用ChatGPT时表达自杀意图,同时还有560,000例潜在的精神障碍病例。尽管GPT-5达到了91%的安全标准,但公众压力和法律调查正迫使OpenAI证明生成式AI可以支持而非加剧全球精神健康危机。

