- 2026年推出了一系列医疗AI工具,如微软的Copilot Health、亚马逊的Health AI、OpenAI的ChatGPT Health以及Claude,允许用户咨询健康问题并访问个人医疗记录。
- 需求巨大:仅Copilot每天就收到多达5000万次健康咨询,表明AI正成为许多人的“首选医生”。
- AI具有通过支持分诊(triage)来减轻医疗系统负担的潜力,帮助患者决定是否需要就医。
- 然而,西奈山(Mount Sinai)的研究发现,AI有时会对轻症建议过度治疗,却忽略了紧急情况,引发了安全担忧。
- 专家警告称,在没有独立测试的情况下大规模部署是巨大风险,因为企业的自我评估可能存在“盲点”。
- 缺乏医学知识的用户可能会提供错误信息或误解AI的回复,导致诊断不准确。
- HealthBench等基准测试显示,AI已有显著进步但仍不完美,特别是在向用户追问更多信息方面。
- 谷歌的AMIE等一些实验系统在研究中达到了媲美医生的准确率,但因安全和公平性担忧尚未发布。
- 尽管AI不需要追求完美,但核心问题依然是:在现实中其收益是否超过了风险。
📌 医疗AI正以每天数千万次的咨询量快速发展,为改善医疗服务的获取提供了机会。然而,目前的证据尚不足以确保其安全性,特别是在诊断和应急处理方面。在缺乏大规模独立测试的情况下,AI既是解决方案也是风险。未来取决于在快速部署与确保敏感医疗环境下的可靠性之间取得平衡。

