- 发表在《柳叶刀-数字健康》(The Lancet Digital Health)上的研究表明,如果内容看起来像医院文件,AI 很容易被虚假医疗信息误导。
- 由西奈山伊坎医学院(Icahn School of Medicine at Mount Sinai)的 Eyal Klang 博士共同领导的研究团队测试了 20 个开源和商业大型语言模型。
- 他们分析了超过 100 万个与 3 类内容相关的提示:插入了虚假建议的真实出院小结、来自 Reddit 的健康谣言以及由医生编写的 300 个临床场景。
- 总体而言,AI 在约 32% 的情况下“相信”并传播捏造的信息。
- 当错误信息来自看起来合法的医院记录时,传播率上升至近 47%。
- 相反,如果假新闻来自 Reddit,AI 的传播率降至 9%。
- 西奈山 AI 主管 Girish Nadkarni 表示,AI 倾向于默认自信的医学语言是正确的,无论内容是否错误。
- 提问方式影响很大:当提示带有权威语气,如“我是高级医生……”时,AI 更容易同意。
- OpenAI 的 GPT 模型最不容易被愚弄,而其他一些模型容易接受高达 63.6% 的错误信息。
- 发表在《自然-医学》(Nature Medicine)上的另一项研究表明,在健康决策支持方面,向 AI 询问症状并不比传统的互联网搜索更好。
- 在越来越多的医疗应用使用 AI 的背景下,传播错误信息的风险成为一个严峻挑战。
📌 当来源看起来像医院文件时,医疗 AI 传播错误信息的比例可能高达 47%,而来自社交媒体的比例仅为 9%。在对 20 个模型进行了超过 100 万次测试后,研究指出,总体而言,AI 在约 32% 的情况下“相信”并传播捏造的信息,同时警告称,AI 更容易相信带有“权威”语气的提示(如“我是高级医生……”),而不是去验证内容。OpenAI 的 GPT 表现最不容易被欺骗,而其他一些模型容易接受高达 63.6% 的错误信息。
