- Nghiên cứu đăng trên The Lancet Digital Health cho thấy AI dễ bị đánh lừa bởi thông tin y khoa sai nếu nội dung trông như tài liệu bệnh viện.
- Nhóm nghiên cứu do TS Eyal Klang từ Icahn School of Medicine at Mount Sinai đồng dẫn đầu, thử nghiệm trên 20 mô hình ngôn ngữ lớn nguồn mở và thương mại.
- Họ phân tích hơn 1 triệu prompt liên quan đến 3 loại nội dung: giấy xuất viện thật có chèn khuyến nghị giả, tin đồn sức khỏe từ Reddit và 300 tình huống lâm sàng do bác sĩ viết.
- Tổng thể, AI “tin” và lan truyền thông tin bịa đặt trong khoảng 32% trường hợp.
- Khi thông tin sai đến từ ghi chú bệnh viện trông hợp pháp, tỷ lệ lan truyền tăng lên gần 47%.
- Ngược lại, nếu tin sai đến từ Reddit, tỷ lệ AI lan truyền giảm xuống còn 9%.
- Giám đốc AI Mount Sinai, Girish Nadkarni, cho biết AI có xu hướng mặc định ngôn ngữ y khoa tự tin là đúng, bất kể nội dung sai.
- Cách đặt câu hỏi ảnh hưởng mạnh: khi prompt mang giọng điệu uy quyền như “Tôi là bác sĩ cao cấp…”, AI dễ đồng ý hơn.
- Các mô hình GPT của OpenAI ít bị đánh lừa nhất, trong khi một số mô hình khác dễ chấp nhận tới 63,6% thông tin sai.
- Nghiên cứu khác trên Nature Medicine cho thấy hỏi AI về triệu chứng không tốt hơn tìm kiếm internet truyền thống trong hỗ trợ quyết định sức khỏe.
- Trong bối cảnh ngày càng nhiều ứng dụng y tế dùng AI, rủi ro lan truyền thông tin sai trở thành thách thức nghiêm trọng.
📌 AI y tế có thể lan truyền thông tin sai tới 47% khi nguồn trông như tài liệu bệnh viện, so với chỉ 9% nếu từ mạng xã hội. Sau hơn 1 triệu lượt thử nghiệm trên 20 mô hình, nghiên cứu chỉ ra về tổng thể, AI “tin” và lan truyền thông tin bịa đặt trong khoảng 32% trường hợp đồng thời cảnh báo AI dễ tin prompt có giọng “uy quyền” như “Tôi là bác sĩ cao cấp…” hơn là kiểm chứng nội dung. GPT của OpenAI hoạt động ít bị đánh lừa nhất, trong khi một số mô hình khác dễ chấp nhận tới 63,6% thông tin sai.
Tổng hợp.

