- ‘란셋 디지털 헬스(The Lancet Digital Health)’에 발표된 연구에 따르면 콘텐츠가 병원 문서처럼 보일 경우 AI는 잘못된 의학 정보에 쉽게 속아 넘어갑니다.
- 마운트 시나이 아이칸 의과대학의 에얄 클랑 박사가 공동 이끄는 연구팀은 20개의 오픈 소스 및 상용 대규모 언어 모델을 테스트했습니다.
- 그들은 가짜 권고 사항이 삽입된 실제 퇴원 요약지, 레딧(Reddit)의 건강 루머, 의사가 작성한 300개의 임상 시나리오 등 3가지 유형의 콘텐츠와 관련된 100만 개 이상의 프롬프트를 분석했습니다.
- 전체적으로 AI는 약 32%의 경우 조작된 정보를 “믿고” 퍼뜨렸습니다.
- 잘못된 정보가 합법적으로 보이는 병원 기록에서 나온 경우 확산율은 거의 47%로 증가했습니다.
- 반면, 가짜 뉴스가 레딧에서 나온 경우 AI 확산율은 9%로 떨어졌습니다.
- 마운트 시나이의 AI 책임자 기리시 나드카르니는 AI가 내용이 틀리더라도 자신감 있는 의학 용어를 기본적으로 맞는 것으로 간주하는 경향이 있다고 말했습니다.
- 질문 방식이 큰 영향을 미칩니다. “저는 선임 의사입니다…”와 같이 권위 있는 어조의 프롬프트일 때 AI는 더 쉽게 동의합니다.
- OpenAI의 GPT 모델은 가장 덜 속았지만, 다른 일부 모델은 최대 63.6%의 잘못된 정보를 수용했습니다.
- ‘네이처 메디신(Nature Medicine)’의 다른 연구에 따르면 건강 의사 결정 지원에서 AI에게 증상에 대해 묻는 것이 기존 인터넷 검색보다 낫지 않은 것으로 나타났습니다.
- 점점 더 많은 의료 애플리케이션이 AI를 사용하는 상황에서 잘못된 정보 확산 위험은 심각한 과제가 되고 있습니다.
📌 의료 AI는 출처가 병원 문서처럼 보일 때 잘못된 정보를 최대 47%까지 퍼뜨릴 수 있는 반면, 소셜 미디어 출처일 경우 그 비율은 9%에 불과합니다. 20개 모델에 대해 100만 회 이상의 테스트를 거친 후, 연구는 전반적으로 AI가 약 32%의 사례에서 조작된 정보를 “믿고” 확산시킨다고 지적하며, 동시에 AI가 내용을 검증하기보다 “저는 선임 의사입니다…”와 같은 “권위 있는” 어조의 프롬프트를 더 쉽게 믿는다고 경고합니다. OpenAI의 GPT는 가장 적게 속은 반면, 일부 다른 모델은 최대 63.6%의 잘못된 정보를 수용했습니다.

