- 2026年には、MicrosoftのCopilot Health、AmazonのHealth AI、OpenAIのChatGPT Health、Claudeなど、ユーザーが健康について質問したり個人の医療記録にアクセスしたりできる医療AIツールが相次いで登場した。
- 莫大な需要:Copilotだけでも1日あたり5,000万件の健康相談を受けており、AIが多くの人にとって「最初の医師」になりつつあることを示している。
- AIは、トリアージ(緊急度判定)をサポートすることで医療システムの負担を軽減し、患者が受診の必要性を判断するのを助ける可能性を秘めている。
- しかし、マウントサイナイ病院の研究では、AIが軽症に対して過剰な治療を勧めたり、緊急事態を見逃したりすることがあり、安全上の懸念が生じている。
- 専門家は、独立した検証なしに広く導入することは大きなリスクであると警告している。企業の自己評価には「盲点」が存在する可能性があるからだ。
- 医学的知識のないユーザーが誤った情報を提供したり、AIの回答を誤解したりすることで、不正確な診断につながる恐れがある。
- HealthBenchなどのベンチマークは、AIが大幅に改善されたものの、特にユーザーに追加情報を求める点において、依然として完璧ではないことを示している。
- GoogleのAMIEのような一部の実験的システムは、研究において医師に匹敵する精度を達成したが、安全性と公平性の懸念からリリースは見送られている。
- AIが完璧である必要はないものの、大きな疑問は依然として残っている。それは「現実において利益がリスクを上回るかどうか」である。
📌 医療AIは1日あたり数千万件の相談を受けながら急速に発展しており、ヘルスケアへのアクセスを改善する機会を切り開いている。しかし、現在の証拠は、特に診断や緊急対応における安全性を保証するには不十分である。大規模な独立検証がない限り、AIは解決策であると同時にリスクにもなり得る。未来は、迅速な導入と機微な医療環境における信頼性の確保とのバランスにかかっている。

