- 米食品医薬品局(FDA)と欧州医薬品庁(EMA)は、2026年1月、創薬における「適正AI規範(Good AI Practice)」に関する共通原則を発表しました。
- 主な目的は、イノベーションを促進し、医薬品の上市までの時間を短縮しながら、患者に対して最高水準の安全性を確保することです。
- AIはシステムレベルの技術と定義され、非臨床研究、臨床試験、市販後調査から製造に至るまでの医薬品の全ライフサイクルを通じて、エビデンスの生成または分析に使用されます。
- 両当局は、医薬品の承認は依然として実証された品質、有効性、安全性に基づく必要があり、AIがこれらの基準を損なうことがあってはならないと強調しています。
- 近年、創薬におけるAIの利用が急増しており、正確で信頼性の高いアウトプットを確保するために厳格な管理が求められています。
- 同文書では、人間中心のデザイン、リスクベースのアプローチ、GxP基準の遵守、データガバナンス、リスクに応じた性能評価、AIライフサイクル管理を含む10の核となる原則が提示されています。
- AIは、ヒトへの毒性や有効性の予測精度を高めることで、創薬期間の短縮、医薬品監視の強化、動物実験への依存低減に寄与すると期待されています。
- この取り組みは、2024年のFDA・EU二国間会議から始まり、国際的な規制調和への道を開くものです。
- 多くの大手製薬会社は、最先端の技術力にアクセスするための契約を締結し、AIの活用を加速させています。
📌 結論: 米国FDAと欧州EMAは、2026年1月に創薬における「適正AI規範」の共通原則を公表しました。欧米が初めて、倫理、データからライフサイクル管理まで10の柱に焦点を当てた、製薬分野のAIに関する共通の枠組みを構築しました。リスクベースのアプローチとGxP基準により、イノベーションと患者の安全の両立を図ります。この動きは、創薬期間を短縮するだけでなく、バイオ医学向けの生成AI競争における欧米の世界的リーダーシップを強化し、動物実験の大幅な削減や市販後のリスク低減にもつながります。
