- インド電子情報技術省(MeitY)は、2025年11月5日に、Balaraman Ravindran教授(IITマドラス)が主導して起草した国家AIガバナンスガイドラインを発表しました。これは1月の草案からの大幅な改訂版であり、リスクを厳しく取り締まるのではなく、「ガードレール付きのイノベーション」(innovation with guardrails)を促進することを目指しています。
- 報告書は、AIの7つの核となる原則を強調しています。これには、信頼、人間中心主義、責任あるイノベーション、公平性、説明責任、LLMの理解可能性、そして安全性・持続可能性・柔軟性が含まれます。
- インドは、独自のAI法を直ちに制定する計画はありません。IT省事務次官のS. Krishnan氏は、政府は差し迫ったリスクが発生するか、AIの能力が安全閾値を超える場合にのみ、新しい法規制を検討すると断言しました。
- アビシェク・シン次官によると、このガイドラインは「規制」ではなく、インドを「グローバルAIガバナンスの模範」にすることを目指し、国益のためにAI開発を導くためのガバナンスフレームワークです。
- NITI AayogやOECDに多く依存していた旧版とは異なり、新版はリスクへの焦点を減らし、創造能力の向上に重点を置いています。
- 6つの主要な提言は以下の通りです:
- AIインフラの拡大と、Aadhaarなどのデジタル公共インフラ(DPI)の活用。
- AIスキル研修の強化。
- 柔軟で機敏なガバナンスフレームワークの構築。
- 「インド特有の」リスク評価フレームワークの開発。
- AIバリューチェーンにおける関係者の活動の透明性の確保。
- サイバーセキュリティのためのAI監視機関とインシデント報告システムの設立。
📌 インド電子情報技術省は最近、国家AIガバナンスガイドラインを発表しました。これは「ガードレール付きのイノベーション」を促進することを目的とし、AIの7つの核となる原則(信頼、人間中心主義、責任あるイノベーション、公平性、説明責任、LLMの理解可能性、安全性・持続可能性・柔軟性)を掲げています。インドは独自のAI法を直ちに制定する計画はありません。このガイドラインからの6つの提言には、AIインフラの拡大、AI研修、柔軟なガバナンスフレームワークとインド特有のAIリスク評価フレームワークの構築、AIバリューチェーンの透明性、そしてサイバーセキュリティのためのAIインシデント監視・報告機関の設立が含まれます。
