- シンガポールは2026年1月21日、独立して行動し、同時に複数のシステムにアクセスできるAIエージェントのリスクを軽減するため、「エージェンティックAIのためのモデルAIガバナンス・フレームワーク」を発表しました。
- エージェンティックAI(AIエージェント)は、自然言語を理解し、推論し、人間に代わって自律的にタスクを完了できる点で従来のAIとは異なります。例えば、コードの記述、テスト、修正を自ら行うプログラミング・アシスタントなどが挙げられます。
- この能力は、定型業務の自動化というメリットをもたらす一方で、不正支払い、個人データの漏洩、権限を超えた行動といった新たなリスクも伴います。
- 例えば、AIが医療予約を誤って行い、患者の健康に影響を与えたり、人間の承認なしにデジタル・システムを変更したりする可能性があります。
- ガバナンス・フレームワークは、企業に対し、各AIエージェントがアクセスを許可されるツールやシステムの数を制限するよう求めています。すべてのエージェントに全権限が必要なわけではありません。
- 組織は、データの永久削除などの取り返しのつかない行動について、特に人間の介入が必須となる「チェックポイント」を明確に定義しなければなりません。
- AIエージェントが自律性を高めても、人間と組織は、役割と責任を明確に分担することで、最終的な責任を負わなければなりません。
- この新しい枠組みは、2020年に発表された従来のAIガバナンス・バージョンに基づいて構築されており、公的部門と民間部門の両方からの貢献が含まれています。
- シンガポール政府は、企業がAIエージェントのアーキテクチャを設計している段階で期待値を形成するために、これを早期に公表したいと考えています。
- ダボスで開催された世界経済フォーラムでの発表は、シンガポールの顧客にサービスを提供する国際的なプロバイダーにシグナルを送ることを目的としています。
- このフレームワークは、中小企業が安全なAIエージェント導入のための知識に公平にアクセスできるよう支援することも目指しています。
結論: シンガポールは2026年1月22日、ダボス会議でエージェンティックAIのガバナンス・フレームワークを発表しました。これは事故が起きてから対処するのではなく、未然に行動するプロアクティブなアプローチです。アクセス制限の設定、人間の介入の要求、組織の責任の強調により、信頼を損なうことなく自動化の利点を享受することを目指しています。これは、AIの自律性が高まる中で、リスクの低いシナリオでテストを行い、取り返しのつかない事態を避けるための戦略的な一歩です。
