- 新加坡于 2026 年 1 月 22 日发布了《代理式人工智能模型治理框架》(Model AI Governance Framework for Agentic AI),旨在降低具有独立行动能力且能同时访问多个系统的 AI 代理所带来的风险。
- 代理式 AI 与传统 AI 的不同之处在于,它能够理解自然语言、进行推理并代表人类自动完成任务,例如能够自行编写、测试和修复代码的编程助手。
- 这种能力虽然能带来自动化重复性工作的益处,但也带来了新风险,如非法支付、个人数据泄露或超越权限的行为。
- 例如,AI 可能会误订医疗预约,影响患者健康,或在未经人类批准的情况下修改数字系统。
- 治理框架要求企业限制每个 AI 代理获准访问的工具和系统数量;并非所有代理都需要全权。
- 机构必须明确界定必须由人工干预的“关键节点”,特别是对于永久删除数据等不可逆转的行为。
- 尽管 AI 代理日益自主,但人类和机构仍必须通过明确的角色和责任划分,承担最终责任。
- 新框架是在 2020 年发布的传统 AI 治理版本基础上构建的,并参考了公共和私营部门的贡献。
- 新加坡政府希望尽早公布,以便在企业设计代理式 AI 架构时引导预期。
- 在达沃斯世界经济论坛上发布此框架,旨在向服务于新加坡客户的国际供应商发出信号。
- 该框架还旨在帮助中小企业更公平地获取安全部署代理式 AI 的相关知识。
结论: 新加坡于 2026 年 1 月 22 日在达沃斯世界经济论坛上发布了代理式 AI 治理框架,旨在降低具备独立行动和多系统访问能力的 AI 代理的风险。新加坡采取了主动出击的方式:不等待事故发生后再采取行动。通过设置访问限制、要求人工干预并强调机构责任,新加坡希望在不牺牲信任的前提下利用自动化的优势。这是具有战略意义的领先一步,有助于企业在低风险场景下测试 AI 代理,逐步建立信任,并避免随 AI 自主性增强而产生的难以挽回的后果。

