- 随着 AI 与网络和外部应用的连接日益紧密,提示词注入(prompt injection)的风险不断增加:攻击者可以插入恶意命令来欺骗系统或窃取敏感数据。
- OpenAI 在 ChatGPT 中引入了“锁定模式”(Lockdown Mode)——这是一种面向高风险用户(如高管或安全团队)的可选高级安全模式。
- 锁定模式严格限制了 ChatGPT 与外部系统的交互方式,以防止通过提示词注入导致的数据泄露。
- 例如:开启锁定模式后,网页浏览仅使用缓存内容,不会向 OpenAI 系统外部发送直接的网络请求。
- 如果无法在确定性(deterministic)水平上保证数据安全,某些功能将被完全禁用。
- 锁定模式适用于 ChatGPT 企业版、教育版、医疗版和教师版;管理员可以在工作区设置中启用并创建特定角色。
- 管理员可以细粒度地控制在锁定模式下允许哪些应用和操作;合规 API 日志平台提供对应用使用和共享数据的监控。
- OpenAI 计划在未来几个月内将锁定模式扩展到个人用户。
- 与此同时,公司正在为 ChatGPT、ChatGPT Atlas 和 Codex 中可能产生网络风险的某些功能标准化“高风险”(Elevated Risk)标签。
- 以 Codex 为例:当授予智能体互联网访问权限时,系统会显示“高风险”警告,解释安全变化及潜在风险。
- 当安全措施足够强大时,OpenAI 将从相应功能中移除“高风险”标签。
📌 结论: OpenAI 增加了锁定模式以限制网络交互,并防止通过提示词注入泄露数据,特别是针对企业和高风险群体。同时,“高风险”标签帮助用户识别连接网页或应用时的安全风险。随着 AI 与基础设施及敏感数据的结合日益紧密,这是增强透明度和控制力的重要一步。
