- С ростом интеграции ИИ с веб-ресурсами и внешними приложениями риск атак типа prompt injection возрастает: злоумышленники могут вставлять вредоносные команды для обмана системы или кражи конфиденциальных данных.
- OpenAI представляет Lockdown Mode в ChatGPT — расширенный режим безопасности, доступный по выбору для групп высокого риска, таких как руководители или команды кибербезопасности.
- Режим Lockdown Mode строго ограничивает взаимодействие ChatGPT с внешними системами для предотвращения утечки данных через prompt injection.
- Например: при включении этого режима просмотр веб-страниц осуществляется только по кэшированному контенту без отправки прямых сетевых запросов за пределы системы OpenAI.
- Некоторые функции отключаются полностью, если безопасность данных не может быть гарантирована на детерминированном уровне.
- Режим Lockdown Mode доступен для планов ChatGPT Enterprise, Edu, Healthcare и Teachers; администраторы могут включить его в настройках Workspace и создавать отдельные роли.
- Админы могут детально контролировать разрешенные приложения и действия в режиме Lockdown; платформа Compliance API Logs обеспечивает мониторинг использования приложений и обмена данными.
- OpenAI планирует масштабировать Lockdown Mode для индивидуальных пользователей в ближайшие месяцы.
- Параллельно компания вводит стандартную метку Elevated Risk («Повышенный риск») для функций, которые могут повлечь киберриски в ChatGPT, ChatGPT Atlas и Codex.
- Пример в Codex: при предоставлении агенту доступа в интернет система отображает предупреждение Elevated Risk, объясняя изменения в защите и потенциальные угрозы.
- Когда меры безопасности станут достаточно надежными, OpenAI снимет метку Elevated Risk с соответствующих функций.
📌 Заключение: OpenAI добавляет режим Lockdown Mode для ограничения сетевого взаимодействия и предотвращения утечек данных через prompt injection, особенно для бизнеса и групп риска. В то же время метка Elevated Risk помогает пользователям распознавать функции с потенциальными угрозами при подключении к сети или приложениям. Это важный шаг по усилению прозрачности и контроля в условиях, когда ИИ все теснее связывается с инфраструктурой и чувствительными данными.
