- AIがウェブや外部アプリと接続する機会が増えるにつれ、プロンプトインジェクションのリスクが高まっています。攻撃者は悪意のあるコマンドを挿入してシステムを欺いたり、機密データを盗んだりする可能性があります。
- OpenAIは、ChatGPTに「ロックダウンモード(Lockdown Mode)」を導入しました。これは、経営陣やセキュリティチームなど、リスクの高いユーザー向けの高度なオプションセキュリティモードです。
- ロックダウンモードは、プロンプトインジェクションによるデータ漏洩を防ぐため、ChatGPTと外部システムとの相互作用を厳格に制限します。
- 例:ロックダウンモードをオンにすると、ウェブブラウジングはキャッシュされたコンテンツのみを使用し、OpenAIシステムの外部に直接ネットワークリクエストを送信しません。
- 決定論的(deterministic)なレベルでデータの安全性が保証できない場合、一部の機能は完全に無効化されます。
- ロックダウンモードは、ChatGPT Enterprise、Edu、Healthcare、およびTeachersプランで利用可能です。管理者はワークスペース設定で有効化し、専用のロールを作成できます。
- 管理者は、ロックダウンモード内で許可されるアプリやアクションを詳細に制御できます。また、Compliance API Logs Platformにより、アプリの使用状況や共有データの監視が可能です。
- OpenAIは、今後数ヶ月以内に個人ユーザーにもロックダウンモードを拡大する予定です。
- 並行して、同社はChatGPT、ChatGPT Atlas、およびCodexにおいて、サイバーリスクが発生する可能性のある機能に対し「Elevated Risk(高リスク)」ラベルを標準化します。
- Codexの例:エージェントにインターネットアクセス権限を付与する際、システムはElevated Risk警告を表示し、セキュリティの変更と潜在的な危険性を説明します。
- セキュリティ対策が十分に強化された場合、OpenAIは該当する機能からElevated Riskラベルを削除します。
📌 結論: OpenAIは、特に企業や高リスクグループ向けに、ネットワーク相互作用を制限しプロンプトインジェクションによるデータ漏洩を防ぐ「ロックダウンモード」を追加しました。同時に、「Elevated Risk」ラベルは、ウェブやアプリ接続時のセキュリティリスクをユーザーが認識するのに役立ちます。AIがインフラや機密データと密接に結びつく中で、これは透明性と制御を強化する一歩となります。
