- Da KI zunehmend mit dem Web und externen Apps verbunden wird, steigt das Risiko von Prompt Injections: Angreifer können bösartige Befehle einschleusen, um das System zu täuschen oder sensible Daten zu stehlen.
- OpenAI führt den Lockdown-Modus in ChatGPT ein – einen erweiterten, optionalen Sicherheitsmodus für Hochrisikobenutzer wie Führungskräfte oder Sicherheitsteams.
- Der Lockdown-Modus schränkt die Interaktion von ChatGPT mit externen Systemen strikt ein, um Datenlecks durch Prompt Injections zu verhindern.
- Beispiel: Wenn der Lockdown-Modus aktiviert ist, nutzt das Web-Browsing nur zwischengespeicherte Inhalte und sendet keine direkten Netzwerkanfragen außerhalb des OpenAI-Systems.
- Einige Funktionen werden vollständig deaktiviert, wenn die Datensicherheit nicht auf einem deterministischen Niveau garantiert werden kann.
- Der Lockdown-Modus ist für die Tarife ChatGPT Enterprise, Edu, Healthcare und Teachers verfügbar; Administratoren können ihn in den Workspace-Einstellungen aktivieren und spezifische Rollen erstellen.
- Admins können detailliert steuern, welche Apps und Aktionen im Lockdown-Modus erlaubt sind; die Compliance API Logs Platform bietet eine Überwachung der App-Nutzung und der geteilten Daten.
- OpenAI plant, den Lockdown-Modus in den kommenden Monaten auf Einzelnutzer auszuweiten.
- Parallel dazu standardisiert das Unternehmen das Label „Elevated Risk“ (Erhöhtes Risiko) für bestimmte Funktionen in ChatGPT, ChatGPT Atlas und Codex, die Cyberrisiken bergen könnten.
- Beispiel in Codex: Wenn einem Agenten Internetzugriff gewährt wird, zeigt das System eine „Elevated Risk“-Warnung an und erklärt die Sicherheitsänderungen sowie potenzielle Gefahren.
- Sobald die Sicherheitsmaßnahmen ausreichend robust sind, wird OpenAI das „Elevated Risk“-Label von den entsprechenden Funktionen entfernen.
📌 Fazit: OpenAI ergänzt den Lockdown-Modus, um Netzwerkinteraktionen zu begrenzen und Datenlecks durch Prompt Injections zu verhindern, insbesondere für Unternehmen und Hochrisikogruppen. Gleichzeitig hilft das „Elevated Risk“-Label den Nutzern, Funktionen mit Sicherheitsrisiken bei der Verbindung zum Web oder zu Apps zu erkennen. Dies ist ein Schritt zur Stärkung von Transparenz und Kontrolle, da KI immer enger mit Infrastrukturen und sensiblen Daten verknüpft wird.
