- Im Jahr 2025 werden fünf große KI-Chatbots, darunter Grok, ChatGPT, Claude, Perplexity und Gemini, Benutzerdaten für das KI-Training nutzen, jedoch mit unterschiedlichen Ansätzen in Bezug auf Datenschutz und Kontrolle.
- Grok (xAI) verwendet Daten aus Prompts, Antworten und sogar X-Beiträgen. Benutzer können die Datenfreigabe in den Einstellungen oder per direkter E-Mail deaktivieren. Ein bemerkenswertes Merkmal ist der Private Chat-Modus, bei dem Daten nicht für das Training verwendet und nach 30 Tagen gelöscht werden. Unternehmen haben separate API-Verträge, um die Datennutzung zu verhindern.
- ChatGPT (OpenAI) verwendet standardmäßig Prompts, Dateien, Bilder und Audio, um seine Dienste zu verbessern.Benutzer können sich einfach über das Privacy Portal abmelden. Alte Daten werden nicht aus dem Training entfernt. API- und Enterprise-Unternehmen haben separate Datenschutzbestimmungen.
- Claude (Anthropic) ändert seine Richtlinie ab September 2025: Standardmäßig wird ein Opt-in-Verfahren gelten, was bedeutet, dass Benutzer die Datenfreigabe manuell deaktivieren müssen, wenn sie nicht möchten, dass ihre Daten für das Training verwendet werden. Daten werden für diejenigen, die sich angemeldet haben, bis zu 5 Jahre aufbewahrt, anstelle der zuvor 30 Tage. Wenn Benutzer die neuen Bedingungen nicht bis zum 28. September 2025 akzeptieren, verlieren sie den Zugriff. Enterprise-Benutzer haben separate Schutzmaßnahmen.
- Perplexity verwendet standardmäßig Prompt-Daten, um seine KI zu verbessern, verwendet jedoch keine E-Mails (z. B. Gmail). Benutzer können sich über die Einstellungen abmelden oder die Löschung des Kontos beantragen (30 Tage). Die Enterprise-API verfügt über einen Datenverarbeitungsnachtrag, der eine höhere Sicherheit bietet.
- Gemini (Google) hat eine komplexe Richtlinie; Chat-Daten, Dateien, Bilder und Audioaufnahmen können für das Training verwendet werden und können einer menschlichen Überprüfung unterzogen werden. Benutzer können die Gemini Apps-Aktivität deaktivieren oder den temporären Modus aktivieren, um das Training zu verhindern. Daten mit deaktivierter Aktivität werden nur 72 Stunden lang aufbewahrt. Workspace (Schulen, Unternehmen) hat separate Bedingungen.
- Alle Plattformen betonen, dass Unternehmen strengere Datenschutzeinstellungen haben, während einzelne Benutzer ihre Einstellungen manuell anpassen müssen.
📌 Im Jahr 2025 werden fünf große KI-Chatbots, darunter Grok, ChatGPT, Claude, Perplexity und Gemini, Benutzerdaten für das KI-Training nutzen, jedoch mit unterschiedlichen Ansätzen in Bezug auf Datenschutz und Kontrolle. Grok und ChatGPT bieten relativ klare Opt-out-Optionen, während Claude Kontroversen ausgelöst hat, indem es ab September 2025 auf eine standardmäßige Opt-in-Einstellung umgestellt hat, bei der Daten bis zu 5 Jahre lang aufbewahrt werden. Perplexity legt Wert auf Transparenz, sammelt aber auch standardmäßig Daten, während Gemini ein detailliertes, aber komplexes Kontrollsystem hat. Unternehmen sind in der Regel besser geschützt, während Einzelpersonen die Datenfreigabe proaktiv deaktivieren müssen. Benutzer sollten ihre Einstellungen regelmäßig überprüfen, um eine unbeabsichtigte Datenausbeutung zu vermeiden.
Tổng hợp.
