- Nel 2025, cinque importanti chatbot AI, tra cui Grok, ChatGPT, Claude, Perplexity e Gemini, utilizzeranno tutti i dati degli utenti per l’addestramento AI, ma con approcci diversi in termini di privacy e controllo.
- Grok (xAI) utilizza i dati provenienti da prompt, risposte e persino post su X. Gli utenti possono disattivare la condivisione dei dati nelle Impostazioni o tramite e-mail diretta. Una caratteristica degna di nota è la modalità Private Chat, in cui i dati non vengono utilizzati per l’addestramento e vengono cancellati dopo 30 giorni. Le aziende hanno contratti API separati per prevenire l’utilizzo dei dati.
- ChatGPT (OpenAI) per impostazione predefinita utilizza prompt, file, immagini e audio per migliorare i suoi servizi. Gli utenti possono facilmente disattivare l’opzione tramite il Portale della privacy. I dati vecchi non vengono rimossi dall’addestramento. Le aziende API ed Enterprise hanno termini di privacy separati.
- Claude (Anthropic) sta modificando la sua politica a partire da settembre 2025: sarà opt-in per impostazione predefinita, il che significa che gli utenti dovranno disabilitare manualmente la condivisione dei dati se non desiderano che i loro dati vengano utilizzati per l’addestramento. I dati saranno conservati per un massimo di 5 anni per coloro che hanno aderito all’opzione, invece dei precedenti 30 giorni. Se gli utenti non accettano i nuovi termini entro il 28 settembre 2025, perderanno l’accesso. Gli utenti Enterprise hanno protezioni separate.
- Perplexity per impostazione predefinita utilizza i dati dei prompt per migliorare la sua AI ma non utilizza la posta elettronica (ad esempio Gmail). Gli utenti possono disattivare l’opzione tramite le Impostazioni o richiedere la cancellazione dell’account (30 giorni). L’API Enterprise ha un Addendum per l’elaborazione dei dati, che offre una maggiore sicurezza.
- Gemini (Google) ha una politica complessa; i dati delle chat, i file, le immagini e le registrazioni audio possono essere utilizzati per l’addestramento e possono essere soggetti a revisione umana. Gli utenti possono disattivare l’attività delle app Gemini o abilitare la modalità temporanea per prevenire l’addestramento. I dati con attività disattivata vengono conservati solo per 72 ore. Workspace (scuole, aziende) ha termini separati.
- Tutte le piattaforme sottolineano che le aziende hanno impostazioni di privacy più severe, mentre i singoli utenti devono regolare manualmente le proprie impostazioni.
📌 Nel 2025, cinque importanti chatbot AI, tra cui Grok, ChatGPT, Claude, Perplexity e Gemini, utilizzeranno tutti i dati degli utenti per l’addestramento AI, ma con approcci diversi in termini di privacy e controllo. Grok e ChatGPT offrono opzioni di disattivazione relativamente chiare, mentre Claude ha suscitato controversie passando a un’impostazione predefinita opt-in da settembre 2025, con conservazione dei dati fino a 5 anni. Perplexity privilegia la trasparenza ma raccoglie anche i dati per impostazione predefinita, mentre Gemini ha un sistema di controllo dettagliato ma complesso. Le aziende sono generalmente meglio protette, mentre gli individui devono disabilitare proattivamente la condivisione dei dati. Gli utenti dovrebbero controllare regolarmente le proprie impostazioni per evitare lo sfruttamento indesiderato dei dati.
Tổng hợp.
