
I dati che inseriamo su ChatGPT potrebbero non essere del tutto segreti. Nelle app di messaggistica, come WhatsApp, siamo abituati a vedere l'avviso “I messaggi sono protetti da crittografia end-to-end”. Questo significa che nessuno, tranne mittente e destinatario, può leggerli. Con ChatGPT, e in generale con gli altri chatbot basati su intelligenza artificiale, non funziona così. Le conversazioni con ChatGPT non sono crittografate end-to-end, vengono conservate e monitorate da OpenAI, l’azienda che lo sviluppa, per individuare potenziali comportamenti pericolosi e potrebbero essere consegnate e utilizzate in tribunale se le autorità lo richiedessero.
In generale, quindi, una buona norma per stare davvero sicuri è considerare l’AI come un forum pubblico e non scrivere nulla che non renderemmo visibile a tutti.
Chi può vedere le chat con ChatGPT
Durante un episodio del podcast "This Past Weekend", Sam Altman ha dichiarato:
Se qualcuno confida le sue questioni più personali a ChatGPT e questo porta a un procedimento legale, potremmo essere costretti a consegnare la chat.
A differenza di medici, terapeuti o avvocati, le aziende che gestiscono chatbot non sono vincolate dal segreto professionale. OpenAI lo specifica chiaramente anche nella sua documentazione ufficiale: le conversazioni vengono analizzate automaticamente e, se vengono rilevati comportamenti che violano le policy (ad esempio intenzioni di danneggiare altri utenti), i contenuti possono essere inoltrati a un team umano specializzato. Questo team può valutare la situazione e, nei casi più gravi, bloccare l’account e segnalarlo alle forze dell’ordine.
Al momento, OpenAI ha scelto di non segnalare automaticamente i casi di autolesionismo, per tutelare la riservatezza di conversazioni particolarmente sensibili, ma resta il fatto che tutti i messaggi scritti nelle chat attive (quelle visibili nella cronologia laterale) sono conservati. Le uniche conversazioni eliminate automaticamente entro 30 giorni sono quelle temporanee (attivabili cliccando sull’icona del balloon tratteggiato in alto a destra) e quelle che l’utente cancella manualmente.
Condivisione delle chat e incidenti di privacy
Nella maggior parte dei casi, però, a rendere pubbliche le conversazioni non sono falle di sicurezza, ma gli stessi utenti. La privacy delle chat è stata compromessa più volte da condivisioni superficiali o poco consapevoli.
Quando una conversazione con ChatGPT risulta particolarmente utile, divertente o interessante, può essere condivisa: basta selezionarla dalla barra laterale, cliccare sui tre puntini accanto al titolo e poi su “Copia link”. In alternativa, è possibile pubblicarla direttamente sui social tramite i pulsanti dedicati. Ma attenzione: una volta generato un link, chiunque lo possiede può accedere al contenuto. Non è possibile limitarne la visibilità ad un numero limitato di persone.
Le disattenzioni durante le condivisioni delle chat hanno già causato diversi problemi. Fino a metà 2025, era presente anche un'opzione (ora rimossa) per rendere le chat “ricercabili” su Google. Molti utenti, senza rendersene conto, hanno reso pubbliche conversazioni personali, poi considerate come delle normali pagine web dai motori di ricerca. Le chat pubblicate erano spesso innocue: richieste su lavori di ristrutturazione del bagno, domande di astrofisica, idee per ricette in cucina. In alcuni casi, però, contenevano dati sensibili o problematici: curriculum dettagliati, problemi psicologici e persino richieste legate a comunità online problematiche.
Dopo questo incidente, OpenAI ha rimosso l’opzione “Rendi ricercabile” e annunciato nuove misure per rendere la condivisione più sicura. Resta comunque valida una regola semplice: prima di condividere una chat con chiunque, è bene chiedersi se si è davvero pronti a renderla pubblica.
E se vogliamo sapere cosa ChatGPT sa di noi?
Chiunque utilizzi ChatGPT ha la possibilità, garantita dal regolamento generale sulla protezione dei dati (GDPR), di sapere quali informazioni sono state raccolte su di sè e come vengono gestite. OpenAI, per rispondere a questo diritto, ha messo a disposizione un portale dedicato.
Dopo aver effettuato l’accesso con il proprio account, è possibile cliccare su “Make a Privacy Request” (in alto a destra) e scegliere tra diverse opzioni. Il portale è disponibile per utenti senza abbonamento e per chi ha un abbonamento Plus o Pro, ma non per i profili Business, Edu o Enterprise.

Attraverso questo strumento, si può:
- Scaricare i propri dati personali, per vedere esattamente cosa è stato conservato. Va detto, però, che il formato attuale in cui vengono consegnati i dati non è facilmente leggibile e potrebbe risultare un po’ ostico per chi non è pratico con diversi formati di file;
- Richiedere che le proprie chat non vengano più usate per l’addestramento dei modelli. Questa richiesta vale solo da quel momento in avanti: se i dati sono già stati utilizzati, non verranno rimossi retroattivamente;
- Cancellare l’account e rimuovere eventuali GPT personalizzati;
- Chiedere la rimozione di informazioni personali dalle risposte di ChatGPT. Indicando le conversazioni in cui nostri dati sensibili vengono forniti ad altri utenti, possiamo richiedere che ChatGPT smetta di fornirle.
Anche se OpenAI offre strumenti per controllare i propri dati, la regola più efficace resta quella della prudenza. È bene evitare di inserire nelle chat informazioni personali, password, dati bancari, referti medici o altri contenuti sensibili. Ora che OpenAI ha annunciato l’intenzione di introdurre pubblicità all’interno delle conversazioni, basandole sui contenuti delle singole chat, meno dati condividiamo, meno siamo esposti a rischi.
ChatGPT è uno strumento potente, ma è meno privato di quanto crediamo. È bene tenerlo a mente ogni volta che apriamo una nuova conversazione.