OpenAI ha confermato diversi incidenti di sicurezza collegati a ChatGPT e alla sua piattaforma, ma finora i casi più rilevanti hanno riguardato fughe di dati limitati (soprattutto metadati e account) e non il “furto” massiccio di conversazioni o delle password direttamente dai server di OpenAI. È però emerso chiaramente che attacchi a fornitori esterni, vulnerabilità software e furti di credenziali degli utenti possono esporre informazioni sensibili, quindi servono prudenza e buone pratiche di sicurezza.
Cosa è successo davvero
Nel marzo 2023 un bug nella libreria Redis usata da OpenAI ha causato una perdita limitata di dati: alcuni utenti hanno visto nei propri riquadri di cronologia i titoli delle chat e frammenti di conversazioni di altri, insieme a pochi dettagli di pagamento di una piccola percentuale di abbonati ChatGPT Plus. Il problema era dovuto a una condizione di corsa nella libreria redis‑py, che in rari casi restituiva dati di un utente diverso, costringendo OpenAI a spegnere temporaneamente il servizio per correggere l’errore.
Nel 2025 OpenAI ha comunicato una violazione presso Mixpanel, un fornitore di analisi di terze parti, che ha esposto nomi, email, ID utente e alcuni dati di navigazione relativi agli utenti API, ma non chat, password, chiavi API o dati di pagamento, e l’azienda ha interrotto il rapporto con quel fornitore. In parallelo, ricercatori e forze dell’ordine hanno documentato il furto e la rivendita sul dark web di oltre 100.000 credenziali ChatGPT rubate tramite malware ai singoli utenti, segno che il punto debole spesso non è il server ma il dispositivo dell’utente.
Perché accadono questi attacchi
Le cause principali sono tre: vulnerabilità tecniche in componenti software (come la libreria Redis che ha causato la fuga di dati del 2023), attacchi a soggetti terzi della catena (come Mixpanel, compromesso nel 2025), e il furto di credenziali tramite phishing, malware o password riutilizzate. A ciò si aggiunge il grande valore delle informazioni gestite (email, dati di pagamento, contenuti di lavoro, segreti aziendali), che rende le piattaforme come ChatGPT obiettivi molto appetibili per cyber‑criminali e gruppi sponsorizzati da Stati.
Molti incidenti non coinvolgono direttamente i database centrali di OpenAI, ma sistemi “satellitari” (strumenti di analisi, cache, messaggistica interna, dispositivi degli utenti), che spesso hanno controlli meno rigidi e diventano il punto d’ingresso più semplice. Per l’utente finale, però, l’effetto percepito è lo stesso: rischio di esposizione del proprio nome, email, abitudini di utilizzo o, nei casi peggiori, dati di pagamento e accesso all’account.
Rischi concreti per gli utenti
Gli impatti più temuti sono: furto di identità (a partire da nome, email, IP o localizzazione), uso fraudolento di account (per generare contenuti malevoli o accedere alle API) e possibili campagne di phishing più credibili basate sui dati rubati. Se nei prompt o nei file caricati sono stati inseriti dati personali o aziendali sensibili, una fuga può teoricamente esporre informazioni riservate, con rischi legali e reputazionali, soprattutto in ambito business.
Per le aziende, l’uso disinvolto di ChatGPT può portare alla diffusione involontaria di segreti industriali o dati dei clienti, che in molti ordinamenti ricadono sotto GDPR o altre leggi sulla protezione dei dati, con possibili sanzioni se non sono state adottate misure adeguate. Anche senza un “mega‑hack”, la combinazione di piccole fughe, errori di configurazione e furto di credenziali può essere sfruttata da attaccanti molto pazienti per ricostruire un profilo dettagliato degli utenti.
Come proteggersi: buone pratiche
Per utenti privati è essenziale: non inserire in chat dati personali sensibili (documenti, numeri di carte, codici fiscali, password), usare password uniche e robuste e attivare l’autenticazione a due fattori sull’account OpenAI. È importante anche verificare sempre il dominio ufficiale, usare solo connessioni HTTPS, diffidare da email che chiedono “verifica dell’account ChatGPT” con link sospetti e mantenere aggiornato l’antivirus per ridurre il rischio di furti di credenziali tramite malware.
Chi usa ChatGPT per lavoro dovrebbe definire policy interne chiare: vietare l’inserimento di PII dei clienti, dati finanziari dettagliati o codice proprietario critico; usare versioni “enterprise” o con controlli di prevenzione della perdita di dati; rivedere le impostazioni di conservazione e anonimizzazione dei dati. È consigliabile formare regolarmente il personale sui rischi, controllare periodicamente gli accessi, revocare quelli non più necessari e monitorare eventuali anomalie negli utilizzi dell’account o nelle chiamate API.
Strumenti e strategie aggiuntive
Per una protezione ancora maggiore si possono usare password manager affidabili, VPN su reti Wi‑Fi pubbliche e, quando possibile, account separati per uso personale e professionale, in modo da compartimentare i rischi. Le organizzazioni più esposte possono integrare strumenti di sicurezza specifici per l’AI (per esempio filtri di contenuto e sistemi di monitoraggio delle richieste) e chiedere ai fornitori contratti con impegni chiari su crittografia, log, tempi di conservazione e gestione degli incidenti.
Infine, tenersi informati sulle comunicazioni ufficiali di OpenAI e sulle notizie di settore permette di reagire rapidamente: cambiare password, rivedere le impostazioni di sicurezza o sospendere temporaneamente alcuni usi della piattaforma in caso di nuove violazioni. La sicurezza totale non esiste, ma una combinazione di igiene digitale personale, scelte tecniche corrette e attenzione alle notizie riducono drasticamente la probabilità di “farsi male” utilizzando ChatGPT.