Il 30 marzo l’Autorità Garante ha limitato il trattamento dei dati personali degli utenti italiani. Chat GPT ha 20 giorni per adattarsi agli standard della privacy imposti dal Garante per la Protezione dei Dati Personali.
Che cos’è ChatGPT?
ChatGPT, acronimo di Generative Pretrained Transformer, è un modello di natural language processing di proprietà della società statunitense OpenAi . Il software è un chatbot, si tratta quindi di un’intelligenza artificiale relazionale basata su apprendimento automatico (non supervisionato e infatti non sempre le risposte di ChatGPT sono corrette). In quanto chatbot, ChatGPT si esprime attraverso parole e frasi ed è in grado di sostenere un livello di conversazione al pari di un umano, imparando e costruendo le proprie conoscenze chat dopo chat.
Molti studenti e lavoratori per questo avevano iniziato a utilizzare la piattaforma e le sue conoscenze per i propri compiti o impieghi e, globalmente, si è aperto un dibattito etico e professionale sulla questione. Nelle università di diversi paesi, fra cui Stati Uniti e Australia, l’impiego dell’intelligenza artificiale per la realizzazione di tesine o studi accademici è stato vietato.
L’Italia ha compiuto un passo in più, mettendo in discussione l’utilizzo di ChatGPT anche in contesti che esulano da quelli accademici o professionali. Per la prima volta è stata disposta una limitazione al software a causa della raccolta e dell’utilizzo dei dati personali degli utenti.
La decisione del Garante per la Protezione dei Dati Personali
Stop a ChatGPT, con effetto immediato: questa la disposizione dell’Autorità Garante che ha sancito la totale limitazione (per ora provvisoria) del trattamento dei dati degli utenti italiani nei confronti di OpenAI.
Il 20 marzo il software aveva subito una perdita di dati (data breach) riguardanti le chat degli utenti e le informazioni relative agli abbonamenti degli utenti.
Come si legge dal comunicato stampa del 31 marzo del 2023 quello che il Garante per la Protezione dei Dati Personali ha evidenziato è, prima di tutto, la mancanza di un’informativa per gli utenti, i cui dati vengono raccolti da OpenAI in modalità non esplicitate. In secondo luogo il Garante ha rilevato l’assenza di una base giuridica che possa giustificare la raccolta e la conservazione dei dati, dati che, come detto all’inizio, consentono il funzionamento dell’apprendimento automatico: il software infatti è addestrato utilizzando miliardi di dati di miliardi di utenti.
Inoltre il Garante ha messo anche in discussione l’effettiva limitazione anagrafica dichiarata nei termini d’utilizzo di ChatGPT: secondo OpenAi la piattaforma è rivolta unicamente ai maggiori di 13 anni, ma allo stesso tempo la società non ha previsto alcuna modalità di verifica dell’età degli utenti. Secondo il comunicato stampa del Garante per la Protezione dei Dati Personali è totalmente messa a rischio la sensibilità degli utenti di minore età che potrebbero prendere parte a chat con temi e termini non idonei alla loro età.
Il futuro di ChatGPT
OpenAi, come disposto dal Garante, dovrà comunicare entro 20 giorni le misure intraprese per adattarsi agli standard della privacy italiana e se questo non dovesse accadere sono previste sanzioni fino a 20 milioni di euro o al 4% del fatturato annuo. L’obiettivo del Garante non è infatti impedire l’uso in Italia di un software che, con i suoi limiti, potrebbe rivelarsi uno strumento utile e positivo, ma far sì che OpenAi rispetti le norme e i diritti degli utenti europei e italiani.
Ludovica Amico