Il Garante per la protezione dei dati personali ha imposto una limitazione provvisoria al trattamento dei dati degli utenti italiani da parte di OpenAI, l’azienda statunitense che sviluppa e gestisce ChatGPT, fino a quando non sarà garantita la conformità alle normative sulla privacy.
A seguito di un’indagine avviata dall’Autorità, è stata riscontrata una carenza di informazioni fornite agli utenti e a tutti coloro i cui dati personali vengono raccolti da OpenAI, oltre all’assenza di una base giuridica che giustifichi tale raccolta e conservazione massiccia di dati personali.
ChatGPT, noto software di intelligenza artificiale relazionale per la simulazione e l’elaborazione di conversazioni umane, ha subito un data breach il 20 marzo scorso, compromettendo le conversazioni degli utenti e le informazioni di pagamento degli abbonati al servizio a pagamento.
Il provvedimento del Garante sottolinea la mancanza di un’informativa adeguata agli utenti e l’assenza di una base giuridica per la raccolta e conservazione massiccia di dati personali, utilizzati per “addestrare” gli algoritmi alla base della piattaforma. Inoltre, le informazioni fornite da ChatGPT risultano spesso inesatte rispetto ai dati reali, determinando un trattamento impreciso dei dati personali.
L’Autorità evidenzia anche che, pur essendo il servizio destinato a utenti di età superiore ai 13 anni secondo i termini di OpenAI, l’assenza di filtri per la verifica dell’età espone i minori a risposte inadeguate rispetto al loro livello di sviluppo e autoconsapevolezza. OpenAI, che non ha una sede nell’Unione Europea ma ha nominato un rappresentante nello Spazio Economico Europeo, deve comunicare entro 20 giorni le misure adottate per rispettare le richieste del Garante, altrimenti sarà soggetta a sanzioni fino a 20 milioni di euro o il 4% del fatturato globale annuo.