Il Garante della privacy ha disposto lo stop all’utilizzo di ChatGpt, l’algoritmo di intelligenza artificiale open source, finché non rispetterà la disciplina relativa alla protezione dei dati personali. Il provvedimento 112/2023 emesso nella giornata di giovedì 30 marzo da Palazzo Venezia ha disposto, con effetto immediato, “la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma ChatGpt”. L’Autorità ha contestualmente aperto un’istruttoria.
ChatGpt, il più noto tra i software di intelligenza artificiale (AI) relazionale in grado di simulare ed elaborare le conversazioni umane, lo scorso 20 marzo aveva subìto un massiccio furto di dati (in gergo tecnico definito “data breach“) riguardanti le conversazioni private degli utenti e le informazioni relative al pagamento degli abbonati al servizio premium.
Stop a ChatGpt, le motivazioni del Garante della privacy
Per quali ragioni il Garante della privacy ha bloccato l’utilizzo in Italia di ChatGpt?
La risposta risiede interamente nel comunicato emanato a corredo del provvedimento. La base di partenza in termini di conformità è costituita dai decreti legge 196/2003 e 679/2016, che regolamentano il diritto alla privacy in Italia e in Europa.
Il primo punto contestato dall’Autorità riguarda la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI. A ciò fa seguito (e qui il danno è più grave da un punto di vista normativo) l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma.
Il quadro di falle normative è però ulteriormente peggiorato dal grado di errore a cui è sottoposta oggi l’intelligenza artificiale: infatti, come testimoniato dalle verifiche effettuate, le informazioni fornite da ChatGpt non sempre corrispondono al dato reale, restituendo di conseguenza risposte non conformi al trattamento dei dati personali inseriti.
Più classica nel panorama tecnologico social ma non meno da sottovalutare è la criticità sulla verifica dell’età. Secondo i termini pubblicati da OpenAI il servizio si rivolge ai maggiori di 13 anni, eppure l’Autorità evidenzia come l’assenza di qualsivoglia barriera all’ingresso per gli utenti esponga i minori a risposte potenzialmente non idonee e fuorvianti rispetto al loro grado di sviluppo e autoconsapevolezza.
Cosa rischia ora l’azienda
OpenAI, che non ha una sede nell’Unione (è americana) ma ha designato un rappresentante nello Spazio economico europeo, deve comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.
Anche negli Usa la questione è attuale
Mentre ci sono Paesi che stanno sempre più implementando l’AI nei loro sistemi (è il caso dell’India dove il Ceo di OpenAI sarà a breve in visita), altri come gli Stati Uniti potrebbero essere davanti a un dilemma morale di grandi proporzioni.
Nella giornata di giovedì il gruppo di esperti “Center for AI and Digital Policy” (CAIDP) ha scritto direttamente alla FTC (Federal Trade Commission, l’equivalente americano dell’Antitrust italiano) per chiedere un’indagine su OpenAI e su ChatGpt. La tesi di fondo è che la fallacia dell’intelligenza artificiale, in una fase iniziale, possa produrre dei risultati in grado di violare la legge federale sulla protezione dei consumatori.
Il tema riguarda sempre la legislazione di un settore in continua crescita che potrebbe approfittare proprio di tali maglie larghe (come già fatto dai social network fino agli ultimi tempi) per penetrare nella quotidianità e accrescere ulteriormente il volume del suo business.
La presidente della FTC Lina Khan si è esposta in prima persona mettendo in guardia dai pericoli di un uso incontrollato dei dati a fini commerciali e dai nuovi modi in cui le aziende tecnologiche potrebbero cercare di rafforzare i monopoli.