In attesa del fatidico incontro tra il garante della privacy ed OpenAI, la società sviluppatrice di Chat GPT, arrivano rassicurazioni proprio dalla società che ha visto, nei giorni scorsi, vedere interrotto il servizio nel territorio italiano. A lanciare schiarite è Mira Murati, la 34enne a capo dello sviluppo tecnologico di OpnenAI, che è intervenuta sulla colonne della Stampa. Le sue parole:
Non crediamo di violare in alcun modo le norme della legge europea sulla privacy, ma sappiamo che buona parte dell’opinione pubblica italiana è dalla nostra parte e vogliamo arrivare a una soluzione. Noi crediamo di offrire i nostri servizi rispettando la privacy. Lavoriamo per ridurre la quantità di dati personali usati per l’addestramento delle nostre AI. Per noi è importante che i sistemi apprendano da testi e video. Non necessariamente dai dati di persone. Per questo riduciamo al massimo il loro uso e informiamo gli utenti il più possibile.
Murati, poi, ha raccontato gli incredibili passi in avanti che si stanno facendo sullo sviluppo delle intelligenze artificiali e, quindi, sull’implementazione di ChatGPT:
Una tecnologia – ha detto – nuova e in costante evoluzione. Miglioriamo ogni giorno i servizi per renderli più utili e accurati. A volte Chat Gpt sbaglia, ma migliora grazie agli utenti. Chi la utilizza sa dei suoi limiti.
ChatGPT e garante della privacy, i motivi del qui pro quo e le possibili ricucite, la situazione
L’attenzione del garante della privacy nasce perché, secondo quanto ritiene, la piattaforma sarebbe lesiva per i dati sensibili degli utenti. Mira Murati spiega che alla base di questo qui pro quo ci sarebbe un episodio che, però, ci tiene a precisare, è stato risolto. Le cose stanno così:
Si è trattato di un errore nel software, è stata esposta la cronologia delle chat di un utente attivo ma quando l’abbiamo saputo abbiamo subito disattivato Chat Gpt e questo ha messo in chiaro i dati di pagamento dell’1% degli abbonati. Ma non c’è stato alcun problema per gli utenti.
Ma la situazione potrebbe ancora ricucirsi. Murati, infatti, spiega che il dialogo con il garante della privacy è ancora aperto: “Mi sembra – ha detto – che l’opinione pubblica italiana sia dalla nostra parte. Non vogliamo lasciare l’Italia”. Il capo dello sviluppo tecnologico di ChatGPT, poi, ha condiviso l’auspicio di un repentino passo indietro. Chiaro che, molto, verrà deciso in occasione del vertice tra le parti che dovrebbe avvenire già in queste ore. Seguiranno, quindi, aggiornamenti.
Tra preoccupazioni e sviluppo
La manager, poi, ha commentato i timori di circa mille accademici che hanno firmato una lettera nella quale vengono esposti i motivi delle preoccupazioni legate a Chat GPT. Una lettera che è stata sottoscritta, tra gli altri, dal patron di Twitter Elon Musk. Così Mira Murati:
Condividiamo molte delle preoccupazioni della lettera. Da anni parliamo delle promesse e dei rischi dell’AI. Anche noi siamo preoccupati per il rischio di una sua accelerazione. Ma ci sono due cose. Abbiamo impiegato più di sei mesi per rendere sicuro Gpt-4, prima di renderlo pubblico.
E sui possibili passi in avanti, quindi sulla nascita di un nuovo prodotto aggiornato di Chat GPT, ha detto che:
Non stiamo addestrando Gpt-5, a differenza di quanto si dice nella lettera. Non abbiamo nemmeno intenzione di farlo nei prossimi sei mesi. Ma pensiamo che per rendere sicuri questi sistemi bisogna metterli a disposizione degli utenti e capire la loro reazione. Così si possono calcolare rischi e impatti.
In ogni caso il futuro sta nelle intelligenze artificiali. Motivo per cui la manager ha voluto concludere sottolineando l’utilità di ChatGPT come: “Strumento di lavoro. come altre tecnologie – ha chiosato – cambierà la natura di molte professioni, forse ne creerà altre che nemmeno possiamo immaginare”.