In un mondo in cui la tecnologia sta diventando sempre più centrale nella vita quotidiana delle persone, la sicurezza dei dati personali è diventata un’importante preoccupazione per molti.

Questa preoccupazione è aumentata con l’avvento di ChatGPT di OpenAI. Il Garante per la protezione dei dati personali ha richiesto che questi servizi garantiscano una maggiore tutela della privacy.

ChatGPT, dopo aver interrotto per un determinato periodo di tempo i suoi servizi in Italia, sta per tornare con nuove misure di sicurezza per garantire la protezione dei dati personali dei suoi utenti. Scopri i dettagli nell’articolo.

Quali sono i problemi di privacy con ChatGPT?

Per sviluppare ChatGPT, l’IA utilizza, tra le altre cose, input derivanti da diversi milioni di utenti privati ​​​​e aziende.

Per questo motivo non si può escludere che vengano trattate anche informazioni personali e sensibili. Questo è accaduto proprio nel nostro Paese, dove una violazione dei dati ha portato alla divulgazione di informazioni personali in chat di terze parti.

Il fatto che manchino informazioni sulle fonti dei dati, che non vengano rese pubbliche informazioni sugli algoritmi alla base del trattamento automatizzato dei dati e che non sia noto se i dati vengano trasmessi a terzi con interessi commerciali oppure no, non può dare la certezza della protezione di dati privati e sensibili.

Secondo il GDPR europeo un fornitore di servizi in cui vengono elaborati dati personali deve essere in grado di spiegare da dove vengono presi i dati, come vengono elaborati e come vengono diffusi.

OpenAI dovrebbe adottare misure tecniche e organizzative adeguate per proteggere questi dati personali e stabilire regolamenti speciali se desidera trattare dati sensibili, come informazioni sulla salute, l’identità sessuale, l’ideologia o la situazione familiare e finanziaria.

Inoltre, il fornitore deve proteggere i diritti delle persone interessate, come il diritto alla correzione o all’informazione.

Pare che ChatGPT abbia effettuato i cambiamenti necessari e che stia per tornare in Italia.

ChatGPT sta per tornare in Italia: quali sono i cambiamenti apportati?

Pare che OpenAI abbia riconosciuto i suoi errori e sia pronta a rimediare e a tornare in Italia con l’agognata protezione della privacy.
ChatGPT aggiungerà un’opzione per “spegnere” la cronologia del chatbot.

In questo modo le conversazioni fatte non appariranno nella barra di sinistra e non saranno utilizzate dal programma per addestrare maggiormente la sua intelligenza artificiale.

Gli utenti di ChatGPT potranno quindi scegliere di attivare o meno la cronologia. A differenza degli utenti di Google Bard non possono in alcun modo salvare le loro conversazioni ancora.

Questo garantirà inevitabilmente agli utenti una maggiore privacy. Anche se la cronologia resterà in possesso di OpenAI per 30 giorni, fino alla cancellazione definitiva.

Questo basterà al Garante della Privacy? Basterà per far tornare ChatGPT in Italia?
Un altro cambiamento è che qualsiasi messaggio violerà i termini di servizio di OpenAI, sarà considerato abusivo. Potrebbero diventare arancioni e questa sarà una specie di ammonizione.

Oppure potrebbero diventare rossi e sparire immediatamente dallo schermo.

La verità è che è necessario stabilire al più presto un insieme di regole praticabili per l’uso dell’IA in Europa. L’UE ci starebbe lavorando, speriamo faccia presto.

È previsto entro la fine dell’anno e ha lo scopo di armonizzare le normative per i sistemi di IA negli Stati membri dell’UE. 

In conclusione, la sicurezza dei dati personali è una preoccupazione crescente e motivata per molte persone in tutto il mondo.

ChatGPT sta rispondendo a questo problema garantendo una maggiore protezione della privacy per i suoi utenti in Italia, in modo da permettere loro di utilizzare i suoi servizi di chatbot senza compromettere la loro sicurezza. Vedremo se queste modifiche basteranno al Garante.