Si sta paventando la possibilità che ChatGPT possa ricevere uno stop in Europa.

ChatGPT, un avanzato modello di intelligenza artificiale sviluppato da OpenAI, ha recentemente suscitato preoccupazioni relative alla sua sicurezza e all’uso responsabile.

Di conseguenza, le autorità europee stanno valutando restrizioni sull’accesso e l’utilizzo di ChatGPT nell’Unione Europea al fine di garantire la tutela dei dati personali e mitigare eventuali rischi associati alla sua implementazione.

Scopri le ragioni dietro queste restrizioni proposte e le possibili implicazioni per gli utenti e l’interazione con ChatGPT nel continente europeo.

Cosa sta accadendo e perché ChatGPT è a rischio stop in Europa?

La regolamentazione sull’IA di Bruxelles potrebbe portare al ritiro di ChatGPT dal mercato europeo, secondo alcuni rumors riguardanti le dichiarazioni di Sam Altman, CEO di OpenAI.

Durante un evento pubblico a Londra, Altman ha affermato che se OpenAI non riuscirà a conformarsi alle nuove norme, sarà costretta a cessare le operazioni.

I sistemi come ChatGPT, infatti, sono stati inclusi in quelli ad alto rischio dall’Eu AI Act, il documento attualmente in fase di finalizzazione.

Le aziende come OpenAI dovrebbero essere in grado di fornire più chiarezza ai governi del vecchio continente, ovvero:

  • la capacità di calcolo richiesta;
  • il tempo di formazione degli algoritmi;
  • le informazioni sul metodo di addestramento dei modelli, anche se ciò potrebbe comportare la divulgazione di informazioni protette da segreto aziendale.

In Europa, esiste infatti il GDPR, General Data Protection Regulation, il regolamento nato per proteggere i cittadini e il trattamento dei dati personali e la libera circolazione degli stessi.

Questi sistemi di AI dovrebbero dunque adeguarsi a questo importante regolamento.

Se vuoi scoprire la differenza tra Bard e ChatGPT, clicca qui.

L’Europa vuole regolamentare ChatGPT e le altre AI

Gli eurodeputati vogliono dare un’occhiata più da vicino alle chat GPT e Co. e regolamentarle.

Anche lo stesso Altman è d’accordo, infatti ha dichiarato: “Penso che l’intelligenza artificiale dovrebbe essere regolamentata”, dice, perché “dovremmo assicurarci che ciò che inviamo nel mondo abbia un senso”.

Come abbiamo anticipato, Altman avrebbe anche dichiarato davanti ai giornalisti Altman che i regolamenti annunciati dell’Unione Europea potrebbero essere seguiti da un ritiro dell’Open AI dall’Europa.

Secondo il CEO, infatti, l’attuale bozza della legge europea sull’IA conterrebbe un eccesso di regolamentazione difficile da mettere in pratica e “se non riusciremo a soddisfare i requisiti, cesseremo le operazioni“.

Ma in cosa consiste questa bozza? Al momento non ci sono molti dettagli conosciuti. Quello che si sa è che l’AI Regulation Act richiede alle aziende che sviluppano l’IA generativa come ChatGPT, di divulgare qualsiasi materiale protetto da copyright utilizzato.

Come disse lo stesso Altman: “Riduciamo in schiavitù l’IA o ci renderà schiavi”. L’AI, dunque, può essere pericolosa per il futuro dell’uomo.

In conclusione, la possibile decisione di ritirare ChatGPT dal mercato europeo a causa della regolamentazione sull’IA di Bruxelles ha sollevato dubbi e preoccupazioni.

OpenAI si impegna a rispettare le norme, ma l’eventuale impossibilità di farlo potrebbe portare alla chiusura delle operazioni. L’Eu AI Act, d’altro canto, richiede una maggiore trasparenza sulle tecnologie di intelligenza artificiale, ma ciò potrebbe compromettere segreti aziendali e metodi di allenamento dei modelli.

La situazione mette in luce l’importanza di trovare un equilibrio tra innovazione tecnologica, protezione dei dati personali e sicurezza. Sarà fondamentale seguire gli sviluppi futuri e comprendere le implicazioni di tali regolamentazioni sull’utilizzo dell’IA in Europa. Vi terremo aggiornati.