Il Parlamento Europeo ha recentemente approvato un’importante regolamentazione sull’Intelligenza Artificiale (AI Act), che mira a stabilire norme e linee guida per l’utilizzo responsabile e sicuro di questa tecnologia emergente.
Questa decisione, com’è immaginabile, comporta nuove conseguenza per l’adozione e lo sviluppo dell’Intelligenza Artificiale in Europa, soprattutto per quanto riguarda la tutela dei diritti fondamentali, la trasparenza e l’accountability dei sistemi AI.
Vediamo nei dettagli cosa prevede l’AI Act e quali sono le sue conseguenze per il futuro dell’Intelligenza Artificiale nel Vecchio continente.
Il Parlamento Europeo ha finalmente approvato l’AI Act, in cosa consiste
Il Parlamento Europeo ha approvato il regolamento sull’Intelligenza Artificiale, chiamato AI Act. Si entra così, ufficialmente, nelle fase finale e questa normativa dovrebbe vedere la luce entro fine 2023 ed entrare in vigore nel 2024.
Il regolamento stabilisce, come era prevedibile, una serie di obblighi per i fornitori che utilizzano l’AI, a seconda del rischio che ne potrebbe derivare.
Saranno quindi vietati tutti quei sistemi e lavori di AI che comportano un rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati.
Tra questi, al primo posto, c’è il social scoring, ovvero una classificazione delle persone in base a gusti, comportamenti, caratteristiche personali.
Questo regolamento era tanto atteso, perché l’AI, inutile negarlo, può essere davvero pericolosa per il futuro dell’uomo.
L’AI Act vieta ogni tipo di identificazione biometrica
L’AI Act approvato dal Parlamento Europeo, vieta in toto ogni tipo di identificazione biometrica remota “in tempo reale” in spazzi accessibili a tutti.
Su questo punto non è prevista alcuna eccezione né alcun emendamento.
L’identificazione biometrica a posteriori, non in tempo reale dunque, può essere approvata solo per sventare o scoprire reati gravi e solo previa autorizzazione giudiziaria.
Il testo del regolamento sembra abbastanza definitivo ormai. Da quando il testo entrerà in vigore, abbiamo detto fine 2023, ci saranno due anni di “periodo di grazia”, in cui si perdoneranno alle aziende eventuali errori, con l’obbiettivo di raggiungere presto un adeguamento totale al regolamento approvato.
Anche perché, come abbiamo visto in un precedente articolo, stanno crescendo a dismisura gli utilizzi criminali dell’Intelligenza Artificiale.
I negoziati per una legge sull’Intelligenza Artificiale (IA) in Europa hanno richiesto più di due anni. Uno dei punti critici riguarda il bilanciamento tra innovazione e regolamentazione.
Qual è l’obbiettivo dell’AI Act?
L’AI Act prevede una graduale distinzione tra tecnologie di intelligenza artificiale a basso rischio e quelle vietate. L’obbiettivo è quello di rafforzare la fiducia nell’IA e prevenire i pericoli ad essa associati, senza però mettere all’angolo l’Europa come luogo per lo sviluppo e l’uso di tecnologie innovative.
La legge europea sull’IA ha un’importanza considerevole in quanto costituirà un esempio a livello internazionale. La decisione è stata presa a favore di una legislazione sulla sicurezza dei prodotti, simile per stile e struttura alle normative già in vigore per una vasta gamma di prodotti.
Si è scelto un approccio basato sul rischio, con requisiti rigorosi per le tecnologie ad alto rischio e requisiti minimi o nulli per quelle a basso rischio. Il concetto di “rischio” comprende non solo i rischi per la sicurezza, come quelli per la vita e l’incolumità fisica, ma anche i rischi per i diritti fondamentali, come la discriminazione.
Le posizioni sul tema all’interno del Parlamento europeo non sono uniformi, con alcuni parlamentari che vedono l’IA come una minaccia e altri come un’opportunità.
In ogni caso, si stanno compiendo sforzi per mantenere la legge flessibile e per consentire alla Commissione di apportare modifiche in vari punti senza dover passare attraverso un processo legislativo completo.