Secondo quanto riportato stamane dall’ANSA, OpenAI avrebbe dichiarato, nella persona di Anna Makanju, Rensposabile delle Politiche Pubbliche, di condividere e appoggiare l’iniziativa europea sull’Intelligenza Artificiale, ritenendo fondamentale che i governi democratici stabiliscano regole per questo settore”.
Possiamo quindi aspettarci un ChatGPT più sicuro nell’immediato futuro.
La promessa di OpenaAI per rendere ChatGPT più sicuro
Anna Makanju, Responsabile delle Politiche Pubbliche di OpenAI, avrebbe anche aggiunto: “Non utilizziamo i dati per fini commerciali, il nostro modello è sicuro. Abbiamo dedicato sei mesi per configurare ChatGpt4 correttamente“.
Questo scambio di opinioni è avvenuto durante l’audizione al Parlamento Europeo sull’Intelligenza Artificiale. Rappresenta il primo incontro dell’azienda americana con un’istituzione europea.
Si tiene due mesi dopo la riattivazione di ChatGpt in Italia, in seguito alle osservazioni del Garante Privacy. “Siamo consapevoli che ci sono punti aperti nell‘AI Act dell’UE, ma l’ultima bozza presentata dal Parlamento europeo sembra andare nella giusta direzione“, ha aggiunto Makanju.
Makanju ha anche rassicurato gli stati europei sul fatto che OpenAI non utilizza i dati degli utenti per profilazione o identificazione.
Le informazioni vengono sfruttate solo per l’addestramento del chatbot e vengono eliminate entro un massimo di 30 giorni. Quindi i dati personali non verrebbero memorizzati.
La Vicepresidente della Camera, Anna Ascani, ha fatto una precisazione molto importante: “L’Intelligenza Artificiale generativa, per la prima volta, impatta non solo sui lavori ripetitivi, ma anche su quelli creativi. La tecnologia deve essere concepita come un supporto per l’essere umano e non come un sostituto. Sono certa che OpenAI potrà collaborare per fornire maggiori dettagli e una maggiore trasparenza su come sviluppa i suoi modelli, a beneficio di tutti”.
ChatGPT: qual è l’obbiettivo dell’AI Act europeo?
La legge sull’Intelligenza Artificiale (IA) proposta dall’UE si propone di garantire che i sistemi di IA utilizzati, diffusi o commercializzati nell’Unione rispettino rigorose norme di sicurezza e siano in linea con il quadro giuridico esistente relativo ai diritti fondamentali e ai valori dell’Unione.
La legge prevede requisiti chiari per i sistemi di IA e obblighi per tutti i soggetti coinvolti, con lo scopo di creare una chiarezza normativa che promuova gli investimenti e l’innovazione nel campo dell’IA.
Questo quadro normativo fa parte integrante della strategia dell’UE di sviluppare una normativa unica e mira a prevenire la frammentazione del mercato dovuta a normative nazionali potenzialmente discordanti.
L’obiettivo è garantire condizioni paritarie, proteggere tutte le persone e rafforzare il vantaggio competitivo e la base industriale dell’Europa nel campo dell’IA.
La legge vieta alcune pratiche di IA considerate dannose e contrarie ai valori dell’Unione, e si stabiliscono restrizioni e salvaguardie specifiche per l’uso di sistemi di identificazione biometrica remota nell’attività di contrasto.
In questo modo si garantisce che l’IA non sia un rischio per la salute, la sicurezza o i diritti fondamentali delle persone, sottoponendo tale sistema a rigorose procedure di valutazione della conformità.
Grazie all’AI Act si istituisce un sistema di governance a livello degli Stati membri, basato sulle strutture esistenti, che prevede anche un meccanismo di cooperazione a livello di Unione tramite l’istituzione del Comitato europeo per l’Intelligenza Artificiale.
Questo sistema garantisce una coerente applicazione della legge sull’IA a livello nazionale, sfruttando le competenze e le risorse degli Stati membri. Allo stesso tempo, il Comitato europeo per l’Intelligenza Artificiale facilita la cooperazione, armonizza le pratiche e garantisce un’applicazione uniforme delle norme in tutta l’Unione.
Attraverso questi solidi meccanismi si tutelano le persone e anche la loro fiducia nell’AI.