Meta sta lavorando attivamente per implementare un sistema di etichettatura automatica per le immagini generate dall’intelligenza artificiale (IA).

Questo sforzo è parte di un impegno più ampio per migliorare la gestione dei contenuti digitali sulla piattaforma.

Il lavoro non si ferma qui: l’azienda sta anche lavorando per estendere questa funzionalità ai video e all’audio, garantendo un’esperienza più sicura e controllata per gli utenti di Meta.

Meta etichetterà le immagini generate dall’IA, cosa accadrà?

Meta sta prendendo iniziative importanti per affrontare la sfida delle immagini generate dall’intelligenza artificiale (IA), implementando etichette su Facebook, Instagram e Threads per le immagini create con il suo generatore Imagine IA.

Questo è solo l’inizio: l’azienda sta lavorando per estendere questa funzionalità ai contenuti provenienti da altri servizi AI di terze parti come Google, OpenAI e Microsoft.

L’obiettivo è stabilire standard comuni per identificare quando un contenuto è stato generato utilizzando l’IA, un passo importante considerando la crescente difficoltà nel distinguere tra realtà e media AI-generati.

Meta è a lavoro anche per estendere questa etichettatura anche ai video e agli audio. L’obbiettivo è utilizzare strumenti per individuare segni invisibili di informazioni generate dall’IA, nonché per responsabilizzare gli utenti nella condivisione di contenuti artificiali e collaborare con partner di fact-checking per verificare e contrassegnare contenuti di dubbia provenienza.

Questi sforzi riflettono l’impegno di Meta nel garantire un’esperienza online sicura e affidabile per tutti gli utenti.

Sebbene questa mossa sia vista come un passo positivo, permangono preoccupazioni sulla sua efficacia nella lotta contro gli autori malintenzionati e sui limiti della tecnologia, perché l’IA può essere pericolosa per il futuro dell’uomo, in molti modi.

Etichettatura delle immagini generate dall’IA, qual è lo scopo?

Questa modifica comprenderà l’etichettatura delle immagini generate dall’intelligenza artificiale, sia che siano state create utilizzando i propri strumenti di intelligenza artificiale generativa o quelli forniti da altre società, con etichette che indicano la loro natura artificiale.

Lo scopo è ridurre il rischio che la disinformazione si diffonda attraverso immagini generate dall’intelligenza artificiale mascherate da foto reali.

Meta ha etichettato le immagini generate dalla sua intelligenza artificiale come “Immaginate con l’intelligenza artificiale”, in particolare a causa dell’ammaccatura della filigrana digitale incorporata nell’output dai suoi algoritmi.

L’enorme sfida da superare, però, è che molti strumenti di generazione di immagini IA non filigranano il loro output, rendendo facile per gli autori malintenzionati manipolare e distribuire i contenuti generati dall’IA senza divulgazione.

Inoltre, la tecnologia per rilevare ed etichettare in modo affidabile le immagini generate dall’intelligenza artificiale è ancora in fase di sviluppo e non esiste uno standard applicabile nella generalità dei casi.

La Coalition for Content Provenance and Authenticity (C2PA), un’iniziativa fondata da Adobe, ha cercato di allineare il lavoro delle aziende sulla provenienza dei contenuti. Tuttavia, la tecnologia sviluppata finora non è infallibile.

I ricercatori hanno scoperto che è relativamente semplice rimuovere o aggiungere filigrane a immagini generate artificialmente, mettendo così a rischio la loro affidabilità.

Hany Farid, professore presso la UC Berkeley School of Information e consulente dell’iniziativa C2PA, avverte che autori malintenzionati potrebbero sfruttare strumenti di intelligenza artificiale privi di filigrane per ingannare gli utenti.

Il professor Farid suggerisce che potrebbe essere necessario combinare più tecniche, come l’utilizzo di filigrane e tecnologie basate sull’hash, per garantire l’integrità dei contenuti generati dall’intelligenza artificiale.

Tuttavia, le filigrane sono meno diffuse nei media generati artificialmente rispetto alle sole immagini, come audio e video.

Ampliare la supervisione sui contenuti generati dall’IA

Anche se le nuove linee guida di Meta rappresentano un passo avanti nella lotta contro i contenuti falsi, non si concentrano solo sul materiale generato dall’intelligenza artificiale.

Recentemente, il consiglio di esperti dell’azienda ha confermato la decisione di Meta di pubblicare un video di Joe Biden che era stato manipolato per creare un’impressione fuorviante.

Questa scelta evidenzia la necessità che Meta riveda e migliori al più presto le sue regole sui “media manipolati” per includere non solo i contenuti generati dall’intelligenza artificiale, ma anche altri tipi di manipolazione.

Il portavoce di Meta, Kevin McAlister, riconosce l’importanza di un approccio più completo, spiegando: “Anche se alcune aziende stanno iniziando ad incorporare segnali nei loro generatori di immagini, non hanno ancora esteso questa pratica agli strumenti di intelligenza artificiale che producono audio e video nella stessa misura”.

Pertanto, Meta sta lavorando per aggiungere una funzionalità che consenta agli utenti di segnalare quando condividono video o audio generati dall’intelligenza artificiale, in modo da poter applicare le etichette appropriate.

Scopri come funzionerà l’Intelligenza Artificiale su Instagram e Facebook, cliccando qui.