La battaglia all'IA: artisti e autori si difendono con 'veleno' e watermark

Non sono solo i 250.000 download di Nightshade in cinque giorni a dare il via alla battaglia all'uso improprio dell'IA: come si proteggeranno gli autori.

La battaglia all'IA: artisti e autori si difendono con 'veleno' e watermark
Articolo a cura di

La battaglia all'uso improprio dell'intelligenza artificiale è già iniziata. Dagli artisti agli autori, che si tratti di immagini o testo, tutti si stanno dando da fare per far rispettare i diritti. Dall'altra parte ci sono servizi potenzialmente aggirabili e, soprattutto, ci sono i malintenzionati, sempre e comunque pronti a sfruttare senza consenso il lavoro altrui.
In questo marasma, sia le grandi aziende del mondo Tech che gli stessi artisti e autori stanno rispondendo in massa alla problematica: che si tratti di implementare delle precauzioni direttamente nei servizi di generazione di immagini AI o di rendere inutilizzabili manualmente i contenuti, vale la pena fare il punto della situazione.

Dal "veleno digitale" alle etichette

Il 18 gennaio 2024 sul portale ufficiale della University of Chicago è stato pubblicato quello che possiamo definire il primo importante strumento di contrasto all'uso improprio dell'intelligenza artificiale in ambito artistico. Si fa riferimento a Nightshade, un tool che consente agli artisti di "avvelenare digitalmente" le loro opere in modo impercettibile all'occhio umano, al fine di renderle inutilizzabili per l'addestramento dei servizi di intelligenza artificiale.

Appena cinque giorni dopo il rilascio del programma, il contatore dei download aveva già superato quota 250.000. C'è, insomma, una schiera di artisti che ha iniziato ad andare oltre alla fase di semplice "protesta", agendo in modo concreto e in via preventiva.
Nel frattempo, il lancio di Nightshade ha fatto luce anche su un altro progetto legato alla University of Chicago, Glaze. L'operazione svolta da questi tool consiste nell'effettuare modifiche a livello di pixel che riescano a confondere le IA che provano a "leggere" l'immagine.
Un modello di intelligenza artificiale che prova a fare uso di un'opera "avvelenata digitalmente" potrebbe non riuscire nemmeno a individuarne lo stile grafico, fornendo un output quantomeno sconclusionato, se non assolutamente fuori contesto.

Nightshade adotta un approccio più estremo rispetto a Glaze, tanto da poter trasformare, ad esempio, dei cani in automobili: avrete probabilmente intuito il motivo per cui più di qualche artista ritiene che sia il tool lanciato a inizio 2024 a rappresentare la prima reale svolta nella battaglia contro l'intelligenza artificiale usata in modo improprio.
Tuttavia, mentre gli strumenti di avvelenamento digitale continuano a diffondersi, vale la pena notare che anche le Big Tech stanno iniziando a prendere provvedimenti atti a preservare i diritti degli artisti.

Diverse aziende associate al mondo dell'intelligenza artificiale, da OpenAI a Meta, consentono agli artisti di effettuare un'operazione di opt out, anche se spesso si tratta di un form da compilare per segnalare i singoli utilizzi impropri delle opere, quindi c'è ancora un bel po' di strada da fare in tal senso.
Circa le produzioni testuali è possibile per i webmaster, ad esempio, impedire che quanto pubblicato sui rispettivi siti Web venga utilizzato per l'addestramento di chatbot come ChatGPT e Google Bard/Gemini; tuttavia, questo non sembra essere sufficiente a contrastare i malintenzionati, sempre pronti ad aggirare le restrizioni in altro modo.

Allo stato attuale, oltretutto, non esistono dei tool effettivamente in grado di rilevare con certezza se un testo è stato scritto da un'intelligenza artificiale o meno. Inoltre, se si pensa ad altre forme artistiche, ad esempio alla musica, la situazione si fa sicuramente più intricata - non è un caso, dunque, che durante l'edizione 2024 del Festival di Sanremo La Repubblica si sia chiesta se l'intelligenza artificiale sia sbarcata o meno all'Ariston.
Tutto, insomma, in fase di evoluzione, ma quantomeno qualcosa si sta muovendo.

Una prima rivoluzione in tal senso sta già prendendo piede, visto l'avvento di appositi watermark ed etichette.
Per intenderci, OpenAI ha appena integrato nel suo strumento DALL-E 3 (dunque utilizzabile sia su ChatGPT che tramite API) dei metadati secondo standard C2PA (Coalition for Content Provenance and Authenticity, gruppo composto da grandi aziende del settore, da Microsoft ad Adobe, che sta spingendo affinché sia possibile riconoscere semplicemente le immagini generate dall'intelligenza artificiale). Si fa riferimento sia alla comparsa di un watermark visibile in alto a sinistra nell'immagine generata che a dei metadati "invisibili".
Tuttavia, per stessa ammissione di OpenAI, lo strumento non è ancora perfetto e non risulta attualmente applicabile ai video, ma solamente alle singole immagini. In ogni caso, le verifiche relative al modo in cui è stata creata un'immagine possono essere effettuate, ad esempio, mediante il portale Content Credentials.

Anche altre aziende stanno cercando di mettere un freno all'uso improprio dell'IA. Basti pensare al progetto SynthID di Google o al recente annuncio dell'arrivo delle etichette IA sui social di Meta. Inoltre, non bisogna dimenticarsi dell'AI Act europeo, che di fatto rappresenta la prima importante regolamentazione a livello globale sull'uso dell'intelligenza artificiale generativa.
Insomma, ci vorrà probabilmente un po' di tempo, ma quel che è chiaro è che il mondo sembra essersi reso conto di dover intervenire il più tempestivamente possibile sulle novità tecnologiche.