Google applica filigrane alle immagini generate da intelligenza artificiale per proteggersi dai deepfake

Google utilizza filigrane per proteggersi dai deepfake nelle immagini generate da IA

In un significativo passo verso la lotta contro la diffusione di contenuti ingannevoli, Google ha introdotto una soluzione innovativa che porta un nuovo livello di difesa contro l’assalto dei deepfake. Questo sforzo pionieristico utilizza filigrane invisibili, come scudi segreti, sulle immagini create utilizzando la tecnologia dell’IA. Lo strumento per la filigrana, chiamato “SynthID”, è il prodotto della collaborazione innovativa tra Google Research, Google Cloud e Google DeepMind. Esploriamo come questa mossa rafforza l’integrità visiva online e aiuta la battaglia contro i deepfake e la disinformazione digitale.

Leggi anche: Come rilevare e gestire i deepfake nell’era dell’IA?

SynthID: un custode dell’autenticità

Lo strumento rivoluzionario, chiamato SynthID, conferisce una firma invisibile ma indelebile alle immagini, segnalando la loro origine come creazioni generate dall’IA. Questa innovazione per la filigrana è destinata a diventare un’arma potente nell’arsenale contro i deepfake, proteggendo anche le immagini protette da copyright. La potenza di SynthID risiede nella sua capacità di inserire in modo sottile filigrane digitali all’interno dei pixel stessi di un’immagine. La brillantezza di questa tecnica sta nella sua quasi invisibilità agli occhi umani, ma rimane individuabile attraverso l’obiettivo di un algoritmo.

Leggi anche: L’arte generata dall’IA nega i diritti d’autore secondo la Corte degli Stati Uniti

Silenzioso ma resiliente

SynthID entra in gioco con funzionalità robuste progettate per affrontare il panorama dinamico delle immagini generate dall’IA. Operando come versione beta all’interno di Vertex AI, la piattaforma di Google per la creazione di applicazioni e modelli di intelligenza artificiale, SynthID supporta esclusivamente Imagen, il modello di testo-immagine pionieristico di Google. Questo straordinario strumento va oltre il superficiale, scansionando le immagini in arrivo per la filigrana SynthID. L’identificazione della filigrana viene misurata in tre livelli di certezza: rilevata, non rilevata e potenzialmente rilevata.

Leggi anche: L’UE chiede misure per identificare i deepfake e i contenuti di intelligenza artificiale

Doppio custode dell’IA

Al cuore di SynthID si trova la sinergia di due modelli di intelligenza artificiale: uno dedicato alla filigrana e l’altro all’identificazione. Queste due forze formidabili sono state addestrate insieme utilizzando un insieme diversificato di immagini. Questa potenza combinata consente a SynthID di penetrare attraverso livelli di modifica, come filtri, alterazioni del colore o compressione intensa, mantenendo la capacità di identificare le immagini generate dall’IA.

Leggi anche: PhotoGuard del MIT utilizza l’IA per difendersi dalla manipolazione delle immagini dell’IA

Lo scudo di certezza di SynthID

SynthID si pone come un sentinella, infallibile ma cauta. Sebbene non possa vantare una certezza assoluta nell’identificazione delle immagini con filigrana, possiede l’acume per distinguere tra le immagini che potenzialmente potrebbero portare la filigrana e quelle più propense ad ospitarla. Questo approccio strategico assicura che SynthID colpisca il giusto equilibrio tra accuratezza e analisi cauta.

Leggi anche: Lo strumento di rilevamento dell’IA di OpenAI non riesce a individuare il 74% dei contenuti generati dall’IA

Un’onda crescente di contromisure

L’innovativo approccio di Google alla filigranatura delle immagini non è l’unico sforzo nell’arena. Aziende come Imatag e Steg.AI si sono unite alle fila con tecniche di filigranatura resilienti al ritaglio, ridimensionamento e modifiche. Anche Microsoft ha promesso il suo impegno per la filigranatura crittografica. Shutterstock e Midjourney si sono presentate con le loro approcci, incorporando marcatori che indicano contenuti generati dall’IA. DALL-E 2 di OpenAI ha anche incorporato sottili filigrane come testimonianza delle sue creazioni.

Leggi anche: 4 giganti della tecnologia – OpenAI, Google, Microsoft e Anthropic si uniscono per un’IA sicura

La nostra opinione

Mentre il campo dell’IA generativa è ricco di possibilità creative, aumenta anche il potenziale per la disinformazione e l’inganno. L’emergere delle filigrane SynthID segna una notevole avanzata nel garantire trasparenza e autenticità nel panorama digitale. Questa salvaguardia invisibile, alimentata dalla sinergia dell’IA, darà potere agli utenti distinguendo tra contenuti genuini e creazioni generate dall’IA. In un’epoca permeata da una dualità digitale, l’introduzione di SynthID non è solo un progresso tecnologico, ma anche una manovra strategica per proteggere la verità e contrastare la diffusione della disinformazione.