Ricercatori del MIT introducono PhotoGuard un nuovo strumento di intelligenza artificiale che impedisce la manipolazione non autorizzata delle immagini.

MIT researchers introduce PhotoGuard, a new AI tool that prevents unauthorized image manipulation.

In un mondo in cui le tecnologie basate sull’IA possono creare immagini che sfociano la linea tra realtà e fabbricazione, il rischio di abuso è imminente. Modelli generativi avanzati come DALL-E e Midjourney hanno abbassato le barriere di accesso, consentendo anche agli utenti inesperti di generare immagini iperrealistiche da semplici descrizioni di testo. Mentre questi modelli sono stati celebrati per la loro precisione e facilità d’uso, aprono anche la porta a un potenziale abuso, che va da alterazioni innocenti a manipolazioni maliziose.

Incontra “PhotoGuard”, una tecnica innovativa sviluppata dai ricercatori del Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT. Il metodo utilizza perturbazioni, minime alterazioni dei valori dei pixel che sono invisibili all’occhio umano ma rilevabili dai modelli informatici. Queste perturbazioni interrompono efficacemente la capacità dei modelli AI di manipolare le immagini, offrendo una misura preventiva contro un potenziale abuso.

Il team del MIT ha implementato due distinti metodi di “attacco” per generare queste perturbazioni. Il primo, chiamato “attacco dell’encoder”, mira alla rappresentazione latente del modello AI di un’immagine. Introducendo piccoli aggiustamenti a questa rappresentazione matematica, il modello AI percepirà l’immagine come un’entità casuale, rendendo estremamente difficile la manipolazione. Questi piccoli cambiamenti sono invisibili all’occhio umano, garantendo l’integrità visiva dell’immagine.

Il secondo metodo, l’attacco di “diffusione”, è più sofisticato. Definisce un’immagine di destinazione e ottimizza le perturbazioni per rendere l’immagine finale il più possibile simile all’immagine di destinazione. Creando perturbazioni nello spazio di input dell’immagine originale, PhotoGuard fornisce una difesa robusta contro la manipolazione non autorizzata.

Per illustrare meglio come funziona PhotoGuard, immagina un progetto artistico con un disegno originale e un disegno di destinazione. L’attacco di diffusione comporta modifiche invisibili al disegno originale, allineandolo con la percezione del modello AI della destinazione. Tuttavia, agli occhi umani, il disegno originale rimane invariato. Ogni tentativo di modificare l’immagine originale utilizzando modelli AI comporta involontariamente modifiche come se si stesse lavorando sull’immagine di destinazione, proteggendola così dalla manipolazione non autorizzata.

Anche se PhotoGuard mostra un enorme potenziale nella protezione contro la manipolazione delle immagini basata su AI, non è una panacea. Una volta che un’immagine è online, individui malintenzionati potrebbero cercare di violare le misure di protezione applicando rumore, ritagliando o ruotando l’immagine. Tuttavia, il team sottolinea che le perturbazioni robuste possono resistere a tali tentativi di elusione.

I ricercatori sottolineano l’importanza di un approccio collaborativo che coinvolga i creatori di modelli di modifica delle immagini, piattaforme di social media e responsabili politici. L’implementazione di regolamenti che impongano la protezione dei dati degli utenti e lo sviluppo di API per aggiungere automaticamente perturbazioni alle immagini degli utenti possono migliorare l’efficacia di PhotoGuard.

PhotoGuard è una soluzione innovativa per affrontare le crescenti preoccupazioni legate alla manipolazione delle immagini basata su AI. Mentre ci addentriamo in questa nuova era dei modelli generativi, bilanciare i loro potenziali benefici e la protezione contro l’abuso è fondamentale. Il team del MIT crede che il loro contributo a questo importante sforzo sia solo l’inizio e che un impegno collaborativo di tutte le parti interessate sia essenziale per salvaguardare la realtà nell’era dell’IA.