Questo articolo sull’IA propone un metodo di riconoscimento facciale che preserva la privacy utilizzando la privacy differenziale nel dominio delle frequenze
Questo articolo propone un metodo di riconoscimento facciale che preserva la privacy usando la privacy differenziale nelle frequenze.
L’apprendimento profondo ha notevolmente avanzato i modelli di riconoscimento facciale basati su reti neurali convoluzionali. Questi modelli hanno un’alta percentuale di accuratezza e vengono utilizzati nella vita quotidiana. Tuttavia, sorgono preoccupazioni per la privacy, poiché le immagini facciali sono sensibili e i fornitori di servizi hanno raccolto e utilizzato dati non autorizzati. Sussiste anche il rischio che utenti malintenzionati e pirati informatici contribuiscano a violazioni della privacy. Per affrontare questi problemi, è necessario implementare meccanismi di protezione della privacy nel riconoscimento facciale.
Sono state proposte diverse soluzioni per affrontare questo problema, come i metodi di crittografia che criptano i dati originali e eseguono inferenze sui dati criptati per proteggere la privacy e mantenere un’alta precisione di riconoscimento. Purtroppo, questi approcci hanno una complessità computazionale bassa ma riducono significativamente l’accuratezza del riconoscimento. Inoltre, richiedono molte elaborazioni aggiuntive e non sono adatti a scenari su larga scala o interattivi. Un’altra tecnica consiste nell’utilizzare la privacy differenziale per convertire l’immagine originale in una proiezione su eigenfaces e aggiungere rumore per una maggiore privacy. Presenta un metodo di riconoscimento facciale che preserva la privacy attraverso la privacy differenziale nel dominio delle frequenze. La privacy differenziale in questo approccio offre una garanzia teorica di privacy.
Per evitare questi problemi, un team di ricerca cinese ha proposto un nuovo metodo che mira a sviluppare un metodo di riconoscimento facciale che preserva la privacy e consente al fornitore di servizi di apprendere solo il risultato della classificazione (ad esempio, l’identità) con un certo livello di fiducia, impedendo l’accesso all’immagine originale. Il metodo proposto utilizza la privacy differenziale nel dominio delle frequenze per fornire una garanzia teorica di privacy.
- I migliori database per Intelligenza Artificiale, IoT, Deep Learning, Machine Learning, Data Science e altre applicazioni software
- I sistemi di visione artificiale possono dedurre l’attività muscolare dal video? Incontra Muscles in Action (MIA) un nuovo dataset per imparare a incorporare l’attività muscolare nelle rappresentazioni del movimento umano.
- Ultima ricerca sull’IA dalla Cina presenta ‘OMMO’ un dataset e benchmark all’aperto multi-modale su larga scala per la sintesi di nuove visualizzazioni e la ricostruzione implicita della scena.
In concreto, gli autori hanno esplorato l’uso della conservazione della privacy nel dominio delle frequenze e hanno utilizzato la trasformata discreta del coseno a blocchi (DCT) per trasferire le immagini facciali grezze nel dominio delle frequenze. Questo separa le informazioni critiche per la visualizzazione dalle informazioni essenziali per l’identificazione. Hanno anche rimosso il canale del componente diretto (DC), che contiene la maggior parte dell’energia e delle informazioni di visualizzazione, ma non è necessario per l’identificazione. Hanno considerato che gli elementi a diverse frequenze dell’immagine di input hanno un’importanza diversa per il compito di identificazione e hanno proposto un metodo che tiene conto di ciò. Questo metodo richiede solo la configurazione di un budget medio di privacy per raggiungere un compromesso tra privacy e accuratezza. La distribuzione dei budget di privacy su tutti gli elementi viene appresa in base alla perdita del modello di riconoscimento facciale. Nel modulo di trasformazione del dominio delle frequenze, gli autori utilizzano la trasformata discreta del coseno a blocchi (BDCT) come base di trasformazione del dominio delle frequenze, simile all’operazione di compressione in JPEG. Considerano la rappresentazione BDCT dell’immagine facciale come un segreto e utilizzano la distanza tra segreti per misurare l’adiacenza tra i database. Controllano il rumore regolando la metrica di distanza per rendere segreti simili indistinguibili mantenendo segreti molto diversi distinguibili. Questo minimizza la possibilità di recupero garantendo al contempo la massima identificabilità. La scelta della metrica di distanza per i segreti è quindi cruciale.
Per valutare il metodo proposto, è stato condotto uno studio sperimentale per confrontarlo con cinque baselines utilizzando diversi dataset. Le baselines includono ArcFace, CosFace, PEEP, Cloak e InstaHide. I risultati mostrano che il metodo proposto ha un’accuratezza simile o leggermente inferiore rispetto alle baselines su LFW e CALFW, ma ha una maggiore diminuzione dell’accuratezza su CFP-FP, AgeDB e CPLFW. Il metodo proposto dimostra anche forti capacità di preservazione della privacy, con una diminuzione dell’accuratezza inferiore al 2% in media quando si utilizza un budget di privacy pari a 0,5. La tecnica può anche raggiungere capacità di preservazione della privacy più elevate aumentando il budget di privacy a scapito di una minore accuratezza.
In questo articolo, gli autori hanno proposto un framework per la protezione della privacy del viso basato sul metodo della privacy differenziale. Il metodo è veloce ed efficiente e consente di regolare la capacità di preservazione della privacy scegliendo un budget di privacy. Hanno anche progettato una struttura di allocazione del budget di privacy apprendibile per la rappresentazione delle immagini nel framework della privacy differenziale, che può proteggere la privacy riducendo al minimo la perdita di accuratezza. Sono state condotte varie sperimentazioni sulla privacy per dimostrare l’alta capacità di preservazione della privacy dell’approccio proposto con una perdita minima di accuratezza. Inoltre, il metodo degli autori può trasformare il dataset originale di riconoscimento facciale in un dataset di preservazione della privacy mantenendo un’alta disponibilità.