Rilevazione di contenuti generati dall’intelligenza artificiale

Cattura di Contenuti Generati dall'Intelligenza Artificiale

Sui deepfake, l’autenticità e il Decreto del Presidente sull’IA

Riesci a rilevare il falso? Foto di Liberty Ann su Unsplash

Uno dei molti interessanti problemi etici che si pongono con i progressi dell’IA generativa è la rilevazione del prodotto dei modelli. È anche una questione pratica per coloro di noi che consumano media. Questo che sto leggendo o guardando è il prodotto di un lavoro pensato da una persona, o solo parole o immagini generate in modo probabilistico per attrarre me? Ha importanza? In caso affermativo, cosa facciamo?

Il significato di contenuto indistinguibile

Quando parliamo di contenuti difficili o impossibili da rilevare come generati dall’IA, entriamo in qualcosa simile a un Test di Turing. Immagina che ti dia un paragrafo di testo o un file immagine. Se ti chiedo: “è stato prodotto da un essere umano o da un modello di apprendimento automatico?”, e tu non puoi dire con precisione, allora abbiamo raggiunto il punto in cui dobbiamo riflettere su queste questioni.

In molti ambiti siamo vicini a questo punto, soprattutto con GPT-4, ma anche con modelli meno sofisticati, a seconda del tipo di input che utilizziamo e del volume di contesto. Se abbiamo un lungo documento di un modello GPT, sarà probabilmente più facile rilevare che non è stato generato da un essere umano, perché ogni nuova parola è un’opportunità per il modello di fare qualcosa che una persona normale non farebbe. Lo stesso vale per un video o un’immagine ad alta risoluzione: più possibilità di pixelizzazione o di uncanny valley si presentano, maggiori sono le opportunità di individuare il falso.

Sembra anche chiaro che, man mano che ci familiarizziamo con i contenuti generati dal modello, diventeremo più bravi nell’identificare segni rivelatori dell’IA nel contenuto. Come ho descritto alcune settimane fa nella mia spiegazione su come funzionano le reti generative avversarie, siamo in una sorta di relazione GAN con l’IA generativa stessa. I modelli lavorano per creare contenuti il più simili possibile a quelli umani, e noi stiamo incrementando la nostra capacità di riconoscere che non è umano. È come una competizione in cui entrambe le parti cercano di superare l’altra.

Man mano che ci familiarizziamo con i contenuti generati dal modello, diventeremo più bravi nell’identificare segni rivelatori dell’IA nel contenuto.

Approcci di rilevazione

Tuttavia, probabilmente c’è un limite a quanto possiamo migliorare in questa rilevazione, e i modelli prevarranno sugli occhi e sulle orecchie umane (se non lo hanno già fatto). Semplicemente non abbiamo le capacità sensoriali e la sofisticazione del riconoscimento di modelli di dimensioni gigantesche. Fortunatamente, possiamo usare i modelli come strumenti dalla nostra parte in questa competizione, ad esempio addestrando modelli a scrutinare i contenuti e stabilire che non sono generati da un essere umano. Questo è un aiuto.

A un certo punto, però, potrebbe davvero non esserci alcun segno rilevabile in modo affidabile dell’origine dell’apprendimento automatico per alcuni contenuti, specialmente in piccole quantità. Filosoficamente parlando, data un’avanzata infinita del modello, probabilmente c’è un punto in cui non c’è differenza reale tra i due tipi di contenuto. Inoltre, la maggior parte di noi non utilizzerà un modello per testare tutti i media che consumiamo per assicurarci che siano generati da un essere umano e autentici. In risposta, alcune organizzazioni, come l’Iniziativa per l’autenticità dei contenuti, stanno facendo sforzi per ottenere l’adozione su vasta scala di metadati di autenticazione dei contenuti, il che potrebbe essere di aiuto. Questi tipi di sforzi, tuttavia, richiedono la buona volontà e l’impegno delle persone che mettono a disposizione i modelli.

A un certo punto, però, potrebbe davvero non esserci alcun segno rilevabile in modo affidabile dell’origine dell’apprendimento automatico per alcuni contenuti.

Potresti chiederti: “E le persone che agiscono intenzionalmente per creare danni con deepfake o disinformazione utilizzando contenuti generati dall’IA? Non si offriranno di identificare i loro contenuti, vero?” È una domanda legittima. Tuttavia, almeno in questo momento, i modelli che sono sufficientemente sofisticati da ingannare le persone su larga scala sono principalmente sotto il controllo di grandi aziende (OpenAI, ecc). Questo non sarà sempre il caso, ma in questo preciso momento potrebbe almeno fare una differenza significativa nel problema della provenienza se le persone che servono i LLM (Language Model) più sofisticati al pubblico intraprendessero qualche azione in tal senso.

Questa non è una storia molto ottimistica, finora. L’intelligenza artificiale generativa si sta dirigendo rapidamente verso un punto in cui quei modelli molto potenti sono abbastanza piccoli da poter essere utilizzati da attori malintenzionati e in cui quei modelli creano facilmente contenuti che sono letteralmente indistinguibili dai contenuti organici umani, anche da altri modelli.

Ragioni per la rilevazione

Mi sono un po’ avanti da me stesso. Ma perché è così importante per tutti capire se il contenuto proviene da un modello in primo luogo? Se non puoi dire, importa?

Una ragione importante è che il fornitore del contenuto potrebbe avere intenzioni maliziose, come la disinformazione o i deepfake. La creazione di immagini, audio e video sono gli scenari più comuni in questo caso, facendo sembrare che qualcuno abbia detto o fatto qualcosa che in realtà non ha fatto. Se hai seguito l’Ordine esecutivo del presidente degli Stati Uniti sull’IA, potresti aver sentito dire che il presidente Biden si è interessato a questo perché ha sentito del potenziale delle persone di utilizzare la sua immagine e la sua voce in modo fraudolento per la disinformazione. Si tratta di un problema molto serio, perché in questo momento tendiamo a fidarci di ciò che vediamo con i nostri stessi occhi in immagini o video, e ciò può avere un impatto significativo sulla vita e la sicurezza delle persone.

In questo momento tendiamo a fidarci di ciò che vediamo con i nostri stessi occhi in immagini o video, e ciò può avere un impatto significativo sulla vita e la sicurezza delle persone.

Una questione correlata è quando i modelli vengono utilizzati per imitare il lavoro di persone specifiche non per motivi necessariamente maliziosi, ma solo perché quel lavoro è piacevole, popolare e potenzialmente redditizio. È eticamente scorretto, ma nella maggior parte dei casi probabilmente non è inteso per nuocere attivamente al pubblico o alla persona imitata. (Danneggia le persone, ovviamente, togliendo loro il potenziale di guadagno e il sostentamento di artisti e scrittori, di cui i produttori dei contenuti dovrebbero essere responsabili.) Ciò può causare anche danni reputazionali quando i deepfake vengono utilizzati per mentire sulle azioni delle persone. (Chiedi a Joe Rogan, che sta combattendo gli annunci che utilizzano la sua immagine in deepfake).

Un terzo aspetto che ho cominciato a pensare dopo che Casey Newton lo ha discusso nel suo numero del 5 ottobre di Platformer è il rischio che le figure pubbliche possano invertire la questione e sostenere che prove reali e autentiche del loro cattivo comportamento siano state generate artificialmente. Cosa facciamo quando non siamo in grado di scoprire in modo affidabile cattive condotte utilizzando prove, perché “è un deepfake” è una risposta infalsificabile? Non siamo ancora arrivati a questo punto, ma potrei immaginare che diventi un vero problema in un futuro non troppo lontano.

Cosa facciamo quando non siamo in grado di scoprire in modo affidabile cattive condotte utilizzando prove, perché “è un deepfake” è una risposta infalsificabile?

Meno urgentemente, penso anche che ci sia qualcosa nel voler che il mio consumo dei media rappresenti l’interazione con un’altra persona, anche se è principalmente un movimento unidirezionale di idee. Penso che la lettura o il consumo di arte sia un coinvolgimento con i pensieri di un’altra persona, e interagire con parole concatenate da un modello non dà la stessa sensazione. Quindi personalmente, mi piacerebbe sapere se il contenuto che sto consumando è prodotto da un essere umano.

L’Ordine Esecutivo

Davanti a tutti questi rischi concreti, stiamo affrontando seri sfide. Sembra esserci un compromesso tra la provenienza rilevabile (cioè la sicurezza per il pubblico in generale e tutte le questioni che ho descritto sopra) e la sofisticazione del modello, e come industria, la scienza dei dati sta avanzando dalla parte della sofisticazione del modello. Chi troverà il giusto equilibrio?

L’ordine esecutivo del presidente rappresenta un progresso significativo su questo tema. (Parla anche di molte altre questioni importanti, di cui potrei parlare un’altra volta.) Ho trascorso l’ultima settimana e mezza a pensare a questo ordine esecutivo e a leggere le prospettive di altre persone in tutto il settore. Sebbene ci siano alcuni che sostengono che ostacolerà il progresso (e che favorirà i grandi attori dell’IA generativa a discapito dei concorrenti più piccoli), penso di essere ottimista sull’ordine esecutivo.

Creare modelli AI generativi competitivi è incredibilmente costoso e dispendioso in termini di risorse, e questo limita naturalmente quanti concorrenti possono entrare nello spazio in primo luogo. Proteggere ipotetici nuovi giocatori nello spazio a spese della sicurezza sociale più ampia non ha senso per me. Inoltre, non penso che l’ordinanza esecutiva sia per nulla onerosa per le organizzazioni che hanno le risorse per essere presenti in questa stanza in primo luogo.

L’ordinanza stessa non è nemmeno molto prescrittiva. Richiede la creazione di una serie di cose, ma lascia ampia latitudine su come dovrebbero avvenire, e sperabilmente persone ben informate saranno coinvolte in tali processi. 🤞 (Gli scienziati dei dati nel settore dovrebbero fare in modo di monitorare ciò che accade e di essere vocali se le cose non vanno per il verso giusto.) In particolare, chiede al Dipartimento del Commercio di creare “standard e migliori pratiche per rilevare contenuti generati da IA e autenticare contenuti ufficiali”. Ci sono anche alcuni componenti importanti per quanto riguarda la sicurezza e la protezione delle modalità stesse.

Ho una forte fiducia che il nostro governo farà un ottimo lavoro nella regolamentazione dell’IA senza danneggiare l’innovazione? No, sinceramente no. Ma sono fiducioso che l’industria lasciata alle sue logiche non presterà molta attenzione alle questioni di provenienza e rilevamento dei contenuti come è necessario – finora non hanno dimostrato che questa sia una priorità.

Sono fiducioso che l’industria lasciata alle sue logiche non presterà molta attenzione alle questioni di provenienza e rilevamento dei contenuti come è necessario.

Allo stesso tempo, non sono sicuro che la rilevazione dei contenuti prodotti tramite AI generativa sia effettivamente possibile fisicamente in tutti o anche nella maggior parte dei contesti, specialmente man mano che facciamo progressi. L’ordinanza esecutiva non dice nulla riguardo a impedire lo sviluppo di modelli se il loro contenuto attraversa una zona indistinguibile, ma questo rischio mi preoccupa. Ciò realmente sarebbe soffocare l’innovazione e dobbiamo pensarci molto attentamente sui compromessi che ci sono o potrebbero essere. Tuttavia, il cavallo potrebbe essere già scappato da quella particolare stalla – tanti modelli AI generativi open source sono già lì nel mondo, continuamente migliorando in ciò che fanno.

Conclusione

Questo argomento è complesso e l’azione corretta da intraprendere non è necessariamente molto chiara. Più sofisticata e complessa è l’output di un modello, maggiori sono le nostre possibilità di rilevare che l’output non è generato dall’uomo, ma siamo in una corsa tecnologica che renderà sempre più difficile tale rilevamento. Un coinvolgimento politico sull’argomento potrebbe fornirci alcune linee guida, ma non possiamo ancora sapere se aiuterà davvero o se si rivelerà un disastro mal gestito.

Questo è uno di quei momenti in cui non ho un modo per concludere in modo definitivo la discussione. I rischi potenziali e reali di un’uscita generativa AI indistinguibile sono seri e vanno trattati come tali. Tuttavia, siamo in un luogo scientifico/matematico in cui non possiamo creare una soluzione rapida o facile, e dobbiamo dare peso ai benefici che una generativa AI più avanzata potrebbe produrre.

Indipendentemente da ciò, gli scienziati dei dati dovrebbero prendere il tempo di leggere l’ordinanza esecutiva o almeno il foglio informativo e avere chiaro ciò che l’affermazione dice e ciò che non dice. Come i lettori abituali sapranno, penso che siamo responsabili di diffondere informazioni accurate e accessibili su queste questioni alle persone comuni nelle nostre vite, e questa è una buona opportunità, dato che l’argomento è notizia. Assicuratevi di contribuire positivamente alla comprensione della scienza dei dati intorno a voi.

Per vedere maggiori lavori miei visitate www.stephaniekirmer.com.

Riferimenti

Casey Newton – Numero del 5 ottobre di Platformer

Il foglio informativo sull’ordinanza esecutiva sull’IA

Il documento completo dell’ordinanza esecutiva sull’IA

Segnalazione di frodi deepfake nelle pubblicità, con Joe Rogan

Iniziativa per l’autenticità del contenuto

Creare lo standard per la provenienza del contenuto digitale.

contentauthenticity.org