Il ruolo proattivo dell’IA nel superare la corruzione nel governo

Il ruolo proattivo dell'Intelligenza Artificiale nel contrastare la corruzione nel governo

Immagine dell'autore, creata con l'assistenza di DALL.E 3

Rivoluzionare gli sforzi con le reti avversariali generative e i dati sintetici

Introduzione

La recente esplosione dei modelli generativi di Intelligenza Artificiale (IA) ha focalizzato l’attenzione del mondo sull’etica, i rischi e le preoccupazioni legate alla sicurezza, e la conferenza di Bletchley Park dello scorso mese si è conclusa con l’impegno di collaborazione internazionale per la sicurezza dei sistemi emergenti di IA. Tuttavia, questi stessi sistemi possono aiutare a affrontare sfide simili nell’ambito dell’impegno etico in altri settori.

La corruzione governativa e i pregiudizi sistemici sono formidabili ostacoli per le società prosperanti ma sono difficili da affrontare. I dati sintetici e l’IA generativa sotto forma di reti avversariali generative (GAN) offrono la possibilità non solo di individuare pratiche corrotte, ma anche di prevenire innovazioni nella corruzione stessa.

L’estensione e il costo della corruzione nel governo

L’Indice di Percezione della Corruzione di Transparency International illustra costantemente l’ampiezza di questo problema in diversi governi. Le sue molteplici forme possono includere il clientelismo, le tangenti, il nepotismo, la manipolazione delle prove, i tangenti e comportamenti simili volti a ottenere vantaggi attraverso l’abuso della funzione. Ciò comporta un costo finanziario significativo e la Banca Mondiale lo ha stimato a 2,6 trilioni di dollari all’anno, con circa un trilione di dollari pagati annualmente in tangenti in tutto il mondo. Questo è già un importo considerevole, ma gli effetti della corruzione si estendono oltre. La corruzione danneggia la fiducia nelle istituzioni pubbliche, erode il rispetto delle leggi, minaccia servizi fondamentali come l’istruzione e la salute e toglie fondi vitali necessari per affrontare i cambiamenti climatici. I vantaggi per coloro che sono coinvolti (o che chiudono un occhio) e le potenziali minacce per la sicurezza personale agiscono da potente deterrente per i testimoni. L’IA offre uno strumento importante per potenziare le unità anticorruzione.

L’utilizzo dell’IA nella lotta alla corruzione

L’IA si rivela utile nel tentativo di comprendere dati complessi che presentano una trama intricata di interconnessioni. Sebbene non diffuso, esistono esempi di IA che identificano comportamenti criminali e corrotti.

Nel 2017, i ricercatori spagnoli Félix López-Iturriaga e Iván Pastor Sanz hanno utilizzato reti neurali per costruire un modello predittivo per la corruzione nelle province spagnole. Hanno utilizzato dati reali provenienti da un database di casi di corruzione creato dal giornale El Mundo, analizzando gli anni precedenti le condanne, al fine di individuare segnali di allarme potenziali. Ciò ha permesso al modello di IA di scoprire relazioni e connessioni non visibili, come l’aumento dei prezzi immobiliari e i casi di corruzione.

L’uso dell’IA per individuare comportamenti sospetti e prevenire attività fraudolente è già ampiamente diffuso nel settore bancario.

Il sistema dell’Ucraina per identificare i rischi negli appalti (PROZORRO) utilizza un programma chiamato DOZORRO progettato per individuare possibili incongruenze nella pubblica amministrazione. I dati utilizzati per addestrare l’IA provengono da valutazioni dei rischi effettuate da esperti su circa 3.500 appalti. Il sistema è quindi in grado di valutare in modo indipendente i rischi di corruzione negli appalti e condividere i risultati con organismi di controllo della società civile. Le prime rilevazioni suggeriscono che miliardi di dollari sono stati risparmiati, il governo è più legittimo e, in un contesto attuale, le aziende straniere sono più propense a investire.

La Banca Mondiale ha lanciato nel 2021 una piattaforma anti-corruzione e trasparenza basata sull’intelligenza artificiale (ProACT), che utilizza dati provenienti da fonti aperte in oltre 100 paesi. Consente a chiunque di cercare e valutare appalti pubblici, la loro valutazione di trasparenza e i potenziali rischi di integrità.

I sistemi di intelligenza artificiale si basano sui dati, ma la scarsità di dati affidabili negli studi sulla corruzione è una sfida ampiamente documentata. Può essere difficile ottenere dati accurati a causa della natura nascosta delle attività corrotte, registri che non contengono i dati corretti o contengono errori, o una mancanza di conoscenza sulle nuove approcci e sistemi per la frode.

Dati sintetici

Un possibile aiuto per molti di questi problemi è l’uso di dati sintetici, che sono dati generati artificialmente attraverso algoritmi anziché raccolti da eventi o processi del mondo reale. I dati sintetici imitano i dati autentici, rendendoli utili per l’addestramento dei modelli di apprendimento automatico quando i dati reali non sono disponibili o sono insufficienti o sensibili. I modelli possono imparare e adattarsi in ambienti che riflettono scenari di corruzione del mondo reale, senza rischi di violazioni della privacy o di dati sensibili compromessi.

Data la complessità delle reti di corruzione e la scarsità di dati, i dati sintetici offrono un livello di dettaglio essenziale per addestrare l’intelligenza artificiale a rilevare modelli di corruzione sfumati che non emergono nei dataset più semplici. Costruendo dataset realistici, i sistemi di intelligenza artificiale sono dotati di strumenti per esplorare, comprendere e predire.

Questi set di dati fittizi di alta qualità possono addestrare i sistemi di intelligenza artificiale in scenari complessi e intricati. Questo approccio aumenta la sicurezza e l’anonimato delle persone coinvolte in indagini sensibili e fornisce la complessità necessaria all’intelligenza artificiale per riconoscere e predire schemi di corruzione.

Inoltre, le ricerche suggeriscono che i sistemi di intelligenza artificiale addestrati su dati sintetici possono raggiungere livelli di precisione comparabili a quelli addestrati su dati del mondo reale, ma in una frazione del tempo e senza le complicazioni etiche e legali spesso associate all’uso di dati reali. Ciò significa che l’addestramento dell’intelligenza artificiale con dati sintetici è efficiente e più probabile che tenga il passo con il cambiamento da parte dei criminali (che utilizzano anche l’intelligenza artificiale per migliorare le loro tecniche).

Reti generative avversariali (GAN): la tecnologia di base

Le GAN sono un tipo di tecnologia di intelligenza artificiale utilizzata per generare dati sintetici che impiegano due reti neurali: il generatore e il discriminatore, in un processo dinamico in cui ciascuna rete impara cercando di superare l’altra.

Dopo essere state addestrate su dati reali limitati, il generatore crea scenari dettagliati di corruzione sintetica, mentre il discriminatore cerca di determinare se ciò che sta esaminando è reale o falso (inizialmente basandosi sulla propria formazione su dati reali limitati). Le creazioni iniziali sono probabilmente rudimentali, con il discriminatore che identifica facilmente la risposta corretta. Tuttavia, il generatore impara da ciò e migliora le sue produzioni. Man mano che i dati del generatore diventano sempre più realistici, aumenta anche la capacità del discriminatore di differenziare. Questo processo iterativo continua fino a quando i dati sintetici finali rappresentano da vicino scenari reali e potenziali nel mondo reale e schemi sfumati di corruzione.

I dati che emergono da tutto ciò evitano i problemi associati ai dati reali menzionati in precedenza, in particolare riguardo ai vincoli di disponibilità limitata e alla privacy/riservatezza dei dati. Questo database sintetico viene quindi utilizzato come base per addestrare specifici sistemi di intelligenza artificiale per svolgere l’attività di previsione, rilevazione o analisi della corruzione.

La differenza con i dati sintetici generati da GAN

Aumentando la quantità e la complessità dei dati sintetici generati da GAN, i governi e gli organismi di regolamentazione possono migliorare le proprie capacità di rilevamento, diventando più abili nell’identificare forme sottili e complesse di corruzione che altrimenti potrebbero passare inosservate.

Simulando una vasta gamma di scenari di corruzione, le GAN contribuiscono a creare strumenti di intelligenza artificiale che sono reattivi (individuano incidenti di corruzione) e proattivi (identificano scenari di sviluppo nel mondo reale che hanno probabilità crescenti di portare alla corruzione). I sistemi di intelligenza artificiale addestrati sui dati sintetici possono imparare da una vasta varietà di possibili scenari di corruzione, compresi quelli che potrebbero non essere ben rappresentati o disponibili nei dati del mondo reale. Ciò significa che il sistema di intelligenza artificiale aumenta la sua comprensione dei modelli di corruzione e sviluppa sistemi più robusti e intelligenti per combatterli.

La Banca Mondiale ha individuato diversi modi in cui potrebbe evolversi il comportamento corruttivo, tra cui l’introduzione di complessi modelli di dati e piattaforme digitali per nascondere attività illecite, l’uso di professionisti (banchieri, avvocati e commercialisti) come facilitatori in reti sofisticate e metodi più intricati di corruzione per eludere nuovi standard internazionali.

Man mano che aumenta la capacità di svolgere attività corruttive, anche gli sforzi anticorruzione devono diventare più sofisticati. La velocità con cui l’IA può generare, testare e rigenerare scenari e la varietà di contesti che può creare apre la possibilità di tenere il passo con, o addirittura superare, il ritmo di questo cambiamento.

Dimensioni etiche e preoccupazioni per la privacy

Anche se l’uso di dati sintetici limita i rischi per la privacy, la fase di addestramento iniziale per svilupparli richiede dati reali provenienti da archivi governativi, relazioni di audit, dati di conformità, basi dati del settore pubblico, documenti legali e normativi e segnalazioni e lamentele di whistleblower. Ciò solleva comprensibilmente diversi rischi:

1. Informazioni sensibili: I dati elaborati in contesti governativi spesso includono dettagli personali, file governativi confidenziali o registri finanziari sensibili. Le informazioni nelle offerte di appalti sono invariabilmente commerciali e riservate.

2. Incorporazione di pregiudizi: Eventuali pregiudizi o discriminazioni (esplicite o implicite) contenuti nei dati iniziali possono influenzare il sistema successivo. Ad esempio, le discriminazioni di genere o razziali nelle decisioni, nelle nomine o nei ruoli, per quanto sottili, saranno considerate parte della “verità” di base su cui la macchina costruisce le sue conoscenze.

3. Rischio di abuso o violazioni dei dati: I sistemi governativi di intelligenza artificiale potrebbero essere oggetto di attacchi a scopo malevolo, a causa del loro accesso a grandi banche dati potenzialmente riservate, con conseguenti violazioni dei dati o abusi delle informazioni.

4. Sviluppo etico dell’IA: Poiché i sistemi di intelligenza artificiale sono addestrati per rilevare modelli di corruzione, devono farlo senza violare i diritti individuali o creare nuovi dilemmi etici.

5. Conformità legale: Rigorose leggi sulla protezione dei dati disciplinano sempre più la gestione dei dati personali (ad esempio, GDPR).

6. Mantenere la fiducia pubblica: La fiducia nelle istituzioni pubbliche può essere minata se gli strumenti di intelligenza artificiale vengono considerati una violazione della privacy o immorali.

Le azioni concrete per mitigare i rischi elencati sopra includono il rispetto dei quadri legali applicabili, l’implementazione di solide salvaguardie per la privacy, revisioni esperte dei dati di apprendimento per individuare pregiudizi, protezioni per l’uso dei dati personali e trasparenza per il pubblico su come vengono mantenute le norme etiche. Un approccio proattivo aumenterà la legittimità e l’affidabilità dell’IA in fase di sviluppo e ridurrà il rischio che eventuali successivi procedimenti per corruzione siano compromessi da sfide ai sistemi utilizzati.

Introduzione di GAN e dati sintetici nei sistemi governativi anticorruzione

Il diagramma seguente fornisce un esempio di dove GAN e dati sintetici generati verrebbero introdotti in un sistema di rilevamento della corruzione tramite intelligenza artificiale.

Diagramma creato dall'autore
  1. Dati per l’addestramento iniziale: Questo implica l’identificazione dei settori governativi inclini alla corruzione, potenzialmente attingendo a società civile anticorruzione esterna per fornire expertise. I dati storici della vita reale su situazioni corrotte e non corrotte di questi settori vengono quindi verificati rispetto a salvaguardie etiche.
  2. Creazione, addestramento e operazione della GAN: Il modello GAN riceve un addestramento iniziale basato su dati reali del mondo reale e viene quindi lasciato a gestire le interazioni tra le sue due reti per produrre dati sintetici.
  3. Addestramento e affinamento dei modelli di rilevamento dell’IA: I dati sintetici prodotti dalla GAN vengono utilizzati per addestrare un nuovo modello di intelligenza artificiale nel rilevare modelli indicativi di attività corrotte.
  4. Monitoraggio continuo per etica e pregiudizi: Anche se i dati sintetici riducono notevolmente il rischio di pregiudizi e preoccupazioni per la privacy, c’è ancora la possibilità che emergano problemi residui.
  5. Test pilota: I test iniziali possono essere effettuati utilizzando modelli di intelligenza artificiale implementati in ambienti controllati per valutare la loro efficacia nell’individuare pratiche corrotte (con feedback fornito alla GAN per apportare modifiche).
  6. Implementazione su larga scala: I modelli vengono integrati nei sistemi governativi più ampi (mantenendo sempre una supervisione continua e apportando eventuali aggiustamenti necessari).
  7. Apprendimento continuo e adattamento: I risultati del sistema di rilevamento della corruzione tramite intelligenza artificiale possono essere reinseriti nella GAN, passando attraverso lo stesso processo utilizzato in precedenza per controllare i pregiudizi e rimuovere eventuali preoccupazioni per la privacy o la sicurezza, per garantire che il sistema rimanga flessibile e adattabile alle nuove tattiche di corruzione e ai cambiamenti dei dati in evoluzione.

Conclusion

L’uso di dati sintetici creati utilizzando le Generative Adversarial Networks (GANs) è un approccio metodico per combattere la corruzione che va oltre la semplice individuazione delle pratiche attuali, per prevedere e adattarsi alle tendenze emergenti. Utilizzando un processo di apprendimento continuo e iterativo, il sistema può potenzialmente identificare e adattarsi ai futuri metodi di corruzione. La scarsità di dati sulla corruzione, in particolare il livello di dettaglio che consente ai sistemi di individuazione di rilevare indicatori sempre più sottili, potenzialmente diffusi su più giurisdizioni, è mitigata dalla capacità delle GAN di sviluppare nuovi dati per una moltitudine di scenari diversi.

Le preoccupazioni etiche persistono, sebbene notevolmente ridotte, pertanto le salvaguardie e il monitoraggio rimangono fondamentali. Come fondamento di una buona governance, i governi e gli enti di regolamentazione devono mantenere trasparenza e responsabilità come priorità assolute.

Nonostante la sua giovinezza, il potenziale dell’intelligenza artificiale nella lotta alla corruzione è significativo. Il ritmo dell’innovazione nelle pratiche corrotte si sta accelerando, con l’utilizzo dell’IA per creare reti sempre più opache e complesse volte a eludere gli strumenti classici di individuazione. Le agenzie governative anticorruzione devono mantenere, come minimo, una traiettoria simile di inventiva e investire in dati sintetici generati da GAN offre l’opportunità di prevedere e quindi mitigare. Inoltre, con trilioni di dollari persi ogni anno a causa della corruzione, lo sviluppo dell’IA in un settore in cui il successo può portare a un aumento diretto dei bilanci per la spesa pubblica, perseguire tale investimento consente ai governi di soddisfare le esigenze del loro popolo.