Esplorazione delle istituzioni per la governance globale dell’IA

Esplorazione della governance globale dell'IA

Nuovo white paper indaga modelli e funzioni delle istituzioni internazionali che potrebbero aiutare a gestire le opportunità e mitigare i rischi della AI avanzata

La crescente consapevolezza dell’impatto globale dell’intelligenza artificiale (AI) avanzata ha ispirato discussioni pubbliche sulla necessità di strutture di governance internazionale per aiutare a gestire le opportunità e mitigare i rischi coinvolti.

Molte discussioni hanno fatto riferimento a analogie con l’ICAO (Organizzazione internazionale dell’aviazione civile) nell’aviazione civile; CERN (Organizzazione europea per la ricerca nucleare) nella fisica delle particelle; AIEA (Agenzia internazionale per l’energia atomica) nella tecnologia nucleare; e organizzazioni intergovernative e multilaterali in molti altri settori. Eppure, mentre le analogie possono essere un buon punto di partenza, le tecnologie emergenti dall’AI saranno diverse dall’aviazione, dalla fisica delle particelle o dalla tecnologia nucleare.

Per avere successo nella governance dell’AI, è necessario comprendere meglio:

  1. Quali benefici specifici e rischi dobbiamo gestire a livello internazionale.
  2. Quali funzioni di governance richiedono tali benefici e rischi.
  3. Quali organizzazioni possono fornire al meglio tali funzioni.

Il nostro ultimo documento, con collaboratori dell’Università di Oxford, dell’Université de Montréal, dell’Università di Toronto, della Columbia University, dell’Università di Harvard, dell’Università di Stanford e di OpenAI, affronta queste domande e indaga come le istituzioni internazionali potrebbero aiutare a gestire l’impatto globale dello sviluppo dell’AI di frontiera e garantire che i benefici dell’AI raggiungano tutte le comunità.

Il ruolo fondamentale delle istituzioni internazionali e multilaterali

L’accesso a determinate tecnologie AI potrebbe notevolmente migliorare prosperità e stabilità, ma i benefici di queste tecnologie potrebbero non essere distribuiti in modo uniforme o focalizzati sui bisogni più urgenti delle comunità sottorappresentate o del mondo in via di sviluppo. L’accesso inadeguato ai servizi internet, alla potenza di calcolo o alla disponibilità di formazione o competenze nell’apprendimento automatico potrebbe anche impedire a determinati gruppi di beneficiare appieno dei progressi nell’AI.

Le collaborazioni internazionali potrebbero contribuire a risolvere questi problemi incoraggiando le organizzazioni a sviluppare sistemi e applicazioni che affrontino le esigenze delle comunità svantaggiate e migliorino l’istruzione, l’infrastruttura e gli ostacoli economici per consentire a tali comunità di utilizzare pienamente la tecnologia AI.

Inoltre, gli sforzi internazionali possono essere necessari per gestire i rischi derivanti dalle potenti capacità dell’AI. Senza adeguate salvaguardie, alcune di queste capacità, come lo sviluppo di software automatizzato, la ricerca di chimica e biologia sintetica e la generazione di testi e video, potrebbero essere utilizzate in modo improprio per causare danni. I sistemi AI avanzati potrebbero anche fallire in modi difficili da prevedere, creando rischi di incidenti con conseguenze potenzialmente internazionali se la tecnologia non viene utilizzata in modo responsabile.

Le istituzioni internazionali e multilaterali potrebbero contribuire a promuovere lo sviluppo e l’implementazione di protocolli per la sicurezza dell’AI che riducano al minimo tali rischi. Ad esempio, potrebbero agevolare un consenso globale sulle minacce che diverse capacità dell’AI pongono alla società e stabilire standard internazionali per l’identificazione e il trattamento di modelli con capacità pericolose. Le collaborazioni internazionali sulla ricerca sulla sicurezza migliorerebbero anche la nostra capacità di rendere i sistemi affidabili e resilienti all’uso improprio.

Infine, in situazioni in cui gli Stati hanno incentivi (ad esempio derivanti dalla concorrenza economica) per eludere gli impegni regolatori reciproci, le istituzioni internazionali possono contribuire a sostenere e incentivare le migliori pratiche e persino monitorare il rispetto degli standard.

Quattro modelli istituzionali potenziali

Esploriamo quattro modelli istituzionali complementari per sostenere la coordinazione globale e le funzioni di governance:

  • Una Commissione sull’AI di frontiera intergovernativa potrebbe sviluppare un consenso internazionale sulle opportunità e i rischi derivanti dai sistemi avanzati di AI e su come gestirli. Ciò aumenterebbe la consapevolezza e la comprensione pubblica delle prospettive e delle problematiche dell’AI, contribuirebbe a un rendiconto scientificamente informato sull’uso dell’AI e sulla mitigazione dei rischi e sarebbe una fonte di competenza per i responsabili delle decisioni politiche.
  • Un’Organizzazione per la governance dell’AI avanzata intergovernativa o multilaterale potrebbe contribuire a internazionalizzare e allineare gli sforzi per affrontare i rischi globali dei sistemi avanzati di AI stabilendo norme e standard di governance e assistendo nella loro attuazione. Potrebbe anche svolgere funzioni di monitoraggio della conformità per qualsiasi regime di governance internazionale.
  • Un’AI Collaborative per l’AI di frontiera potrebbe promuovere l’accesso all’AI avanzata come partenariato pubblico-privato internazionale. In questo modo, contribuirebbe a far beneficiare le società svantaggiate dalla tecnologia AI all’avanguardia e promuoverebbe l’accesso internazionale alla tecnologia AI per obiettivi di sicurezza e governance.
  • Un Progetto per la sicurezza dell’AI potrebbe riunire i principali ricercatori e ingegneri, fornendo loro risorse di calcolo e modelli di AI avanzati per la ricerca sulle mitigazioni tecniche dei rischi dell’AI. Ciò promuoverebbe la ricerca e lo sviluppo della sicurezza dell’AI aumentandone la scala, le risorse e il coordinamento.

Sfide operative

Molte importanti questioni aperte sulla fattibilità di questi modelli istituzionali rimangono ancora. Ad esempio, una Commissione sull’AI avanzata dovrà affrontare significativi sfide scientifiche date l’estrema incertezza sulle traiettorie e le capacità dell’AI e la limitata ricerca scientifica sugli argomenti avanzati dell’AI ad oggi.

Il rapido progresso dell’AI e la limitata capacità nel settore pubblico per questioni all’avanguardia dell’AI potrebbero anche rendere difficile per un’Organizzazione per la Governance dell’AI avanzata stabilire standard che tengano il passo con il panorama dei rischi. Le molte difficoltà della coordinazione internazionale pongono interrogativi su come i paesi saranno incentivati ad adottare i suoi standard o accettare il suo monitoraggio.

Allo stesso modo, i molti ostacoli per le società nell’utilizzare appieno i benefici dei sistemi avanzati di AI (e di altre tecnologie) potrebbero impedire a un Collaborativo sull’AI all’avanguardia di ottimizzare il suo impatto. Potrebbe anche essere difficile gestire una tensione tra la condivisione dei benefici dell’AI e la prevenzione della proliferazione di sistemi pericolosi.

E per il Progetto di Sicurezza dell’AI, sarà importante considerare attentamente quali elementi della ricerca sulla sicurezza siano meglio condotti attraverso collaborazioni rispetto agli sforzi individuali delle aziende. Inoltre, un Progetto potrebbe fare fatica a garantire un accesso adeguato ai modelli più capaci per condurre la ricerca sulla sicurezza da parte di tutti i sviluppatori rilevanti.

Data l’immensa opportunità e le sfide globali presentate dai sistemi di AI in arrivo, è necessaria una maggiore discussione tra i governi e altre parti interessate sul ruolo delle istituzioni internazionali e su come le loro funzioni possano favorire la governance e il coordinamento dell’AI.

Speriamo che questa ricerca contribuisca alle crescenti conversazioni all’interno della comunità internazionale su modi per garantire che l’AI avanzata sia sviluppata a beneficio dell’umanità.

Leggi il nostro articolo: https://arxiv.org/abs/2307.04699