Un’agenda politica per un progresso responsabile dell’IA Opportunità, Responsabilità, Sicurezza.

'Political agenda for responsible AI progress Opportunities, Responsibilities, Safety.'

Oggi Google pubblica un white paper con suggerimenti per un’agenda politica per un progresso responsabile dell’AI.

Come ha detto Sundar al Google I/O di questo mese, la crescita dell’AI è un cambiamento tecnologico così grande come non ne avevamo mai visto prima. Gli avanzamenti nei modelli di AI di oggi non stanno solo creando nuovi modi per interagire con le informazioni, trovare le parole giuste o scoprire nuovi luoghi, ma stanno aiutando le persone a fare completamente nuove scoperte scientifiche e tecnologiche.

Siamo sul punto di entrare in una nuova era, che ci permetterà di immaginare nuovi modi per migliorare significativamente la vita di miliardi di persone, aiutare le imprese a prosperare e crescere e sostenere la società nel rispondere alle nostre domande più difficili. Allo stesso tempo, dobbiamo essere consapevoli che l’AI comporterà rischi e sfide.

In questo contesto, siamo impegnati a muoverci avanti con coraggio, responsabilità e in collaborazione con gli altri.

Le richieste di un arresto degli sviluppi tecnologici sono improbabili di essere coronate da successo o essere efficaci, rischiando di perdere i considerevoli benefici dell’AI e di rimanere indietro rispetto a coloro che abbracciano il suo potenziale. Invece, abbiamo bisogno di sforzi a vasta base – tra governo, aziende, università e altro – per aiutare a tradurre le innovazioni tecnologiche in benefici diffusi, mitigando al contempo i rischi.

Quando ho delineato la necessità di un’Agenda Condivisa per il Progresso Responsabile dell’AI alcune settimane fa, ho detto che le pratiche individuali, gli standard dell’industria condivisi e le politiche governative sane sarebbero essenziali per fare bene l’AI. Oggi stiamo rilasciando un white paper con raccomandazioni di politica per l’AI, in cui incoraggiamo i governi a concentrarsi su tre aree chiave: sbloccare opportunità, promuovere la responsabilità e migliorare la sicurezza:

1. Sbloccare opportunità massimizzando la promessa economica dell’AI

Le economie che abbracciano l’AI vedranno una crescita significativa, superando i rivali che sono più lenti nell’adozione. L’AI aiuterà molte diverse industrie a produrre prodotti e servizi più complessi e preziosi, e aiuterà ad aumentare la produttività nonostante le crescenti sfide demografiche. L’AI promette anche di dare una spinta sia alle piccole imprese che utilizzano prodotti e servizi alimentati dall’AI per innovare e crescere, che ai lavoratori che possono concentrarsi su elementi non routine e più gratificanti del loro lavoro.

Cosa serve per fare bene questo: Per sbloccare l’opportunità economica che l’AI offre e minimizzare le interruzioni della forza lavoro, i responsabili delle politiche dovrebbero investire in innovazione e competitività, promuovere quadri giuridici che supportino l’innovazione responsabile dell’AI e preparare le forze lavoro per la transizione del lavoro guidata dall’AI. Ad esempio, i governi dovrebbero esplorare la ricerca fondamentale sull’AI attraverso i laboratori nazionali e le istituzioni di ricerca, adottare politiche che sostengano lo sviluppo responsabile dell’AI (inclusi i regolamenti sulla privacy che proteggono le informazioni personali e consentono flussi di dati affidabili attraverso i confini nazionali) e promuovere l’istruzione continua, programmi di miglioramento delle competenze, il movimento del talento chiave attraverso i confini e la ricerca sul futuro del lavoro in evoluzione.

2. Promuovere la responsabilità riducendo i rischi di maluso

L’AI sta già aiutando il mondo ad affrontare sfide dalla malattia al cambiamento climatico e può essere una forza potente per il progresso. Ma se non sviluppata e implementata in modo responsabile, i sistemi di AI potrebbero anche amplificare le attuali questioni sociali, come la disinformazione, la discriminazione e l’abuso degli strumenti. E senza fiducia nei sistemi di AI, le imprese e i consumatori saranno restii ad adottare l’AI, limitando la loro opportunità di cogliere i benefici dell’AI.

Cosa serve per fare bene questo: Affrontare queste sfide richiederà un approccio multi-stakeholder alla governance. Apprendendo dall’esperienza di internet, le parti interessate si presenteranno al tavolo con una sana comprensione sia dei potenziali benefici che delle sfide. Alcune sfide richiederanno una ricerca fondamentale per capire meglio i benefici e i rischi dell’AI, e come gestirli, e sviluppare e implementare nuove innovazioni tecniche in aree come l’interpretabilità e il watermarking. Altre sfide saranno affrontate meglio sviluppando standard comuni e condividendo le migliori pratiche e la regolamentazione proporzionale basata sul rischio per garantire che le tecnologie dell’AI siano sviluppate e implementate in modo responsabile. E altri potrebbero richiedere nuove organizzazioni e istituzioni. Ad esempio, le principali aziende potrebbero unirsi per formare un Forum Globale sull’AI (GFAI), basandosi su esempi precedenti come il Global Internet Forum per contrastare il terrorismo (GIFCT). L’allineamento internazionale sarà anche essenziale per sviluppare approcci politici comuni che riflettano i valori democratici ed evitino la frammentazione.

3. Migliorare la sicurezza globale prevenendo che gli attori maligni sfruttino questa tecnologia

L’AI ha importanti implicazioni per la sicurezza e la stabilità globale. L’AI generativa può aiutare a creare (ma anche a identificare e monitorare) disinformazione e media manipolati. La ricerca di sicurezza basata sull’AI sta guidando una nuova generazione di difese informatiche attraverso operazioni di sicurezza avanzate e intelligence sulle minacce, mentre gli exploit generati dall’AI possono anche consentire attacchi informatici più sofisticati da parte degli avversari.

Cosa serve per fare bene questo: Il primo passo è mettere in atto guardrail tecnici e commerciali per prevenire l’uso malintenzionato dell’AI e lavorare collettivamente per affrontare gli attori maligni, massimizzando nel contempo i potenziali benefici dell’AI. Ad esempio, i governi dovrebbero esplorare politiche di controllo del commercio di prossima generazione per applicazioni specifiche di software alimentato dall’AI che sono considerate rischi per la sicurezza, e su entità specifiche che forniscono supporto alla ricerca e sviluppo correlati all’AI in modi che potrebbero minacciare la sicurezza globale. Governi, accademie, società civile e aziende hanno anche bisogno di una migliore comprensione delle implicazioni di sistemi di AI sempre più potenti e complessi e di come possiamo allineare l’AI sofisticata e complessa con i valori umani. Alla fine della giornata, la sicurezza è un gioco di squadra e il progresso in questo campo richiederà la cooperazione sotto forma di ricerca congiunta, adozione di governance dei dati di prima classe, forum pubblico-privato per condividere informazioni sulle vulnerabilità di sicurezza dell’AI e altro ancora.

Pensieri finali

Con piena consapevolezza delle potenziali sfide, siamo fiduciosi che un’agenda politica incentrata sui pilastri chiave dell’opportunità, della responsabilità e della sicurezza possa sbloccare i benefici dell’IA e garantire che tali benefici siano condivisi da tutti.

Come abbiamo detto in precedenza, l’IA è troppo importante per non essere regolamentata e troppo importante per non essere regolamentata bene. Dalla struttura di verifica dell’IA di Singapore all’approccio pro-innovazione della regolamentazione dell’IA nel Regno Unito al Quadro di gestione del rischio dell’IA dell’Istituto nazionale di standard e tecnologia degli Stati Uniti, siamo incoraggiati nel vedere i governi di tutto il mondo affrontare seriamente i giusti quadri politici per queste nuove tecnologie e non vediamo l’ora di sostenere i loro sforzi.