3 pratiche emergenti per una generazione responsabile dell’IA

3 pratiche emergenti per IA responsabile

Il lavoro continuo di Google nell’ambito dell’IA alimenta strumenti utilizzati ogni giorno da miliardi di persone, tra cui Google Search, Translate, Maps e altri ancora. Alcuni dei lavori che ci entusiasmano di più riguardano l’utilizzo dell’IA per risolvere importanti problemi sociali, come la previsione delle inondazioni, la riduzione delle emissioni di carbonio e il miglioramento dell’assistenza sanitaria. Abbiamo appreso che l’IA ha il potenziale per avere un impatto esteso sulle crisi globali che tutti affrontiamo, espandendo nel contempo i benefici delle innovazioni esistenti alle persone di tutto il mondo.

È per questo motivo che l’IA deve essere sviluppata in modo responsabile, affrontando preoccupazioni identificabili come equità, privacy e sicurezza, con la collaborazione di tutto l’ecosistema dell’IA. Ed è per questo motivo – in seguito all’annuncio che nel 2017 saremmo diventati un’azienda “prima di tutto sull’IA” – che abbiamo condiviso i nostri Principi sull’IA e, da allora, abbiamo costruito una struttura di governance basata su questi principi e un processo di revisione etica scalabile e ripetibile. Per aiutare gli altri a sviluppare l’IA in modo responsabile, abbiamo anche creato un kit di strumenti per un’IA responsabile in costante crescita.

Ogni anno, condividiamo un rapporto dettagliato sui nostri processi di valutazione dei rischi, revisioni etiche e miglioramenti tecnici, disponibile pubblicamente in un aggiornamento annuale – 2019, 2020, 2021, 2022 – integrato da un breve resoconto semestrale sui nostri progressi, che copre ciò che osserviamo nel settore.

Quest’anno, l’IA generativa sta ricevendo più attenzione pubblica, dibattito e interesse collaborativo di qualsiasi altra tecnologia emergente nella nostra vita. E questo è positivo. Questo spirito collaborativo può solo beneficiare dell’obiettivo dello sviluppo responsabile dell’IA sulla strada per sfruttare i suoi benefici, dall’aiutare le piccole imprese a creare campagne pubblicitarie più coinvolgenti, all’abilitare un numero maggiore di persone a prototipare nuove applicazioni di IA, anche senza scrivere codice.

Dal nostro punto di vista, abbiamo applicato i Principi sull’IA e un processo di revisione etica al nostro stesso sviluppo di AI nei nostri prodotti – l’IA generativa non fa eccezione. Quello che abbiamo scoperto nei sei mesi precedenti è che ci sono modi chiari per promuovere pratiche più sicure e socialmente utili per le preoccupazioni relative all’IA generativa, come il pregiudizio ingiusto e la correttezza. Integriamo in modo proattivo considerazioni etiche fin dalle prime fasi del processo di progettazione e sviluppo e abbiamo notevolmente ampliato le nostre revisioni degli sforzi di IA in fase iniziale, con un focus sulla guida nei progetti di IA generativa.

Per il nostro aggiornamento semestrale, vorremmo condividere tre delle nostre migliori pratiche basate su questa guida e su ciò che abbiamo fatto nella progettazione, nelle revisioni e nello sviluppo pre-lancio dell’IA generativa: progettare per la responsabilità, condurre test avversari e comunicare spiegazioni semplici e utili.

1. Progettare per la responsabilità.

È importante identificare e documentare inizialmente i danni potenziali e avviare il processo di sviluppo del prodotto di IA generativa utilizzando dataset, classificatori e filtri responsabili per affrontare preventivamente questi danni. Sulla base di questo, facciamo anche quanto segue:

  • Partecipiamo a workshop insieme alla comunità di ricerca per identificare modi completi per costruire un’IA affidabile. Di recente, abbiamo sostenuto e contribuito a promuovere forum come “Considerazioni etiche nelle applicazioni creative di visione artificiale” e “Considerazioni interculturali nell’elaborazione del linguaggio naturale”.
  • Sviluppiamo una politica di uso vietato in anticipo rispetto al rilascio, basata sui danni identificati all’inizio del processo di ricerca, sviluppo e revisione etica.
  • Utilizziamo approcci tecnici come classificatori e altri strumenti per segnalare e filtrare le uscite che violano le politiche, e metodi aggiuntivi come quelli presenti nel kit di strumenti per un’IA responsabile. Di recente, abbiamo aggiunto una nuova versione dello strumento di interpretazione dell’apprendimento (LIT) al kit di strumenti, per il debug e la comprensione del modello, e il dataset di esempi di tonalità della pelle di Monk (MST-E) per aiutare i professionisti dell’IA a utilizzare la scala inclusiva di tonalità della pelle di Monk (MST).
  • Reuniamo un gruppo di esperti esterni provenienti da una varietà di settori, come il diritto e l’educazione, per discussioni approfondite sulle conseguenze eque dei prodotti. Ad esempio, il nostro Ongoing Equitable AI Research Roundtable (EARR) continua a incontrare leader di pensiero che rappresentano comunità storicamente sottorappresentate nelle posizioni di leadership nell’IA, con un focus sui temi dell’IA generativa.
  • Offriamo una versione sperimentale e incrementale a tester fidati per ricevere feedback.
  • Interagiamo in modo proattivo con responsabili delle politiche, regolatori della privacy ed esperti di livello mondiale su base continuativa per informare i rilasci più ampi, come abbiamo fatto prima di espandere Bard in 40 lingue e tra il pubblico internazionale.

2. Condurre test avversari.

Gli sviluppatori possono testare internamente i modelli di IA generativa per identificare e mitigare i rischi potenziali prima del lancio e dei successivi rilasci. Ad esempio, con Bard, il nostro esperimento che consente alle persone di collaborare con l’IA generativa, abbiamo testato le uscite che potevano essere interpretate come simili a quelle di una persona, il che può portare a fraintendimenti potenzialmente dannosi, e abbiamo creato una salvaguardia limitando l’uso delle dichiarazioni “Io” da parte di Bard per ridurre il rischio di inappropriata antropomorfizzazione scoperta durante i test. Facciamo anche quanto segue:

  • Cerchiamo il contributo delle comunità fin dalle prime fasi del processo di ricerca e sviluppo per sviluppare una comprensione dei contesti sociali. Ciò può contribuire a un test di stress approfondito. Ad esempio, di recente ci siamo associati a MLCommons e Kaggle per creare Adversarial Nibbler, una competizione pubblica di IA per raccogliere input avversari per testare i modelli di generazione di testo-immagine, con l’obiettivo di identificare lacune inedite, o “ignote”, nel modo in cui vengono valutati i modelli di generazione di immagini.
  • Testiamo internamente in modo inclusivo. Prima di rilasciare Bard, abbiamo coinvolto un gruppo di centinaia di Googler con una vasta varietà di background ed esperienze culturali, che si sono volontariamente offerti di violare intenzionalmente le nostre politiche per testare il servizio. Continuiamo a condurre questi test avversari interni per informare le espansioni e i rilasci di nuove funzionalità di Bard.
  • Adattiamo e applichiamo test di sicurezza avversari per affrontare preoccupazioni specifiche dell’IA generativa. Ad esempio, abbiamo evoluto i nostri sforzi di “team rosso” in corso – un approccio di test di stress che identifica vulnerabilità agli attacchi – per “hackerare” eticamente i nostri sistemi di IA e supportare il nostro nuovo quadro di sicurezza per l’IA. Espanderemo ulteriormente l’approccio di hacking etico all’IA generativa condividendo un grande modello di linguaggio per un test di stress pubblico alla conferenza DEFCON di quest’anno.

Articolo correlato

Il Red Team di AI di Google: gli hacker etici che rendono l’AI più sicura

Oggi, stiamo pubblicando informazioni sul Red Team di AI di Google per la prima volta.

Leggi l’articolo

3. Comunica spiegazioni semplici e utili.

Alla sua introduzione, cerchiamo di offrire una comunicazione chiara su quando e come viene utilizzata l’AI generativa. Ci sforziamo di mostrare come le persone possono offrire feedback e come hanno il controllo. Ad esempio, per Bard, alcune delle nostre pratiche di spiegazione includono:

  • Il pulsante “Google It” fornisce ricerche pertinenti per aiutare gli utenti a convalidare domande basate sui fatti
  • Icone di pollice su e pollice giù come canali di feedback
  • Link per segnalare problemi e offrire supporto operativo per garantire una rapida risposta al feedback degli utenti
  • Controllo dell’utente per archiviare o eliminare l’attività di Bard

Cerchiamo anche di essere chiari con gli utenti quando si impegnano con una nuova tecnologia di AI generativa nella fase sperimentale. Ad esempio, i rilasci di Labs come NotebookLM sono contrassegnati in modo prominente con “Esperimento”, insieme a dettagli specifici su quali funzioni limitate sono disponibili durante il periodo di accesso anticipato.

Un’altra pratica di spiegazione è una documentazione approfondita su come funziona il servizio o il prodotto di AI generativa. Per Bard, questo includeva una panoramica completa che offre chiarezza sul limite sul numero di interazioni per garantire qualità, precisione e prevenire possibili personificazioni e altri dettagli sulla sicurezza, e un avviso sulla privacy per aiutare gli utenti a capire come Bard gestisce i loro dati.

Mantenere la trasparenza è anche fondamentale. Abbiamo pubblicato un rapporto tecnico dettagliato su PaLM-2, il modello attualmente alla base di Bard, che include informazioni basate sulla nostra documentazione interna dei dettagli di valutazione e linee guida per i ricercatori e gli sviluppatori di AI sull’uso responsabile del modello.

Oltre alle tre osservazioni sopra, siamo ampiamente concentrati nell’assicurare che le nuove tecnologie di AI generativa abbiano altrettante misure di sicurezza innovative quando si affrontano preoccupazioni come la provenienza delle immagini. I nostri sforzi includono l’apposizione di filigrane alle immagini generate dagli strumenti di Google AI (come nel caso di Virtual Try On o Da Vinci Stickies) e l’offerta di marcature d’immagine per gli editori per indicare quando un’immagine è generata da AI.

Essere audaci e responsabili non sono in contrasto tra loro, anzi, vanno insieme a promuovere l’accettazione, l’adozione e l’utilità delle nuove tecnologie. All’inizio di questo mese, abbiamo avviato una discussione pubblica invitando editori web, società civile, mondo accademico e comunità di AI a offrire pensieri su approcci ai protocolli per sostenere lo sviluppo futuro di Internet nell’era dell’AI generativa. Mentre procediamo, continueremo a condividere come applichiamo pratiche emergenti per lo sviluppo responsabile dell’AI generativa e la trasparenza continua con il nostro aggiornamento annuale dei Principi AI alla fine dell’anno.