Il nostro approccio responsabile nella costruzione di guide per l’IA generativa

La nostra responsabile prospettiva nella creazione di guide per l'IA generativa

Da oltre due decenni, Google ha lavorato con il machine learning e l’intelligenza artificiale per rendere i nostri prodotti più utili. L’IA ha aiutato i nostri utenti quotidianamente, dallo Smart Compose in Gmail alla ricerca di percorsi più veloci in Maps. L’IA ci permette anche di contribuire a questioni importanti che riguardano tutti, sia che si tratti di avanzare nella medicina o di trovare modi più efficaci per combattere il cambiamento climatico. Man mano che continuiamo ad integrare l’IA, e più recentemente l’IA generativa, in più esperienze di Google, sappiamo che è fondamentale essere audaci e responsabili insieme.

Incorporare protezioni nei nostri prodotti sin dall’inizio

Una parte importante nell’introdurre questa tecnologia in modo responsabile è prevedere e testare una vasta gamma di rischi di sicurezza, inclusi quelli presentati dalle immagini generate dall’IA. Stiamo prendendo misure per integrare protezioni nelle nostre caratteristiche di IA generativa per impostazione predefinita, guidati dai nostri Principi di IA:

  • Protezione contro il bias ingiusto: Abbiamo sviluppato strumenti e set di dati per aiutare a identificare e mitigare il bias ingiusto nei nostri modelli di machine learning. Questa è un’area attiva di ricerca per i nostri team e negli ultimi anni abbiamo pubblicato diversi paper chiave sull’argomento. Cerchiamo regolarmente anche il contributo di terzi per tener conto del contesto sociale e valutare i set di dati di addestramento per potenziali fonti di bias ingiusto.
  • Red-teaming: Coinvolgiamo esperti interni ed esterni per partecipare a programmi di red-teaming che testano una vasta gamma di vulnerabilità e aree potenziali di abuso, inclusi vulnerabilità di sicurezza informatica e rischi sociali più complessi come la fairness. Questi sforzi dedicati di test avversariali, inclusa la nostra partecipazione all’evento DEF CON AI Village Red Team lo scorso agosto, aiutano a identificare rischi attuali ed emergenti, comportamenti e violazioni delle politiche, permettendo ai nostri team di mitigarli in modo proattivo.
  • Implementazione di politiche: Sfruttando la nostra profonda esperienza nella sviluppo di politiche e nell’applicazione tecnica, abbiamo creato politiche di uso proibito dell’IA generativa che delineano i contenuti dannosi, inappropriati, fuorvianti o illegali che non consentiamo. Il nostro esteso sistema di classificatori viene quindi utilizzato per rilevare, prevenire ed eliminare i contenuti che violano queste politiche. Ad esempio, se identifichiamo un prompt o un output violativo, i nostri prodotti non forniranno una risposta e potrebbero anche indirizzare l’utente a risorse aggiuntive per aiuto su argomenti sensibili come quelli legati ad atti pericolosi o autolesionismo. E continuiamo a perfezionare costantemente i nostri modelli per fornire risposte più sicure.
  • Tutelare gli adolescenti: Man mano che espandiamo gradualmente l’accesso alle esperienze di IA generativa come SGE agli adolescenti, abbiamo sviluppato ulteriori salvaguardie per argomenti che possono rappresentare un rischio per gli utenti più giovani basato sulle loro esigenze di sviluppo. Questo include limitare gli output legati a argomenti come il bullismo e sostanze soggette a limiti di età o illegali.
  • Indennizzazione dei clienti per il copyright: Abbiamo posto forti protezioni di indennizzo sia sui dati di addestramento utilizzati per i modelli di IA generativa che sull’output generato per gli utenti dei principali servizi di Google Workspace e Google Cloud. In parole semplici: se i clienti vengono sfidati per motivi di copyright, assumeremo la responsabilità dei potenziali rischi legali coinvolti.

Fornire ulteriori contesti per gli output dell’IA generativa

Continuando la nostra lunga tradizione di fornire contesto sulle informazioni che le persone trovano online, stiamo aggiungendo nuovi strumenti per aiutare le persone ad valutare le informazioni prodotte dai nostri modelli. Ad esempio, abbiamo aggiunto Informazioni su questo risultato all’IA generativa del motore di ricerca per aiutare le persone a valutare le informazioni che trovano nell’esperienza. Abbiamo anche introdotto nuovi modi per aiutare le persone a verificare due volte le risposte che vedono in Bard.

Il contesto è particolarmente importante con le immagini e siamo impegnati a trovare modi per assicurarci che ogni immagine generata attraverso i nostri prodotti abbia metadati con etichettatura e filigrana incorporati con SynthID. Allo stesso modo, abbiamo recentemente aggiornato le nostre policy di pubblicità elettorale per richiedere agli inserzionisti di indicare quando le loro pubblicità elettorali includono materiale che è stato alterato o generato digitalmente. Questo aiuterà a fornire ulteriori contesti alle persone che vedono pubblicità elettorali sulle nostre piattaforme.

Abbiamo lanciato Bard e SGE come esperimenti perché riconosciamo che, come tecnologie emergenti, le esperienze basate su modelli di linguaggio di grandi dimensioni (LLM) possono commettere errori, soprattutto riguardo alle notizie di attualità. Stiamo sempre lavorando per assicurarci che i nostri prodotti si aggiornino man mano che disponiamo di più informazioni, e le nostre squadre continuano a implementare rapidamente miglioramenti se necessario.

Come proteggiamo le tue informazioni

Le nuove tecnologie sollevano naturalmente questioni sulla privacy dell’utente e sui dati personali. Stiamo costruendo prodotti e esperienze di intelligenza artificiale che sono progettati per essere privati. Molti dei meccanismi di protezione della privacy che abbiamo da anni in atto vengono applicati anche alle nostre strumenti AI generativi e, proprio come con altri tipi di dati di attività nel tuo Account Google, ti rendiamo facile metterlo in pausa, salvarlo o eliminarlo in qualsiasi momento, anche per Bard e Search.

Non vendiamo mai le tue informazioni personali a nessuno, nemmeno a fini pubblicitari – questa è una politica di Google ben consolidata. Inoltre, abbiamo implementato protezioni della privacy specifiche per i nostri prodotti AI generativi. Ad esempio, se scegli di utilizzare le estensioni di Workspace in Bard, i contenuti da Gmail, Docs e Drive non saranno visibili ai revisori umani, utilizzati da Bard per mostrarti annunci o utilizzati per allenare il modello di Bard.

Collaborazione con gli stakeholder per plasmare il futuro

L’AI solleva questioni complesse che né Google, né qualsiasi altra singola azienda, possono rispondere da sole. Per fare in modo che l’AI funzioni correttamente, abbiamo bisogno di una collaborazione tra aziende, ricercatori accademici, società civile, governi e altri stakeholder. Siamo già in conversazione con gruppi come Partnership on AI e ML Commons, e abbiamo lanciato il Frontier Model Forum insieme ad altri importanti laboratori di intelligenza artificiale per promuovere lo sviluppo responsabile dei modelli di AI di frontiera. E abbiamo inoltre pubblicato decine di articoli di ricerca per condividere la nostra esperienza con ricercatori e industria.

Siamo anche trasparenti riguardo al nostro progresso sugli impegni che abbiamo assunto volontariamente insieme ad altre società tecnologiche in un summit alla Casa Bianca all’inizio di quest’anno. Continueremo a lavorare con l’intera industria e con governi, ricercatori e altri, per cogliere le opportunità e affrontare i rischi che l’IA presenta.