Presentiamo il Framework AI Sicuro di Google

Introducing Google's Secure AI Framework.

Il potenziale dell’AI, in particolare dell’AI generativa, è immenso. Tuttavia, nella ricerca del progresso all’interno di queste nuove frontiere dell’innovazione, è necessario definire chiari standard di sicurezza per l’industria per costruire e implementare questa tecnologia in modo responsabile. Ecco perché oggi siamo lieti di presentare il Framework AI Sicuro (SAIF), un framework concettuale per sistemi di AI sicuri.

  • Per un riassunto di SAIF, clicca su questo PDF.
  • Per esempi di come i professionisti possono implementare SAIF, clicca su questo PDF.

Perché stiamo introducendo SAIF ora

SAIF è ispirato alle migliori pratiche di sicurezza – come la revisione, il testing e il controllo della catena di fornitura – che abbiamo applicato allo sviluppo del software, incorporando la nostra comprensione delle mega-tendenze della sicurezza e dei rischi specifici dei sistemi di AI.

Un framework che coinvolge i settori pubblico e privato è essenziale per garantire che gli attori responsabili proteggano la tecnologia che supporta gli avanzamenti dell’AI, in modo che quando i modelli di AI vengono implementati, siano sicuri per impostazione predefinita. Oggi segna un importante primo passo.

Negli anni a Google, abbiamo abbracciato un approccio aperto e collaborativo alla sicurezza informatica. Ciò include la combinazione di intelligence di prima linea, competenze e innovazione con l’impegno di condividere informazioni sulle minacce con gli altri per aiutare a rispondere – e prevenire – gli attacchi informatici. Basandosi su tale approccio, SAIF è stato progettato per aiutare a mitigare i rischi specifici dei sistemi di AI, come il furto del modello, l’avvelenamento dei dati di addestramento, l’iniezione di input maligni attraverso l’iniezione di prompt ed l’estrazione di informazioni riservate nei dati di addestramento. Con l’aumentare dell’integrazione delle capacità di AI in prodotti in tutto il mondo, rispettare un framework audace e responsabile sarà ancora più critico.

E con questo, diamo un’occhiata a SAIF e ai suoi sei elementi chiave:

1. Ampliare le solide fondamenta di sicurezza all’ecosistema di AI

Ciò include sfruttare le protezioni di infrastruttura sicure per impostazione predefinita e le competenze costruite negli ultimi due decenni per proteggere i sistemi, le applicazioni e gli utenti di AI. Allo stesso tempo, sviluppare competenze organizzative per tenere il passo con gli avanzamenti dell’AI e iniziare a scalare e adattare le protezioni dell’infrastruttura nel contesto dell’AI e dei modelli di minaccia in evoluzione. Ad esempio, le tecniche di iniezione come l’iniezione SQL esistono da tempo, e le organizzazioni possono adattare le mitigazioni, come la sanificazione e la limitazione degli input, per difendersi meglio contro gli attacchi di tipo iniezione di prompt.

2. Estendere la rilevazione e la risposta per includere AI nell’universo delle minacce di un’organizzazione

La tempestività è fondamentale nel rilevare e rispondere agli incidenti informatici correlati all’AI, e estendere l’intelligence sulle minacce e altre capacità a un’organizzazione migliora entrambi. Per le organizzazioni, ciò include il monitoraggio degli input e degli output dei sistemi di AI generativi per rilevare anomalie e l’uso dell’intelligence sulle minacce per prevedere gli attacchi. Questo sforzo richiede tipicamente la collaborazione con i team di fiducia e sicurezza, intelligence sulle minacce e contro gli abusi.

3. Automatizzare le difese per tenere il passo con le minacce esistenti e nuove

Le ultime innovazioni dell’AI possono migliorare la scala e la velocità degli sforzi di risposta agli incidenti di sicurezza. Gli avversari probabilmente utilizzeranno l’AI per aumentare la loro influenza, quindi è importante utilizzare l’AI e le sue capacità attuali ed emergenti per rimanere agili ed economici nella protezione contro di essi.

4. Armonizzare i controlli a livello di piattaforma per garantire una sicurezza uniforme in tutta l’organizzazione

La coerenza tra i framework di controllo può supportare la mitigazione del rischio dell’AI e scalare le protezioni su diverse piattaforme e strumenti per garantire che le migliori protezioni siano disponibili per tutte le applicazioni di AI in modo scalabile ed efficiente. A Google, questo include l’estensione delle protezioni di sicurezza predefinite alle piattaforme di AI come Vertex AI e Security AI Workbench e la costruzione di controlli e protezioni nel ciclo di sviluppo del software. Le capacità che affrontano casi d’uso generali, come Perspective API, possono aiutare l’intera organizzazione a beneficiare di protezioni all’avanguardia.

5. Adattare i controlli per regolare le mitigazioni e creare cicli di feedback più rapidi per la distribuzione dell’AI

Un costante testing delle implementazioni attraverso l’apprendimento continuo può garantire che le capacità di rilevamento e protezione affrontino l’ambiente delle minacce in continuo cambiamento. Ciò include tecniche come il reinforcement learning basato sugli incidenti e il feedback degli utenti e comporta passaggi come l’aggiornamento dei set di dati di formazione, il raffinamento dei modelli per rispondere strategicamente agli attacchi e consentire al software utilizzato per la creazione dei modelli di incorporare ulteriore sicurezza nel contesto (ad es. rilevando comportamenti anomali). Le organizzazioni possono anche condurre regolari esercitazioni della red team per migliorare l’assicurazione della sicurezza per i prodotti e le capacità alimentati da AI.

6. Contestualizzare i rischi del sistema AI nei processi aziendali circostanti

Infine, la conduzione di valutazioni del rischio end-to-end relative a come le organizzazioni implementeranno l’AI può aiutare a informare le decisioni. Ciò include una valutazione del rischio aziendale end-to-end, come la genealogia dei dati, la convalida e il monitoraggio del comportamento operativo per determinati tipi di applicazioni. Inoltre, le organizzazioni dovrebbero costruire controlli automatizzati per convalidare le prestazioni dell’AI.

Perché supportiamo una comunità AI sicura per tutti

Da tempo sosteniamo e spesso sviluppiamo quadri dell’industria per aumentare la barra della sicurezza e ridurre il rischio complessivo. Abbiamo collaborato con altri per lanciare il framework Supply-chain Levels for Software Artifacts (SLSA) per migliorare l’integrità della catena di approvvigionamento del software, e il nostro lavoro pionieristico sul nostro modello di accesso BeyondCorp ha portato ai principi del zero trust che sono oggi uno standard dell’industria. Ciò che abbiamo imparato da questi e altri sforzi è che per avere successo nel lungo periodo, è necessario costruire una comunità per sostenere e far avanzare il lavoro. Ecco perché siamo entusiasti di annunciare i primi passi nel nostro percorso per costruire una comunità SAIF per tutti.

Come Google sta mettendo in pratica SAIF

Stiamo già compiendo cinque passi per sostenere e far avanzare un framework che funzioni per tutti.

  1. Favorire il supporto dell’industria per SAIF con l’annuncio di partner e contributori chiave nei prossimi mesi e continuando l’interazione con l’industria per aiutare a sviluppare il NIST AI Risk Management Framework e lo standard ISO/IEC 42001 AI Management System (il primo standard di certificazione AI dell’industria). Questi standard si basano pesantemente sui principi di sicurezza del framework NIST Cybersecurity e del sistema di gestione della sicurezza ISO/IEC 27001 – a cui Google parteciperà per garantire che gli aggiornamenti pianificati siano applicabili alle tecnologie emergenti come l’AI – e sono coerenti con gli elementi SAIF.
  2. Lavorare direttamente con le organizzazioni, inclusi i clienti e i governi, per aiutarli a comprendere come valutare i rischi di sicurezza dell’AI e mitigarli. Ciò include la conduzione di workshop con i professionisti e la continua pubblicazione delle migliori pratiche per implementare sistemi AI in modo sicuro.
  3. Condividere le conoscenze dei team di intelligence sulle minacce di Google leader del settore come Mandiant e TAG sull’attività informatica che coinvolge i sistemi AI. Per saperne di più su alcuni dei modi in cui i professionisti di Google utilizzano l’AI generativa per identificare le minacce più velocemente, eliminare il lavoro ripetitivo e risolvere meglio le carenze di personale della sicurezza, vedere qui.
  4. Ampliare i nostri programmi di cacciatori di bug (incluso il nostro programma di ricompense per le vulnerabilità) per premiare e incentivare la ricerca sulla sicurezza e la sicurezza dell’AI.
  5. Continuare a offrire offerte AI sicure con partner come GitLab e Cohesity, e sviluppare ulteriormente nuove capacità per aiutare i clienti a costruire sistemi sicuri. Ciò include il nostro impegno per la comunità open source e pubblicheremo presto diversi strumenti open source per aiutare a mettere in pratica gli elementi SAIF per la sicurezza dell’AI.

Man mano che avanziamo con SAIF, continueremo a condividere la ricerca e ad esplorare metodi che aiutino a utilizzare l’AI in modo sicuro. Siamo impegnati a lavorare con governi, industria e accademia per condividere conoscenze e raggiungere obiettivi comuni per garantire che questa tecnologia profondamente utile funzioni per tutti e che noi come società la facciamo giusta.