Seguendo il nostro impegno per un’intelligenza artificiale sicura e protetta

Sulla strada di un'intelligenza artificiale sicura e protetta il nostro impegno

Le minacce informatiche si evolvono rapidamente e alcune delle più grandi vulnerabilità non sono scoperte dalle aziende o dai produttori di prodotti, ma da ricercatori esterni di sicurezza. Ecco perché abbiamo una lunga storia di supporto alla sicurezza collettiva attraverso il nostro Programma di premi per vulnerabilità (VRP), Project Zero e nel campo della sicurezza software di Open Source. Ecco perché ci siamo uniti ad altre importanti aziende di intelligenza artificiale alla Casa Bianca all’inizio di quest’anno per impegnarci a promuovere la scoperta di vulnerabilità nei sistemi di intelligenza artificiale.

Oggi, stiamo ampliando il nostro VRP per premiare gli attacchi specifici alle scenari di intelligenza artificiale generativa. Crediamo che ciò incentiverebbe la ricerca sulla sicurezza delle intelligenze artificiali e porterà alla luce potenziali problemi che renderanno l’intelligenza artificiale più sicura per tutti. Stiamo inoltre ampliando il nostro lavoro nella sicurezza open source per rendere le informazioni sulla sicurezza della catena di approvvigionamento dell’intelligenza artificiale universalmente rintracciabili e verificabili.

La nuova tecnologia richiede nuove linee guida per la segnalazione delle vulnerabilità

Nel contesto dell’ampliamento del VRP for AI, stiamo rivedendo come i bug dovrebbero essere categorizzati e segnalati. L’intelligenza artificiale generativa solleva preoccupazioni nuove e diverse rispetto alla sicurezza digitale tradizionale, come il potenziale per un bias ingiusto, la manipolazione del modello o le interpretazioni errate dei dati (allucinazioni). Man mano che continuiamo ad integrare intelligenza artificiale generativa in sempre più prodotti e funzionalità, i nostri team di fiducia e sicurezza stanno utilizzando decenni di esperienza e adottando un approccio globale per anticipare e testare meglio questi potenziali rischi. Ma comprendiamo che i ricercatori di sicurezza esterni possono aiutarci a individuare e affrontare nuove vulnerabilità che renderanno i nostri prodotti di intelligenza artificiale generativa ancora più sicuri e protetti. Ad agosto, ci siamo uniti alla Casa Bianca e ai nostri partner del settore per consentire a migliaia di ricercatori di sicurezza di terze parti di individuare potenziali problemi nel più grande evento pubblico di Red Team di intelligenza artificiale generativa presso DEF CON. Ora, poiché stiamo ampliando il programma di caccia ai bug e fornendo linee guida aggiuntive su ciò che vorremmo che i ricercatori di sicurezza cercassero, condividiamo queste linee guida affinché chiunque possa vedere cosa è “in scope”. Ci aspettiamo che ciò stimoli i ricercatori di sicurezza a inviare più bug e acceleri il raggiungimento dell’obiettivo di un’intelligenza artificiale generativa più sicura e protetta.

Due nuovi modi per rafforzare la catena di approvvigionamento dell’intelligenza artificiale

Abbiamo introdotto il nostro Framework per l’Intelligenza Artificiale Sicura (SAIF) – per sostenere l’industria nella creazione di applicazioni affidabili – e abbiamo incoraggiato l’implementazione attraverso AI red teaming. Il primo principio di SAIF è garantire che l’ecosistema dell’intelligenza artificiale abbia basi solide di sicurezza, e ciò significa proteggere i componenti critici della catena di approvvigionamento che consentono il machine learning (ML) da minacce come la manipolazione del modello, l’avvelenamento dei dati e la produzione di contenuti dannosi.

Oggi, per proteggerci ulteriormente dagli attacchi alla catena di approvvigionamento di machine learning, stiamo ampliando il nostro lavoro sulla sicurezza open source e stiamo sviluppando ulteriormente la nostra collaborazione precedente con l’Open Source Security Foundation. Il Google Open Source Security Team (GOSST) sta utilizzando SLSA e Sigstore per proteggere l’integrità complessiva delle catene di approvvigionamento dell’intelligenza artificiale. SLSA prevede un insieme di standard e controlli per migliorare la resilienza nelle catene di approvvigionamento, mentre Sigstore aiuta a verificare che il software nella catena di approvvigionamento sia ciò che afferma di essere. Per iniziare, oggi abbiamo annunciato la disponibilità dei primi prototipi per la firma dei modelli con Sigstore e la verifica dell’attestazione con SLSA.

Questi sono i primi passi verso la garanzia dello sviluppo sicuro di intelligenza artificiale generativa – e sappiamo che il lavoro è appena iniziato. La nostra speranza è che, incentivando ulteriori ricerche sulla sicurezza e applicando la sicurezza della catena di fornitura all’intelligenza artificiale, stimoleremo ancora di più la collaborazione con la comunità di sicurezza open source e con altri del settore e, alla fine, aiuteremo a rendere l’IA più sicura per tutti.