Una nuova partnership per promuovere l’IA responsabile

New partnership to promote responsible AI

Nota dell’editore: Oggi, Google, Microsoft, OpenAI e Anthropic hanno pubblicato il seguente annuncio congiunto che istituisce il Forum del Modello di Frontiera.

Oggi, Anthropic, Google, Microsoft e OpenAI annunciano la creazione del Forum del Modello di Frontiera, un nuovo organismo settoriale focalizzato sul garantire lo sviluppo sicuro e responsabile di modelli di intelligenza artificiale di frontiera. Il Forum del Modello di Frontiera si avvarrà delle competenze tecniche e operative delle aziende membri per beneficiare l’intero ecosistema dell’intelligenza artificiale, ad esempio attraverso l’avanzamento delle valutazioni tecniche e dei benchmark e lo sviluppo di una libreria pubblica di soluzioni per sostenere le migliori pratiche e gli standard del settore.

Gli obiettivi principali del Forum sono:

  1. Promuovere la ricerca sulla sicurezza dell’intelligenza artificiale per favorire lo sviluppo responsabile di modelli di frontiera, minimizzare i rischi e consentire valutazioni indipendenti e standardizzate delle capacità e della sicurezza.
  2. Identificare le migliori pratiche per lo sviluppo e l’implementazione responsabile di modelli di frontiera, aiutando il pubblico a comprendere la natura, le capacità, i limiti e l’impatto della tecnologia.
  3. Collaborare con decisori politici, accademici, società civile e aziende per condividere conoscenze sui rischi di fiducia e sicurezza.
  4. Sostenere gli sforzi per lo sviluppo di applicazioni che possano contribuire a rispondere alle sfide più importanti della società, come la mitigazione e l’adattamento ai cambiamenti climatici, la diagnosi e la prevenzione precoce del cancro e il contrasto alle minacce informatiche.

Criteri di adesione

Il Forum definisce i modelli di frontiera come modelli di apprendimento automatico su larga scala che superano le capacità attualmente presenti nei modelli esistenti più avanzati e possono svolgere una grande varietà di compiti.

L’adesione è aperta alle organizzazioni che:

  • Sviluppano e implementano modelli di frontiera (come definito dal Forum).
  • Dimostrano un forte impegno per la sicurezza dei modelli di frontiera, anche mediante approcci tecnici e istituzionali.
  • Sono disposte a contribuire agli sforzi del Forum, partecipando a iniziative comuni e sostenendo lo sviluppo e il funzionamento dell’iniziativa.

Il Forum accoglie le organizzazioni che soddisfano questi criteri per unirsi a questo sforzo e collaborare per garantire lo sviluppo sicuro e responsabile dei modelli di intelligenza artificiale di frontiera.

Cosa farà il Forum del Modello di Frontiera

Governi e industria concordano sul fatto che, sebbene l’intelligenza artificiale offra un enorme potenziale per beneficiare il mondo, sono necessarie adeguate misure di sicurezza per mitigare i rischi. Importanti contributi a questi sforzi sono già stati fatti dai governi degli Stati Uniti e del Regno Unito, dall’Unione Europea, dall’OCSE, dal G7 (attraverso il processo di Hiroshima AI) e da altri.

Per costruire su questi sforzi, è necessario un ulteriore lavoro sugli standard e le valutazioni di sicurezza per garantire che i modelli di intelligenza artificiale di frontiera siano sviluppati e implementati in modo responsabile. Il Forum sarà uno strumento per discussioni e azioni interaziendali sulla sicurezza e la responsabilità dell’intelligenza artificiale.

Il Forum si concentrerà su tre aree chiave nel corso dell’anno prossimo per sostenere lo sviluppo sicuro e responsabile di modelli di intelligenza artificiale di frontiera:

Identificazione delle migliori pratiche: Promuovere la condivisione di conoscenze e le migliori pratiche tra industria, governi, società civile e accademia, con particolare attenzione agli standard di sicurezza e alle pratiche di sicurezza per mitigare una vasta gamma di rischi potenziali.

Promozione della ricerca sulla sicurezza dell’intelligenza artificiale: Sostenere l’ecosistema della sicurezza dell’intelligenza artificiale identificando le domande di ricerca aperte più importanti sulla sicurezza dell’intelligenza artificiale. Il Forum coordinerà la ricerca per progredire in questi sforzi in aree come la robustezza avversaria, l’interpretabilità meccanicistica, la supervisione scalabile, l’accesso indipendente alla ricerca, i comportamenti emergenti e la rilevazione delle anomalie. Inizialmente, ci sarà un forte focus sullo sviluppo e la condivisione di una libreria pubblica di valutazioni tecniche e benchmark per i modelli di intelligenza artificiale di frontiera.

Facilitazione della condivisione delle informazioni tra aziende e governi: Stabilire meccanismi fidati e sicuri per la condivisione di informazioni tra aziende, governi e stakeholder pertinenti riguardo alla sicurezza e ai rischi dell’intelligenza artificiale. Il Forum seguirà le migliori pratiche per la divulgazione responsabile provenienti da settori come la cibersicurezza.

Kent Walker, Presidente degli Affari Globali di Google & Alphabet, ha dichiarato: “Siamo entusiasti di lavorare insieme ad altre aziende leader, condividendo competenze tecniche per promuovere un’innovazione responsabile nell’intelligenza artificiale. Dovremo tutti lavorare insieme per assicurare che l’intelligenza artificiale porti benefici a tutti.”

Brad Smith, Vicepresidente e Presidente di Microsoft ha dichiarato: “Le aziende che creano tecnologie di intelligenza artificiale hanno la responsabilità di garantire che siano sicure, protette e rimangano sotto il controllo umano. Questa iniziativa è un passo fondamentale per unire il settore tecnologico nell’avanzare in modo responsabile nell’intelligenza artificiale e affrontare le sfide affinché ne beneficino l’intera umanità.”

Anna Makanju, Vicepresidente degli Affari Globali di OpenAI, ha dichiarato: “Le tecnologie avanzate di intelligenza artificiale hanno il potenziale per beneficiare profondamente la società e la capacità di realizzare questo potenziale richiede la supervisione e la governance. È fondamentale che le aziende di intelligenza artificiale, in particolare quelle che lavorano sui modelli più potenti, si allineino su un terreno comune e promuovano pratiche di sicurezza ponderate ed adattabili per garantire che gli strumenti di intelligenza artificiale più potenti abbiano il più ampio beneficio possibile. Questo è un lavoro urgente e questo forum è ben posizionato per agire rapidamente per migliorare la sicurezza dell’intelligenza artificiale.”

Dario Amodei, CEO di Anthropic, ha dichiarato: “Anthropic ritiene che l’IA abbia il potenziale per cambiare radicalmente il modo in cui il mondo funziona. Siamo entusiasti di collaborare con l’industria, la società civile, il governo e l’accademia per promuovere lo sviluppo sicuro e responsabile della tecnologia. Il Frontier Model Forum avrà un ruolo fondamentale nel coordinare le migliori pratiche e condividere la ricerca sulla sicurezza dell’IA di frontiera”.

Come funzionerà il Frontier Model Forum

Nel corso dei prossimi mesi, il Frontier Model Forum costituirà un Consiglio Consultivo per aiutare a guidare la sua strategia e le sue priorità, rappresentando una diversità di background e prospettive.

Le aziende fondatrici stabiliranno anche accordi istituzionali chiave, tra cui una carta, una governance e un finanziamento, con un gruppo di lavoro e un consiglio esecutivo che guideranno questi sforzi. Abbiamo in programma di consultare la società civile e i governi nelle prossime settimane per quanto riguarda la progettazione del Forum e le modalità significative di collaborazione.

Il Frontier Model Forum accoglie con favore l’opportunità di contribuire e alimentare le iniziative governative e multilaterali esistenti, come il processo di Hiroshima del G7, il lavoro dell’OCSE sui rischi, gli standard e l’impatto sociale dell’IA e il Consiglio Commerciale e Tecnologico tra gli Stati Uniti e l’Unione Europea.

Il Forum cercherà anche di basarsi sul lavoro prezioso delle iniziative esistenti dell’industria, della società civile e della ricerca in ciascuna delle sue linee di lavoro. Iniziative come il Partnership on AI e MLCommons continuano a fare importanti contributi nell’ambito della comunità dell’IA e il Forum esplorerà modalità di collaborazione e supporto a queste e ad altre preziose iniziative multi-stakeholder.