Come i nostri principi hanno contribuito a definire il rilascio di AlphaFold

Il contributo dei nostri principi nel definire AlphaFold.

Riflessioni e lezioni sulla condivisione di una delle nostre più grandi scoperte con il mondo

Mettere in pratica la nostra missione di risolvere l’intelligenza per far avanzare la scienza e beneficiare l’umanità comporta responsabilità cruciali. Per contribuire a creare un impatto positivo sulla società, dobbiamo valutare proattivamente le implicazioni etiche delle nostre ricerche e delle loro applicazioni in modo rigoroso e attento. Sappiamo anche che ogni nuova tecnologia ha il potenziale per causare danni e prendiamo sul serio i rischi sia a breve che a lungo termine. Abbiamo costruito le nostre fondamenta sulla responsabilità fin dall’inizio – concentrandoci in particolare sulla governance, la ricerca e l’impatto responsabili.

Tutto questo inizia con l’individuazione di principi chiari che ci aiutino a realizzare i benefici dell’intelligenza artificiale (AI), mitigando nel contempo i suoi rischi e possibili esiti negativi. La responsabilità pionieristica è uno sforzo collettivo, motivo per cui abbiamo contribuito a molti standard della comunità AI, come quelli sviluppati da Google, Partnership on AI e dall’OCSE (Organizzazione per la Cooperazione Economica e lo Sviluppo).

I nostri Principi Operativi hanno definito sia il nostro impegno a privilegiare il beneficio diffuso, sia le aree di ricerca e le applicazioni che rifiutiamo di perseguire. Questi principi sono stati al centro delle nostre decisioni fin dalla fondazione di DeepMind e continuano ad essere affinati man mano che il panorama dell’AI cambia e si sviluppa. Sono pensati per il nostro ruolo di azienda scientifica orientata alla ricerca e sono coerenti con i Principi di AI di Google.

Dai principi alla pratica

I principi scritti sono solo una parte del puzzle – è fondamentale metterli in pratica. Per la ricerca complessa che viene svolta alle frontiere dell’AI, ciò comporta sfide significative: come possono i ricercatori prevedere i potenziali benefici e danni che potrebbero verificarsi in un futuro lontano? Come possiamo sviluppare una migliore capacità di previsione etica da una vasta gamma di prospettive? E cosa serve per esplorare domande difficili insieme al progresso scientifico in tempo reale per prevenire conseguenze negative?

Abbiamo trascorso molti anni sviluppando le nostre competenze e processi per una governance, una ricerca e un’impatto responsabili in DeepMind, creando strumenti interni e pubblicando articoli su questioni sociotecniche per sostenere gli sforzi volti ad aumentare la deliberazione e la capacità di previsione nel campo dell’AI. Per aiutare i team di DeepMind a pionieristicamente responsabili e a proteggere contro i danni, il nostro Comitato di Revisione Istituzionale (IRC) interdisciplinare si riunisce ogni due settimane per valutare attentamente i progetti, gli articoli e le collaborazioni di DeepMind.

La responsabilità pionieristica è un muscolo collettivo e ogni progetto è un’opportunità per rafforzare le nostre competenze e comprensione comune. Abbiamo attentamente progettato il nostro processo di revisione per includere esperti rotanti provenienti da una vasta gamma di discipline, con ricercatori di machine learning, eticisti ed esperti di sicurezza che lavorano insieme ad ingegneri, esperti di sicurezza, professionisti della politica e molti altri. Queste voci diverse identificano regolarmente modi per ampliare i benefici delle nostre tecnologie, suggeriscono aree di ricerca e applicazioni da modificare o rallentare e evidenziano progetti in cui è necessaria una maggiore consultazione esterna.

Nonostante i progressi compiuti, molti aspetti di ciò si trovano in territorio inesplorato. Non faremo tutto alla perfezione e siamo impegnati a continuare a imparare e migliorare. Speriamo che la condivisione del nostro processo attuale possa essere utile ad altri che lavorano sull’IA responsabile e incoraggiamo i feedback mentre continuiamo a imparare, motivo per cui abbiamo dettagliato riflessioni e lezioni da uno dei nostri progetti più complessi e gratificanti: AlphaFold. Il nostro sistema AI AlphaFold ha risolto la sfida della previsione della struttura delle proteine, che durava da 50 anni, e siamo entusiasti di vedere gli scienziati utilizzarlo per accelerare il progresso in campi come la sostenibilità, la sicurezza alimentare, la scoperta di farmaci e la biologia umana fondamentale da quando lo abbiamo rilasciato alla comunità più ampia lo scorso anno.

Concentrandosi sulla previsione della struttura delle proteine

Il nostro team di ricercatori di machine learning, biologi e ingegneri ha da tempo considerato il problema del piegamento delle proteine come un’opportunità notevole e unica per i sistemi di apprendimento AI di creare un impatto significativo. In questo ambito, esistono misure standard di successo o insuccesso e un confine chiaro su ciò che il sistema AI deve fare per aiutare gli scienziati nel loro lavoro: prevedere la struttura tridimensionale di una proteina. E, come molte strutture biologiche, il piegamento delle proteine è troppo complesso perché qualcuno possa scrivere le regole su come funziona. Ma un sistema AI potrebbe essere in grado di imparare quelle regole da solo.

Un altro fattore importante è stata la valutazione biennale, nota come CASP (Critical Assessment of protein Structure Prediction), che è stata fondata dal Professor John Moult e dal Professor Krzysztof Fidelis. Con ogni incontro, CASP fornisce una valutazione estremamente robusta dei progressi, richiedendo ai partecipanti di predire strutture che sono state scoperte solo di recente attraverso esperimenti. I risultati sono un grande catalizzatore per la ricerca ambiziosa e l’eccellenza scientifica.

Comprensione delle opportunità e dei rischi pratici

Mentre ci preparavamo per la valutazione CASP nel 2020, ci siamo resi conto che AlphaFold mostrava un grande potenziale per risolvere la sfida in questione. Abbiamo dedicato considerevole tempo ed sforzo ad analizzare le implicazioni pratiche, ponendoci domande: Come potrebbe AlphaFold accelerare la ricerca biologica e le applicazioni? Quali potrebbero essere le conseguenze non volute? E come potremmo condividere i nostri progressi in modo responsabile?

Ciò ha presentato una vasta gamma di opportunità e rischi da considerare, molti dei quali erano in aree in cui non necessariamente avevamo una forte competenza. Quindi abbiamo cercato contributi esterni da oltre 30 leader del settore della ricerca biologica, della biosicurezza, della bioetica, dei diritti umani e altro ancora, con un focus sulla diversità di competenze e background.

Si sono riscontrati molti temi coerenti durante queste discussioni:

  1. Bilanciare il beneficio diffuso con il rischio di danni. Abbiamo iniziato con una mentalità cauta riguardo al rischio di danni accidentali o intenzionali, tra cui come AlphaFold potrebbe interagire sia con futuri progressi che con tecnologie esistenti. Attraverso le nostre discussioni con esperti esterni, è diventato più chiaro che AlphaFold non avrebbe reso significativamente più facile causare danni con le proteine, dati i molti ostacoli pratici a questo – ma che futuri progressi dovrebbero essere valutati attentamente. Molti esperti hanno sostenuto con forza che AlphaFold, come un avanzamento rilevante per molte aree della ricerca scientifica, avrebbe il maggior beneficio attraverso l’accesso gratuito e diffuso.
  2. Misure di fiducia accurate sono essenziali per un uso responsabile. I biologi sperimentali hanno spiegato quanto sia importante comprendere e condividere metriche di fiducia ben calibrate e utilizzabili per ogni parte delle previsioni di AlphaFold. Segnalando quali delle previsioni di AlphaFold sono probabilmente accurate, gli utenti possono stimare quando possono fidarsi di una previsione e utilizzarla nel loro lavoro – e quando dovrebbero utilizzare approcci alternativi nella loro ricerca. Inizialmente avevamo considerato di omettere le previsioni per le quali AlphaFold aveva poca fiducia o alta incertezza predittiva, ma gli esperti esterni che abbiamo consultato hanno dimostrato perché fosse particolarmente importante mantenere queste previsioni nel nostro rilascio e ci hanno consigliato i modi più utili e trasparenti per presentare queste informazioni.
  3. Un beneficio equo potrebbe significare un sostegno extra per campi sottofinanziati. Abbiamo avuto molte discussioni su come evitare di aumentare involontariamente le disparità all’interno della comunità scientifica. Ad esempio, le cosiddette malattie tropicali trascurate, che colpiscono in modo sproporzionato le parti più povere del mondo, spesso ricevono meno finanziamenti per la ricerca di quanto dovrebbero. Ci è stato fortemente consigliato di dare priorità al supporto pratico e di cercare attivamente collaborazioni con gruppi che lavorano su queste aree.

Stabilire il nostro approccio al rilascio

Sulla base dei contributi sopra menzionati, l’IRC ha approvato una serie di rilasci di AlphaFold per affrontare molteplici esigenze, tra cui:

  • Pubblicazioni sottoposte a revisione paritaria e codice open source, tra cui due articoli su Nature, accompagnati da codice open source, per consentire ai ricercatori di implementare e migliorare più facilmente AlphaFold. Poco dopo, abbiamo aggiunto un Google Colab che consente a chiunque di inserire una sequenza proteica e ricevere una struttura prevista, come alternativa all’esecuzione del codice open source da soli.
  • Un importante rilascio di previsioni sulla struttura delle proteine in collaborazione con EMBL-EBI (EMBL’s European Bioinformatics Institute), leader della comunità scientifica. Come istituzione pubblica, EMBL-EBI consente a chiunque di cercare previsioni sulla struttura delle proteine ​​così facilmente come una ricerca su Google. Il rilascio iniziale includeva forme previste per ogni proteina del corpo umano, e il nostro aggiornamento più recente ha incluso strutture previste per quasi tutte le proteine catalogate conosciute alla scienza. Questo totalizza oltre 200 milioni di strutture, tutte liberamente disponibili sul sito web di EMBL-EBI con licenze di accesso aperto, accompagnate da risorse di supporto, come webinar sull’interpretazione di queste strutture.
  • Inserire visualizzazioni 3D nel database, con etichettature evidenti per le aree di alta e bassa confidenza della previsione e, in generale, cercando di essere il più chiari possibile sulle competenze e i limiti di AlphaFold nella nostra documentazione. Abbiamo anche progettato il database per essere il più accessibile possibile, ad esempio, tenendo conto delle esigenze delle persone con deficit della visione dei colori.
  • Stipulare partnership più approfondite con gruppi di ricerca che lavorano su settori sottofinanziati, come malattie trascurate e argomenti critici per la salute globale. Questo include DNDi (Drugs for Neglected Disease initiative), che sta avanzando nella ricerca sulle malattie di Chagas e leishmaniosi, e il Centre for Enzyme Innovation che sta sviluppando enzimi che mangiano la plastica per aiutare a ridurre i rifiuti di plastica nell’ambiente. I nostri crescenti team di coinvolgimento pubblico continuano a lavorare su queste partnership per supportare ulteriori collaborazioni in futuro.

Come stiamo costruendo su questo lavoro

Dalla nostra prima versione, centinaia di migliaia di persone provenienti da oltre 190 paesi hanno visitato il Database delle Strutture Proteiche di AlphaFold e utilizzato il codice sorgente aperto di AlphaFold sin dal suo lancio. Siamo stati onorati di apprendere modi in cui le previsioni di AlphaFold hanno accelerato importanti sforzi scientifici e stiamo lavorando per raccontare alcune di queste storie con il nostro progetto Unfolded. Finora, non siamo a conoscenza di alcun abuso o danno correlato ad AlphaFold, anche se continuiamo a prestare molta attenzione a questo.

Anche se AlphaFold è stato più complesso rispetto alla maggior parte dei progetti di ricerca di DeepMind, stiamo utilizzando elementi di ciò che abbiamo imparato e li stiamo incorporando in altre versioni.

Stiamo costruendo su questo lavoro:

  • Aumentando la gamma di input da esperti esterni in ogni fase del processo e esplorando meccanismi per l’etica partecipativa su una scala maggiore.
  • Ampiando la nostra comprensione dell’IA per la biologia in generale, oltre a singoli progetti o scoperte, per sviluppare una visione più solida delle opportunità e dei rischi nel tempo.
  • Trovando modi per espandere le nostre partnership con gruppi in settori che sono sotto-serviti dalle strutture attuali.

Come la nostra ricerca, questo è un processo di apprendimento continuo. Lo sviluppo dell’IA per il beneficio diffuso è uno sforzo comunitario che va ben oltre DeepMind.

Stiamo facendo ogni sforzo per essere consapevoli di quanto lavoro duro ci sia ancora da fare in collaborazione con gli altri e di come possiamo essere pionieri in modo responsabile nel futuro.