Ultimi studi di DeepMind all’ICLR 2022

'Ricerca recente di DeepMind all'ICLR 2022'

Lavorare verso una maggiore generalizzazione nell’intelligenza artificiale

Oggi, la stagione delle conferenze inizia con la decima conferenza internazionale sulle rappresentazioni di apprendimento (ICLR 2022), che si svolge virtualmente dal 25 al 29 aprile 2022. Partecipanti provenienti da tutto il mondo si stanno riunendo per condividere il loro lavoro all’avanguardia nell’apprendimento rappresentazionale, dall’avanzamento dello stato dell’arte nell’intelligenza artificiale alla scienza dei dati, alla visione artificiale, alla robotica e altro ancora.

Il primo giorno della conferenza, Pushmeet Kohli, il nostro responsabile dell’IA per la scienza e delle squadre di IA robusta e verificata, terrà una presentazione su come l’IA possa migliorare drasticamente le soluzioni per una vasta gamma di problemi scientifici, dalla genomica e biologia strutturale alla chimica quantistica e persino alla matematica pura.

Oltre a supportare l’evento come sponsor e organizzatori abituali di workshop, le nostre squadre di ricerca presenteranno 29 articoli, di cui 10 collaborazioni quest’anno. Ecco una breve panoramica delle nostre prossime presentazioni orali, in primo piano e poster:

Ottimizzazione dell’apprendimento

Un certo numero di articoli chiave si focalizza sui modi critici in cui stiamo rendendo il processo di apprendimento dei nostri sistemi di intelligenza artificiale più efficiente. Questo va dall’aumentare le prestazioni, avanzare nell’apprendimento con pochi esempi e creare sistemi efficienti in termini di dati che riducono i costi computazionali.

In “Meta-apprendimento bootstrap”, vincitore del Premio Outstanding Paper di ICLR 2022, proponiamo un algoritmo che consente a un agente di imparare come imparare insegnandosi da solo. Presentiamo anche un algoritmo di miglioramento delle politiche che ridisegna AlphaZero – il nostro sistema che si è insegnato da solo a padroneggiare gli scacchi, lo shogi e il Go – per continuare a migliorare anche durante l’addestramento con un piccolo numero di simulazioni; un regolarizzatore che mitiga il rischio di perdita di capacità in una vasta gamma di agenti e ambienti RL; e un’architettura migliorata per addestrare in modo efficiente modelli di attenzione.

Esplorazione

La curiosità è una parte fondamentale dell’apprendimento umano, contribuendo a far progredire la conoscenza e le competenze. Allo stesso modo, i meccanismi di esplorazione consentono agli agenti di intelligenza artificiale di andare oltre le conoscenze preesistenti e scoprire l’ignoto o provare qualcosa di nuovo.

Approfondendo la domanda “Quando gli agenti dovrebbero esplorare?”, indaghiamo quando gli agenti dovrebbero passare alla modalità di esplorazione, a quali scale temporali ha senso passare e quali segnali determinano meglio quanto lunghe e frequenti dovrebbero essere le fasi di esplorazione. In un altro articolo, introduciamo un “bonus di esplorazione del guadagno di informazione” che consente agli agenti di superare i limiti delle ricompense intrinseche nell’apprendimento rinforzato per poter apprendere più abilità.

IA robusta

Per distribuire modelli di apprendimento automatico nel mondo reale, devono essere efficaci nel passaggio tra addestramento, test e nuovi dataset. Comprendere i meccanismi causali è fondamentale, consentendo a alcuni sistemi di adattarsi, mentre altri faticano ad affrontare nuove sfide.

Espandendo la ricerca su questi meccanismi, presentiamo un framework sperimentale che consente un’analisi dettagliata della robustezza ai cambiamenti nella distribuzione. La robustezza aiuta anche a proteggere dagli danni avversari, sia non intenzionali che mirati. Nel caso delle corruzioni delle immagini, proponiamo una tecnica che ottimizza teoricamente i parametri dei modelli di immagine per ridurre gli effetti di sfocatura, nebbia e altri problemi comuni.

Comunicazione emergente

Oltre ad aiutare i ricercatori di apprendimento automatico a capire come gli agenti evolvono la propria comunicazione per completare compiti, gli agenti di intelligenza artificiale hanno il potenziale per rivelare intuizioni sui comportamenti linguistici all’interno delle popolazioni, il che potrebbe portare a un’IA più interattiva e utile.

Lavorando con ricercatori di Inria, Google Research e Meta AI, connettiamo il ruolo della diversità all’interno delle popolazioni umane nella modellazione del linguaggio per risolvere parzialmente una contraddizione apparente nelle simulazioni informatiche con agenti neurali. Inoltre, poiché la costruzione di rappresentazioni linguistiche migliori nell’IA è così vitale per comprendere la comunicazione emergente, indaghiamo anche l’importanza dell’aumento del dataset, della complessità del compito e della dimensione della popolazione come aspetti indipendenti. Inoltre, abbiamo anche studiato i compromessi tra espressività, complessità e imprevedibilità nei giochi in cui più agenti comunicano per raggiungere un obiettivo comune.

Vedi l’intera gamma del nostro lavoro a ICLR 2022 qui.