Google a ICML 2023

Google a ICML 2023

Inviato da Cat Armato, Program Manager, Google

Gruppi in tutto Google perseguono attivamente la ricerca nel campo dell’apprendimento automatico (ML), che va dalla teoria all’applicazione. Costruiamo sistemi di ML per risolvere profonde sfide scientifiche ed ingegneristiche in ambiti quali il linguaggio, la musica, l’elaborazione visiva, lo sviluppo di algoritmi e altro ancora. Il nostro obiettivo è costruire un ecosistema più collaborativo con la comunità di ricerca ML attraverso la condivisione di strumenti e dataset open-source, la pubblicazione dei nostri lavori e la partecipazione attiva a conferenze.

Google è orgogliosa di essere uno sponsor Diamond della 40ª Conferenza Internazionale sull’Apprendimento Automatico (ICML 2023), un evento annuale di primo piano che si svolge questa settimana a Honolulu, Hawaii. Essendo leader nella ricerca ML, Google è ampiamente rappresentata in questa conferenza con oltre 120 articoli accettati e una partecipazione attiva a numerosi workshop e tutorial. Google è inoltre lieta di essere uno sponsor Platinum dei workshop LatinX in AI e Women in Machine Learning. Non vediamo l’ora di condividere parte della nostra vasta ricerca in ML e di ampliare la nostra partnership con la comunità di ricerca ML in generale.

Registrato per ICML 2023? Speriamo che visiterai lo stand di Google per saperne di più sul lavoro entusiasmante, la creatività e il divertimento che ci mettiamo nel risolvere una parte delle sfide più interessanti del settore. Visita l’account Twitter @GoogleAI per scoprire le attività dello stand di Google (ad esempio, dimostrazioni e sessioni di domande e risposte). Consulta il blog di Google DeepMind per conoscere la loro partecipazione tecnica a ICML 2023.

Dai un’occhiata di seguito per saperne di più sulla ricerca di Google presentata a ICML 2023 (le affiliazioni di Google sono indicate in grassetto).

Consiglio di amministrazione e comitato organizzativo

I membri del Consiglio includono: Corinna Cortes, Hugo Larochelle. I presidenti dei tutorial includono: Hanie Sedghi

Attività allo stand di ricerca di Google

Relatori: Bryan Perozzi, Anton Tsitsulin, Brandon Mayer. Titolo: Unsupervised Graph Embedding @ Google (articolo, workshop EXPO) Martedì 25 luglio alle 10:30 AM HST

Relatore: Zheng Xu. Titolo: Federated Learning of Gboard Language Models with Differential Privacy (articolo 1, articolo 2, post sul blog) Martedì 25 luglio alle 15:30 HST

Relatore: Thomas Kipf. Titolo: Self-supervised scene understanding (articolo 1, articolo 2) Mercoledì 26 luglio alle 10:30 HST

Relatori: Johannes von Oswald, Max Vladymyrov. Titolo: Transformers learn in-context by gradient descent (articolo) Mercoledì 26 luglio alle 15:30 HST

Articoli accettati

Scaling Vision Transformers to 22 Billion Parameters (vedi post sul blog) Mostafa Dehghani, Josip Djolonga, Basil Mustafa, Piotr Padlewski, Jonathan Heek, Justin Gilmer, Andreas Steiner, Mathilde Caron, Robert Geirhos, Ibrahim Alabdulmohsin, Rodolphe Jenatton, Lucas Beyer, Michael Tschannen, Anurag Arnab, Xiao Wang, Carlos Riquelme, Matthias Minderer, Joan Puigcerver, Utku Evci, Manoj Kumar, Sjoerd van Steenkiste, Gamaleldin F. Elsayed, Aravindh Mahendran, Fisher Yu, Avital Oliver, Fantine Huot, Jasmijn Bastings, Mark Patrick Collier, Alexey Gritsenko, Vighnesh Birodkar, Cristina Vasconcelos, Yi Tay, Thomas Mensink, Alexander Kolesnikov, Filip Pavetić, Dustin Tran, Thomas Kipf, Mario Lučić, Xiaohua Zhai, Daniel Keysers, Jeremiah Harmsen, Neil Houlsby

Inferenza veloce da Transformers tramite Decodifica Speculativa Yaniv Leviathan, Matan Kalman, Yossi Matias

Miglioramento della politica di ottimizzazione con il meglio di entrambi i mondi Christoph Dann, Chen-Yu Wei, Julian Zimmert

Ingresso, Uscita e Reciprocità nell’Apprendimento Automatico Mukund Sundararajan, Walid Krichene

I Transformers imparano nel contesto tramite discesa del gradiente Johannes von Oswald, Eyvind Niklasson, Ettore Randazzo, João Sacramento, Alexander Mordvintsev, Andrey Zhmoginov, Max Vladymyrov

Campionamento aritmetico: Decodifica diversificata parallela per modelli di linguaggio di grandi dimensioni Luke Vilnis, Yury Zemlyanskiy, Patrick Murray*, Alexandre Passos*, Sumit Sanghai

Clustering Gerarchico Differenzialmente Privato con Garanzie di Approssimazione Provabili (vedi post del blog) Jacob Imola*, Alessandro Epasto, Mohammad Mahdian, Vincent Cohen-Addad, Vahab Mirrokni

Meccanismi di Fattorizzazione di Matrici Multi-Epoca per l’Apprendimento Automatico Privato Christopher A. Choquette-Choo, H. Brendan McMahan, Keith Rush, Abhradeep Thakurta

Il rumore di classificazione casuale non sconfigge tutti i potenziatori di potenziale convessi indipendentemente dalla scelta del modello Yishay Mansour, Richard Nock, Robert Williamson

Funzioni casuali simplex Isaac Reid, Krzysztof Choromanski, Valerii Likhosherstov, Adrian Weller

Pix2Struct: Parsing degli screenshot come preformazione per la comprensione del linguaggio visivo Kenton Lee, Mandar Joshi, Iulia Turc, Hexiang Hu, Fangyu Liu, Julian Eisenschlos, Urvashi Khandelwal, Peter Shaw, Ming-Wei Chang, Kristina Toutanova

Mu2SLAM: Modelli di Linguaggio e Discorso Multitask, Multilingua Yong Cheng, Yu Zhang, Melvin Johnson, Wolfgang Macherey, Ankur Bapna

Pianificazione del budget robusta con un singolo campione Santiago Balseiro, Rachitesh Kumar*, Vahab Mirrokni, Balasubramanian Sivan, Di Wang

Una prospettiva statistica sui modelli basati su recupero Soumya Basu, Ankit Singh Rawat, Manzil Zaheer

Forme del nucleo approssimativamente ottimali per scomposizioni di tensori Mehrdad Ghadiri, Matthew Fahrbach, Gang Fu, Vahab Mirrokni

Regressione elenco-decodificabile efficiente utilizzando l’apprendimento in batch Abhimanyu Das, Ayush Jain*, Weihao Kong, Rajat Sen

Addestramento efficiente dei modelli di linguaggio utilizzando l’apprendimento a pochi esempi Sashank J. Reddi, Sobhan Miryoosefi, Stefani Karp, Shankar Krishnan, Satyen Kale, Seungyeon Kim, Sanjiv Kumar

Massimizzazione submodulare completamente dinamica su matroidi Paul Duetting, Federico Fusco, Silvio Lattanzi, Ashkan Norouzi-Fard, Morteza Zadimoghaddam

GFlowNet-EM per l’apprendimento di modelli a variabili latenti compositive Edward J Hu, Nikolay Malkin, Moksh Jain, Katie Everett, Alexandros Graikos, Yoshua Bengio

Algoritmi di apprendimento online migliorati per la previsione del CTR nelle aste pubblicitarie Zhe Feng, Christopher Liaw, Zixin Zhou

I modelli di linguaggio di grandi dimensioni faticano ad apprendere conoscenze di coda di lunghezza Nikhil Kandpal, Haikang Deng, Adam Roberts, Eric Wallace, Colin Raffel

Autobidding multi-canale con vincoli di budget e ROI Yuan Deng, Negin Golrezaei, Patrick Jaillet, Jason Cheuk Nam Liang, Vahab Mirrokni

Reti neurali multistrato come scale addestrabili di spazi di Hilbert Zhengdao Chen

Sull’ottimizzazione convessa privata a livello utente Badih Ghazi, Pritish Kamath, Ravi Kumar, Raghu Meka, Pasin Manurangsi, Chiyuan Zhang

Generalizzazione PAC tramite rappresentazioni invarianti Advait U Parulekar, Karthikeyan Shanmugam, Sanjay Shakkottai

La regolarizzazione e la regressione ponderata della varianza raggiungono l’ottimalità minimax nei MDP lineari: teoria e pratica Toshinori Kitamura, Tadashi Kozuno, Yunhao Tang, Nino Vieillard, Michal Valko, Wenhao Yang, Jincheng Mei, Pierre Menard, Mohammad Gheshlaghi Azar, Remi Munos, Olivier Pietquin, Matthieu Geist,Csaba Szepesvari, Wataru Kumagai, Yutaka Matsuo

Accelerazione di Bellman Ford tramite permutazioni di violazione minima Silvio Lattanzi, Ola Svensson, Sergei Vassilvitskii

Indistinguibilità statistica degli algoritmi di apprendimento Alkis Kalavasis, Amin Karbasi, Shay Moran, Grigoris Velegkas

Adattamento al momento del test con modelli centrati sullo slot Mihir Prabhudesai, Anirudh Goyal, Sujoy Paul, Sjoerd van Steenkiste, Mehdi S. M. Sajjadi, Gaurav Aggarwal, Thomas Kipf, Deepak Pathak, Katerina Fragkiadaki>

Algoritmi per la stima di contributi per l’istogramma con privacy a livello utente Yuhan Liu*, Ananda Theertha Suresh, Wennan Zhu, Peter Kairouz, Marco Gruteser

Bandit Online Linear Optimization con suggerimenti e query Aditya Bhaskara, Ashok Cutkosky, Ravi Kumar, Manish Purohit

CLUTR: Apprendimento del curriculum tramite apprendimento di rappresentazioni delle attività non supervisionato Abdus Salam Azad, Izzeddin Gur, Jasper Emhoff, Nathaniel Alexis, Aleksandra Faust, Pieter Abbeel, Ion Stoica

CSP: Preparazione spaziale contrastiva auto-supervisionata per rappresentazioni geospaziali-visive Gengchen Mai, Ni Lao, Yutong He, Jiaming Song, Stefano Ermon

Percorsi di messaggi a lungo raggio basati su Ewald per grafici molecolari Arthur Kosmala, Johannes Gasteiger, Nicholas Gao, Stephan Günnemann

Algoritmi di approssimazione rapida (1+ε) per la fattorizzazione di matrici binarie Ameya Velingker, Maximilian Vötsch, David Woodruff, Samson Zhou

Bandit lineare contestuale federato con privacy differenziale a livello utente Ruiquan Huang, Huanyu Zhang, Luca Melis, Milan Shen, Meisam Hejazinia, Jing Yang

Indagare il ruolo dell’apprendimento basato sul modello nell’esplorazione e nel trasferimento Jacob C Walker, Eszter Vértes, Yazhe Li, Gabriel Dulac-Arnold, Ankesh Anand, Theophane Weber, Jessica B Hamrick

Etichetta Privacy Differenziale e Rilascio dei Dati di Allenamento Privati Robert Busa-Fekete, Andres Munoz, Umar Syed, Sergei Vassilvitskii

Pre-training del linguaggio a vita con esperti specializzati nella distribuzione Wuyang Chen*, Yanqi Zhou, Nan Du, Yanping Huang, James Laudon, Zhifeng Chen, Claire Cui

Apprendimento di rinforzo multiutente con ricompense a basso rango Dheeraj Mysore Nagaraj, Suhas S Kowshik, Naman Agarwal, Praneeth Netrapalli, Prateek Jain

Modelli del mondo mascherati multi-vista per la manipolazione robotica visiva Younggyo Seo, Junsu Kim, Stephen James, Kimin Lee, Jinwoo Shin, Pieter Abbeel

PaLM-E: un modello di linguaggio multimodale incorporato (vedi post del blog) Danny Driess, Fei Xia, Mehdi S. M. Sajjadi, Corey Lynch, Aakanksha Chowdhery, Brian Ichter,Ayzaan Wahid, Jonathan Tompson, Quan Vuong, Tianhe Yu, Wenlong Huang, Yevgen Chebotar, Pierre Sermanet, Daniel Duckworth, Sergey Levine, Vincent Vanhoucke, Karol Hausman, Marc Toussaint, Klaus Greff, Andy Zeng, Igor Mordatch, Pete Florence

Apprendimento federato privato con compressione sintonizzata automaticamente Enayat Ullah*, Christopher A. Choquette-Choo, Peter Kairouz, Sewoong Oh

Regret raffinato per MDP avversariali con approssimazione lineare delle funzioni Yan Dai, Haipeng Luo, Chen-Yu Wei, Julian Zimmert

Distillazione del dataset su larga scala per ImageNet-1K con memoria costante Justin Cui, Ruoche Wan, Si Si, Cho-Jui Hsieh

SGD con dimensioni di passo AdaGrad: piena adattività con alta probabilità per parametri sconosciuti, gradienti illimitati e varianza affine Amit Attia, Tomer Koren

I vantaggi statistici dell’apprendimento delle differenze temporali dei quantili per la stima del valore Mark Rowland, Yunhao Tang, Clare Lyle, Rémi Munos, Marc G. Bellemare, Will Dabney

Svelare la maschera del modello delle informazioni di posizione attraverso la nebbia delle caratteristiche delle immagini Chieh Hubert Lin, Hung-Yu Tseng, Hsin-Ying Lee, Maneesh Kumar Singh, Ming-Hsuan Yang

Ottimizzazione convessa stocastica privata a livello utente con tassi ottimali Raef Bassily, Ziteng Sun

Tecnica semplice di ponderazione delle prompt a zero-shot per migliorare l’ensemble dei prompt nei modelli testo-immagine James Urquhart Allingham*, Jie Ren, Michael W Dusenberry, Xiuye Gu, Yin Cui, Dustin Tran, Jeremiah Zhe Liu, Balaji Lakshminarayanan

I grandi modelli di linguaggio possono ragionare sugli invarianti dei programmi? Kexin Pei, David Bieber, Kensen Shi, Charles Sutton, Pengcheng Yin

Privacy Differenziale Shuffle Concorrente Sotto Osservazione Continua Jay Tenenbaum, Haim Kaplan, Yishay Mansour, Uri Stemmer

Costante Importante: Limite di Errore a Grana Fine per Osservazione Continua con Privacy Differenziale Hendrik Fichtenberger, Monika Henzinger, Jalaj Upadhyay

Funzioni di Perdita di Entropia Incrociata: Analisi Teorica e Applicazioni Anqi Mao, Mehryar Mohri, Yutao Zhong

Regret con Ottimalità di Tasso Efficiente per MDP Contestuali Avversari Utilizzando Approssimazione di Funzioni Online Orin Levy, Alon Cohen, Asaf Cassel, Yishay Mansour

Equità nella Massimizzazione Submodulare in Streaming Sotto un Vincolo di Matroid Marwa El Halabi, Federico Fusco, Ashkan Norouzi-Fard, Jakab Tardos, Jakub Tarnawski

La Collezione Flan: Progettazione di Dati e Metodi per una Sintonizzazione Istruzionale Efficace (vedi post del blog) Shayne Longpre, Le Hou, Tu Vu, Albert Webson, Hyung Won Chung, Yi Tay, Denny Zhou, Quoc V Le, Barret Zoph, Jason Wei, Adam Roberts

Apprendimento del Rinforzo su Grafi per il Controllo di Rete tramite Ottimizzazione a Due Livelli Daniele Gammelli, James Harrison, Kaidi Yang, Marco Pavone, Filipe Rodrigues, Francisco C. Pereira

Algoritmi Privati Potenziati da Apprendimento per il Rilascio di Diversi Quantili Mikhail Khodak*, Kareem Amin, Travis Dick, Sergei Vassilvitskii

LegendreTron: Apprendimento di Perdita Multiclasse Corretta Kevin H Lam, Christian Walder, Spiridon Penev, Richard Nock

Misurazione dell’Impatto della Distribuzione del Linguaggio di Programmazione Gabriel Orlanski*, Kefan Xiao, Xavier Garcia, Jeffrey Hui, Joshua Howland, Jonathan Malmaud, Jacob Austin, Rishabh Singh, Michele Catasta*

Privacy Differenziale Multi-Task Sotto Disuguaglianza di Distribuzione Walid Krichene, Prateek Jain, Shuang Song, Mukund Sundararajan, Abhradeep Thakurta, Li Zhang

Muse: Generazione di Testo-Immagine tramite Trasformatori Generativi Mascherati Huiwen Chang, Han Zhang, Jarred Barber, AJ Maschinot, José Lezama, Lu Jiang, Ming-Hsuan Yang, Kevin Murphy, William T. Freeman, Michael Rubinstein, Yuanzhen Li, Dilip Krishnan

Sulla Convergenza della Media Federata con Partecipazione Ciclica dei Client Yae Jee Cho, Pranay Sharma, Gauri Joshi, Zheng Xu, Satyen Kale, Tong Zhang

Ottimizzazione Stocastica Ottimale Non Liscia e Non Convessa Attraverso Conversione da Online a Non Convesso Ashok Cutkosky, Harsh Mehta, Francesco Orabona

Robustezza Out-of-Domain tramite Aumentazioni Mirate Irena Gao, Shiori Sagawa, Pang Wei Koh, Tatsunori Hashimoto, Percy Liang

Apprendimento di Modelli di Miscele Gaussiane Illimitate in Tempo Polinomiale e Privato Jamil Arbas, Hassan Ashtiani, Christopher Liaw

Memoria Pre-calcolata o Codifica On-the-Fly? Un Approccio Ibrido per l’Aumento del Recupero Sfrutta al Meglio il tuo Calcolo Michiel de Jong, Yury Zemlyanskiy, Nicholas FitzGerald, Joshua Ainslie, Sumit Sanghai, Fei Sha, William W. Cohen

Scalable Adaptive Computation for Iterative Generation Allan Jabri*, David J. Fleet, Ting Chen

Scaling Spherical CNNs Carlos Esteves, Jean-Jacques Slotine, Ameesh Makadia

STEP: Learning N:M Structured Sparsity Masks from Scratch with Precondition Yucheng Lu, Shivani Agrawal, Suvinay Subramanian, Oleg Rybakov, Christopher De Sa, Amir Yazdanbakhsh

Stratified Adversarial Robustness with Rejection Jiefeng Chen, Jayaram Raghuram, Jihye Choi, Xi Wu, Yingyu Liang, Somesh Jha

Quando le informazioni privilegiate spiegano il rumore etichetta? Guillermo Ortiz-Jimenez*, Mark Collier, Anant Nawalgaria, Alexander D’Amour, Jesse Berent, Rodolphe Jenatton, Effrosyni Kokiopoulou

Adaptive Computation with Elastic Input Sequence Fuzhao Xue*, Valerii Likhosherstov, Anurag Arnab, Neil Houlsby, Mostafa Dehghani, Yang You

La memorizzazione della rete neurale può essere localizzata? Pratyush Maini, Michael C. Mozer, Hanie Sedghi, Zachary C. Lipton, J. Zico Kolter, Chiyuan Zhang

Scoperta di abilità non supervisionata consapevole della controllabilità Seohong Park, Kimin Lee, Youngwoon Lee, Pieter Abbeel

Apprendimento efficiente della simulazione fisica basata su mesh con rete neurale grafica multi-scala a doppio passo Yadi Cao, Menglei Chai, Minchen Li, Chenfanfu Jiang

Recupero di Heavy Hitter federato con Sketch lineare Adria Gascon, Peter Kairouz, Ziteng Sun, Ananda Theertha Suresh

Modello generativo di grafici per il benchmarking delle reti neurali grafiche Minji Yoon, Yue Wu, John Palowitch, Bryan Perozzi, Russ Salakhutdinov

Limiti di H-Consistency per surrogati di perdita di misclassificazione a coppie Anqi Mao, Mehryar Mohri, Yutao Zhong

Regret migliorato per l’apprendimento di rinforzo online efficiente con approssimazione lineare delle funzioni Uri Sherman, Tomer Koren, Yishay Mansour

Attenzione allo slot invariante: scoperta degli oggetti con frame di riferimento centrati sullo slot Ondrej Biza*, Sjoerd van Steenkiste, Mehdi S. M. Sajjadi, Gamaleldin Fathy Elsayed, Aravindh Mahendran, Thomas Kipf

Apprendimento multi-task off-policy a partire da feedback bandit Joey Hong, Branislav Kveton, Manzil Zaheer, Sumeet Katariya, Mohammad Ghavamzadeh

Apprendimento senza rimpianto ottimale per funzioni lipschitziane a una faccia Paul Duetting, Guru Guruganesh, Jon Schneider, Joshua Ruizhi Wang

Policy Mirror Ascent per l’apprendimento efficiente e indipendente nei giochi di campo medio Batuhan Yardim, Semih Cayci, Matthieu Geist, Niao He

Minimizzazione del rimpianto e convergenza a equilibri nei giochi di Markov a somma generale Liad Erez, Tal Lancewicki, Uri Sherman, Tomer Koren, Yishay Mansour

L’apprendimento per rinforzo può essere più efficiente con ricompense multiple Christoph Dann, Yishay Mansour, Mehryar Mohri

Apprendimento per rinforzo con contesti dinamici dipendenti dalla storia Guy Tennenholtz, Nadav Merlis, Lior Shani, Martin Mladenov, Craig Boutlier

Campionamento degli eventi definiti dall’utente e quantificazione dell’incertezza nei modelli di diffusione per sistemi dinamici fisici Marc Anton Finzi*, Anudhyan Boral, Andrew Gordon Wilson, Fei Sha, Leonardo Zepeda-Nunez

Bottleneck chiave-valore discreto Frederik Träuble, Anirudh Goyal, Nasim Rahaman, Michael Curtis Mozer, Kenji Kawaguchi, Yoshua Bengio, Bernhard Schölkopf

DSGD-CECA: SGD decentralizzato con algoritmo di consenso esatto ottimale per la comunicazione Lisang Ding, Kexin Jin, Bicheng Ying, Kun Yuan, Wotao Yin

Exphormer: trasformatori sparsi per i grafi Hamed Shirzad, Ameya Velingker, Balaji Venkatachalam, Danica J. Sutherland, Ali Kemal Sinop

Top-k veloce, differenziabile e sparso: una prospettiva di analisi convessa Michael Eli Sander*, Joan Puigcerver, Josip Djolonga, Gabriel Peyré, Mathieu Blondel

Miglior valutazione delle politiche per gli esperimenti randomizzati di allocazione delle risorse algoritmiche Aditya Mate, Bryan Wilder, Aparna Taneja, Milind Tambe

Nella ricerca di un metodo generalizzabile per l’adattamento di dominio senza sorgente Malik Boudiaf*, Tom Denton, Bart van Merrienboer, Vincent Dumoulin, Eleni Triantafillou

Schedule del tasso di apprendimento alla presenza di spostamenti di distribuzione Matthew Fahrbach, Adel Javanmard, Vahab Mirrokni, Pratik Worah

Non tutte le semantiche sono create uguali: apprendimento auto-supervisionato contrastivo con individualizzazione automatica della temperatura Zi-Hao Qiu, Quanqi Hu, Zhuoning Yuan, Denny Zhou, Lijun Zhang, Tianbao Yang

Sul rapporto tra spiegazione e previsione: una visione causale Amir-Hossein Karimi*, Krikamol Muandet, Simon Kornblith, Bernhard Schölkopf, Been Kim

Sul ruolo dell’attenzione nella regolazione dei prompt Samet Oymak, Ankit Singh Rawat, Mahdi Soltanolkotabi, Christos Thrampoulidis

PLay: generazione di layout condizionata parametricamente utilizzando la diffusione latente Chin-Yi Cheng, Forrest Huang, Gang Li, Yang Li

La potenza dei modelli lineari localmente appresi per l’ottimizzazione delle politiche non lineari Daniel Pfrommer, Max Simchowitz, Tyler Westenbroek, Nikolai Matni, Stephen Tu

Ricerca di cammino rilevante per spiegare le reti neurali grafiche Ping Xiong, Thomas Schnake, Michael Gastegger, Grégoire Montavon, Klaus Robert Muller,Shinichi Nakajima

Generazione di prompt a livello di repository per grandi modelli di linguaggio del codice Disha Shrivastava, Hugo Larochelle, Daniel Tarlow

Banditi lineari stocastici robusti e privati Vasileios Charisopoulos*, Hossein Esfandiari, Vahab Mirrokni

Diffusione semplice: diffusione end-to-end per immagini ad alta risoluzione Emiel Hoogeboom, Jonathan Heek, Tim Salimans

Tied-Augment: il controllo della similarità delle rappresentazioni migliora l’aumento dei dati Emirhan Kurtulus, Zichao Li, Yann Dauphin, Ekin D. Cubuk

Perché è necessario il pre-training pubblico per l’addestramento del modello privato? Arun Ganesh, Mahdi Haghifam*, Milad Nasr, Sewoong Oh, Thomas Steinke, Om Thakkar, Abhradeep Guha Thakurta, Lun Wang

Una connessione tra One-Step RL e Critic Regularization nell’apprendimento per rinforzo Benjamin Eysenbach, Matthieu Geist, Sergey Levine, Ruslan Salakhutdinov

Oltre la condizione di uniformità di Lipschitz nell’ottimizzazione privata differenziabile Rudrajit Das*, Satyen Kale, Zheng Xu, Tong Zhang, Sujay Sanghavi

Gli integratori di campo grafico efficienti incontrano le nuvole di punti Krzysztof Choromanski, Arijit Sehanobish, Han Lin, Yunfan Zhao, Eli Berger, Tetiana Parshakova, Alvin Pan, David Watkins, Tianyi Zhang, Valerii Likhosherstov, Somnath Basu Roy Chowdhury, Avinava Dubey, Deepali Jain, Tamas Sarlos, Snigdha Chaturvedi, Adrian Weller

Veloce come CHITA: potatura di reti neurali con ottimizzazione combinatoria Riade Benbaki, Wenyu Chen, Xiang Meng, Hussein Hazimeh, Natalia Ponomareva, Zhe Zhao, Rahul Mazumder

Jump-Start Reinforcement Learning (vedi post sul blog) Ikechukwu Uchendu*, Ted Xiao, Yao Lu, Banghua Zhu, Mengyuan Yan, Joséphine Simon, Matthew Bennice, Chuyuan Fu, Cong Ma, Jiantao Jiao, Sergey Levine, Karol Hausman

L’apprendimento in POMDPs è efficiente in termini di campioni con osservabilità in retrospettiva Jonathan Lee, Alekh Agarwal, Christoph Dann, Tong Zhang

Stima del gradiente a bassa varianza nei grafi di calcolo unrolled con ES-Single Paul Vicol

Modelli di traiettoria mascherati per previsione, rappresentazione e controllo Philipp Wu, Arjun Majumdar, Kevin Stone, Yixin Lin, Igor Mordatch, Pieter Abbeel, Aravind Rajeswaran

Superare il bias della semplicità nelle reti neurali profonde utilizzando un setaccio di caratteristiche Rishabh Tiwari, Pradeep Shenoy

Perdite di classificazione a coppie di previsione dei tassi di click-through per la massimizzazione del benessere nelle aste pubblicitarie Boxiang Lyu, Zhe Feng, Zachary Robertson, Sanmi Koyejo

Flussi predittivi per Ford-Fulkerson più veloce Sami Davies, Benjamin Moseley, Sergei Vassilvitskii, Yuyan Wang

Leggi di scala per la traduzione automatica neurale multilingue Patrick Fernandes, Behrooz Ghorbani, Xavier Garcia, Markus Freitag, Orhan Firat

Apprendimento sequenziale di Monte Carlo per la scoperta della struttura delle serie temporali Feras Saad, Brian Patton, Matthew Douglas Hoffman, Rif A. Saurous, Vikash Mansinghka

Il gradiente stocastico ha successo per i banditi Jincheng Mei, Zixin Zhong, Bo Dai, Alekh Agarwal, Csaba Szepesvari, Dale Schuurmans

Ottimalità dell’istanza basata su sottoinsiemi nella stima privata Travis Dick, Alex Kulesza, Ziteng Sun, Ananda Theertha Suresh

L’Effetto Incredibile dell’Apprendimento a Pochi Esempi per la Traduzione Automatica Xavier Garcia, Yamini Bansal, Colin Cherry, George Foster, Maxim Krikun, Melvin Johnson, Orhan Firat

Tutorial

Apprendimento Auto-Supervisionato in Visione: dai Progressi della Ricerca alle Migliori Pratiche Xinlei Chen, Ishan Misra, Randall Balestriero, Mathilde Caron, Christoph Feichtenhofer, Mark Ibrahim

Come Implementare ML con Privacy Differenziale: un Tutorial Pratico (vedi post del blog) Sergei Vassilvitskii, Natalia Ponomareva, Zheng Xu

Progressi Recenti nella Teoria della Generalizzazione delle Reti Neurali Tengyu Ma, Alex Damian

Workshop del Giorno dell’EXPO

Reti Neurali Grafiche in Tensorflow: una Guida Pratica Organizzatori del Workshop includono: Bryan Perozzi, Anton Tsitsulin, Brandon Mayer, Jonathan Halcrow

Workshop di Affinità Sponsorizzati da Google

LatinX in AI (LAXAI) Relatore Principale Sponsor Platinum: Monica Ribero Membri del Panel: Yao Qin

Donne nell’Apprendimento Automatico (WiML) Sponsor Platinum Membri del Panel: Yao Qin

Workshop

Apprendimento e Analisi Federata nella Pratica: Algoritmi, Sistemi, Applicazioni e Opportunità Organizzatore: Peter Kairouz, Zheng Xu Relatore: Brendan McMahan

Apprendimento Automatico Interpretabile nella Sanità (IMLH) Organizzatore: Ramin Zabih

Conoscenza e Ragionamento Logico nell’Era dell’Apprendimento Basato sui Dati Organizzatore: Beliz Günel

Le Molteplici Facce dell’Apprendimento Basato sulle Preferenze (MFPL) Organizzatori: Robert Busa-Fekete, Mohammad Ghavamzadeh

La Sinergia tra Modellistica Scientifica e Apprendimento Automatico (SynS & ML) Relatore: Sercan Arik

Teoria della Mente negli Agenti di Comunicazione Organizzatore: Pei Zhou

Intelligenza Artificiale e Interazione Uomo-Computer Organizzatori: Yang Li, Forrest Huang

Ricerca sull’Apprendimento Automatico Centrato sui Dati (DMLR) Organizzatori: Alicia Parrish, Najoung Kim Relatore: Peter Mattson

Compressione Neurale: dalla Teoria dell’Informazione alle Applicazioni Relatore: Johannes Ballé Membro del Panel: George Toderici

Workshop sull’Intelligenza Artificiale Conversazionale Neurale – Cosa Rimane da Insegnare ai Chatbot Affidabili, Potenziati, Adattabili, Capacitati e Centrati sull’Uomo? Organizzatore: Ahmad Beirami

Correlazioni Spurie, Invarianza e Stabilità (SCIS) Organizzatore: Amir Feder


* Lavoro svolto mentre ero presso Google