Apprendimento continuo al margine

Apprendimento continuo al margine' can be condensed as 'Apprendimento al margine'.

.fav_bar { float:left; border:1px solid #a7b1b5; margin-top:10px; margin-bottom:20px; } .fav_bar span.fav_bar-label { text-align:center; padding:8px 0px 0px 0px; float:left; margin-left:-1px; border-right:1px dotted #a7b1b5; border-left:1px solid #a7b1b5; display:block; width:69px; height:24px; color:#6e7476; font-weight:bold; font-size:12px; text-transform:uppercase; font-family:Arial, Helvetica, sans-serif; } .fav_bar a, #plus-one { float:left; border-right:1px dotted #a7b1b5; display:block; width:36px; height:32px; text-indent:-9999px; } .fav_bar a.fav_de { background: url(../images/icons/de.gif) no-repeat 0 0 #fff } .fav_bar a.fav_de:hover { background: url(../images/icons/de.gif) no-repeat 0 0 #e6e9ea } .fav_bar a.fav_acm_digital { background:url(‘../images/icons/acm_digital_library.gif’) no-repeat 0px 0px #FFF; } .fav_bar a.fav_acm_digital:hover { background:url(‘../images/icons/acm_digital_library.gif’) no-repeat 0px 0px #e6e9ea; } .fav_bar a.fav_pdf { background:url(‘../images/icons/pdf.gif’) no-repeat 0px 0px #FFF; } .fav_bar a.fav_pdf:hover { background:url(‘../images/icons/pdf.gif’) no-repeat 0px 0px #e6e9ea; } .fav_bar a.fav_more .at-icon-wrapper{ height: 33px !important ; width: 35px !important; padding: 0 !important; border-right: none !important; } .a2a_kit { line-height: 24px !important; width: unset !important; height: unset !important; padding: 0 !important; border-right: unset !important; border-left: unset !important; } .fav_bar .a2a_kit a .a2a_svg { margin-left: 7px; margin-top: 4px; padding: unset !important; }

Il diverso dataset SKILL includeva 102 diversi compiti (colori) mostrati qui in base alla difficoltà del compito (asse y), il numero di classi per tipo di compito (asse x) e il numero totale di immagini per tipo di compito (dimensione del cerchio). ¶ Credit: Yunhao Ge et al, Lightweight Learner for Shared Knowledge Lifelong Learning

Le reti neurali profonde di tipo connectionista (DNN) trascorrono lunghi periodi di tempo per apprendere vaste banche dati, per poi trasferire quelle conoscenze in motori di inferenza fissi adatti all’implementazione ai bordi della rete. Se è necessario aggiungere nuovi compiti al motore di inferenza, tradizionalmente devono essere aggiunti al database centrale iniziale e il processo di apprendimento deve essere ripetuto, per poi essere ridistribuito. Perché? Perché lasciare l’apprendimento “acceso” – il cosiddetto apprendimento lungo la vita (LL) – in una rete neurale profonda già addestrata sovrascrive tipicamente porzioni del motore di inferenza esistente, con l’indesiderato effetto collaterale di “dimenticare” gli esempi presenti nel database originale, secondo quanto affermato da Robert French dell’Università di Liegi (Belgio) nel suo studio fondamentale Catastrophic forgetting in connectionist networks.

Ora, i ricercatori dell’Università della California del Sud (USC), Intel Labs e l’Istituto di Tecnologia Avanzata di Shenzhen in Cina sostengono di aver realizzato un’architettura open source chiamata Shared Knowledge Lifelong Learning (SKILL) che consente agli agenti di Lightweight Lifelong Learning (LLL) di acquisire nuove conoscenze ai bordi della rete, per poi condividerle tra un numero qualsiasi di altri agenti ai bordi senza il rischio di dimenticanza catastrofica.

“L’apprendimento ai bordi è molto importante. Oggi, alcune stime indicano che dal 25 al 30% dei dati Internet proviene da sensori ai bordi, rendendo l’apprendimento ai bordi una necessità”, ha dichiarato Vijaykrishnan Narayanan, associate dean for Innovation e Robert Noll Chair Professor presso la Pennsylvania State University (Penn State), che non ha partecipato alla ricerca. “Questi ricercatori hanno svolto un lavoro fondamentale che può aprire le porte all’apprendimento ai bordi attraverso la condivisione di conoscenze in modi mai provati prima. Due contributi si distinguono. In primo luogo, hanno distribuito l’apprendimento lungo la vita che può apprendere incrementalmente su più compiti, senza dover ricominciare da capo per evitare di dimenticare. Il secondo, forse un contributo ancora più duraturo, è che il dataset SKILL coinvolge 102 diversi tipi di apprendimenti dagli stessi agenti distribuiti, come ad esempio l’apprendimento del movimento delle ombre, mentre si impara diversi tipi di insetti. Il dataset è molto più impegnativo rispetto alla semplice classificazione degli oggetti, come evidenziato dalle recensioni open source.”

Per essere sicuri, molti altri ricercatori hanno affrontato il problema dell’apprendimento continuo senza dimenticanza catastrofica per sistemi centralizzati, compresi tentativi di emulare come il cervello umano lo fa utilizzando la plasticità strutturale, il replay della memoria, il curriculum e l’apprendimento trasferimento, la motivazione intrinseca e l’integrazione multisensoriale come spiegato in Continual Lifelong Learning with Neural Networks: A Review, di German Parisi presso l’Università di Amburgo (Germania) con colleghi presso il Rochester Institute of Technology (New York) e l’Università di Heriot-Watt (Edimburgo, Regno Unito). Tuttavia, nessuno di questi approcci simili al cervello ha tentato di risolvere il problema attuale della consolidazione dell’apprendimento completamente distribuito tra agenti piccoli (spesso alimentati a batteria) al margine della rete.

Altri gruppi stanno esplorando lo stesso obiettivo di apprendimento al margine, ma tutti i metodi concorrenti utilizzano un database intelligente centralizzato per consolidare e distribuire l’apprendimento autonomo indipendente che si svolge tra agenti multipli, secondo i ricercatori dell’USC, Intel e Shenzhen Institute. Di conseguenza, essi subiscono l’onere di capacità di comunicazione ad alta larghezza di banda verso un’architettura centralizzata e dipendenza da essa, e di conseguenza non possono ottenere un aumento di velocità lineare di SKILL man mano che vengono aggiunti nuovi agenti individuali.

La chiave del successo unico di SKILL, secondo questi ricercatori, è un’architettura che combina un motore di riconoscimento del core comune fisso incorporato in ogni agente durante la sua produzione, oltre a moduli condivisibili specifici per il compito che ogni agente crea quando apprende un nuovo compito, e poi condivide con gli agenti a cui è connesso dalla rete. Al core fisso di ogni agente vengono aggiunti i nuovi compiti acquisiti, in un certo senso, aggiungendo nuovi neuroni di classificazione.

Ha detto il professor di informatica Laurent Itti dell’USC: “Per la prima volta, questa ricerca mostra come una società completamente distribuita di agenti individuali possa beneficiare dell’apprendimento reciproco pur conservando la propria individualità con una parallelizzazione quasi perfetta mentre impara a padroneggiare un insieme diversificato di competenze”.

Le reti neurali funzionano utilizzando i loro strati intermedi per estrarre caratteristiche (colore, forma, ecc.) dagli oggetti presentati allo strato di input. Lo strato finale è composto da neuroni di categoria di classificazione, ciascuno dei quali viene attivato da un insieme unico di neuroni di caratteristica estratti a cui è collegato da connessioni sinaptiche pesate. SKILL funziona lasciando tutti i neuroni degli strati di input, intermedi e finali e le sinapsi sintonizzate al loro posto, evitando così di dimenticare. Invece, apprende nuove categorie aggiungendo nuovi neuroni di classificazione per ogni nuovo compito. I nuovi neuroni sono collegati, con sinapsi pesate, ai neuroni esistenti dello strato di caratteristiche del core centrale permanente.

Quindi, qualsiasi agente (con il core centrale identico) può trasmettere in broadcast qualsiasi categoria di classificazione appena aggiunta agli altri agenti individuali al margine attaccando i nuovi neuroni di classificazione ai loro neuroni di riconoscimento delle caratteristiche comuni allo stesso modo dell’agente apprenditore di margine originale. L’intera rete di agenti acquisisce capacità di apprendimento lunga vita senza il rischio di dimenticare le categorie riconosciute dal motore di riconoscimento del core originale, o per quella materia, qualsiasi delle categorie appena aggiunte condivise tra gli agenti.

Per dimostrare il concetto dell’architettura SKILL, una rete neurale profonda open-source di Google è stata addestrata sull’insieme di dati standard ImageNet di circa 1.000 classi di oggetti estratti dalle 1.281.167 immagini di addestramento di ImageNet (oltre a 50.000 immagini di validazione e 100.000 immagini di test). Questa DNN è stata quindi incisa in una ROM come core fisso per ogni agente di margine.

Gli agenti di margine hanno quindi appreso oltre 100 nuovi compiti da un insieme di dati composito di 2.041.225 esempi, inserendoli in 5.033 categorie collegate ai 22.000 neuroni originali e ai 2,9 milioni di sinapsi del DNN del core comune. L’output dello strato di estrazione delle caratteristiche intermedie era un vettore di 2.048 caratteristiche a cui sono state aggiunte le nuove conoscenze attraverso sinapsi collegate a nuovi neuroni di output aggiunti per ogni nuovo compito. SKILL ha appreso con successo i più di 100 nuovi compiti di riconoscimento di pattern e ha trasferito con successo tali conoscenze a agenti multipli. Itti ha affermato che l’architettura attuale potrebbe scalare fino a imparare 500 nuovi compiti di classificazione.

Il più grande ostacolo per scalare oltre i 500 nuovi compiti con l’architettura attuale era la necessità di un mappatore di compiti, per differenziare la nuova conoscenza dalla conoscenza di base del core. I ricercatori sperano di rimediare a questa limitazione nelle future architetture. Inoltre, il riconoscimento tra categorie di immagini altamente differenziate (ad esempio, tra fiori e raggi x del cuore) richiede attualmente un algoritmo per ottimizzare gli input di bias ai neuroni durante il passaggio a una nuova categoria di compito.

Itti afferma che il prototipo di apprendimento di agenti multipli indipendenti SKILL supera la concorrenza attuale e raggiunge un aumento di velocità quasi lineare nell’apprendimento per ogni agente aggiunto, e promette per gli aggiornamenti futuri. Il lavoro è stato supportato dalla U.S. Defense Advanced Research Projects Agency (DARPA), Semiconductor Research Corp. e l’U.S. Army Research Office.

R. Colin Johnson è un Kyoto Prize Fellow che ha lavorato come giornalista tecnologico per due decenni.