Rivoluzionare l’apprendimento automatico sfruttare l’elaborazione 3D negli acceleratori fototonici per un parallelismo avanzato e la compatibilità con l’elaborazione ai bordi

Rivoluzionare l'apprendimento automatico con l'utilizzo dell'elaborazione 3D nei acceleratori fototonici per ottenere un parallelismo avanzato e la compatibilità con l'elaborazione ai bordi

A causa dei progressi tecnologici e dell’aumento del machine learning, il volume dei dati è aumentato. La produzione globale di dati è cresciuta notevolmente, raggiungendo i 64,2 zettabyte nel 2020, ed è previsto che raggiunga i 181,0 zettabyte entro il 2025. Scienze fisiche, scienze informatiche, scienze medicinali, riconoscimento vocale, visione artificiale e elaborazione del linguaggio naturale sono alcune delle aree in cui ciò ha una significativa applicazione. Grandi set di dati pongono notevoli richieste di elaborazione sui sistemi hardware.

Il ritmo con cui la potenza di elaborazione necessaria per i moderni lavori di intelligenza artificiale sta raddoppiando è molto più veloce, avviandosi in media ogni 3,5 mesi. Per tenere il passo con questa espansione, la capacità dell’hardware deve quadruplicarsi ogni 3,5 mesi. Un’idea suggerita per migliorare la dimensionalità dei dati che tale tecnologia può elaborare è quella di migliorare il trattamento dei dati tridimensionali.

Di conseguenza, ricercatori delle Università di Oxford, Muenster, Heidelberg ed Exeter hanno sviluppato un hardware fototonico-elettronico per gestire dati tridimensionali (3D). Questa innovazione migliora notevolmente la parallelismo dell’elaborazione dei dati per le attività di intelligenza artificiale (AI).

I ricercatori hanno utilizzato la modulazione a radiofrequenza per aumentare la parallelizzazione delle comunicazioni fotoniche, aggiungendo un altro livello ai dati. Hanno potuto fare ciò utilizzando la multiplexing a lunghezza d’onda e incorporando memorie non volatili distribuite nello spazio. Rispetto alle tecniche che sfruttano solo fluttuazioni spaziali e di lunghezza d’onda, gli scienziati hanno ottenuto un buon livello di parallelismo con questo sistema, raggiungendo 100 e migliorando di due ordini di grandezza.

Il team di ricerca ha avanzato il loro lavoro migliorando la capacità di elaborazione dei chip del moltiplicatore matrice-vettore fototonico aggiungendo una dimensione parallela aggiuntiva. Utilizzando numerose frequenze radio per codificare i dati, questo miglioramento, noto come elaborazione a dimensioni superiori, aumenta il parallelismo a un livello che supera i risultati precedenti.

Il team di ricerca ha testato il rischio di mortalità improvvisa nei pazienti con malattie cardiache esaminando elettrocardiogrammi in un ambiente reale utilizzando la loro innovativa attrezzatura. Hanno identificato con successo la probabilità di morte improvvisa con un tasso di successo del 93,5% analizzando contemporaneamente 100 letture di ECG.

I ricercatori hanno anche affermato che questo approccio ha il potenziale per superare i processori elettrici più recenti, anche con un leggero aumento di ingressi e uscite. Questa scalabilità potrebbe portare a un aumento significativo della densità di calcolo e dell’efficienza energetica fino a 100 volte.