L’IA e la RA stanno guidando la domanda di dati – L’hardware open source sta incontrando la sfida

L'IA e la RA aumentano la richiesta di dati - L'hardware open source risponde alla sfida

I dati sono il sangue vitale dell’economia digitale e, con l’emergere e l’evolversi di nuove tecnologie, la domanda di velocità di trasferimento dati più elevate, latenze più basse e potenza di calcolo maggiore nei data center sta aumentando in modo esponenziale. Le nuove tecnologie stanno spingendo i limiti della trasmissione e dell’elaborazione dei dati e l’adozione di tecnologie open source può aiutare gli operatori dei data center a massimizzare le loro operazioni attuali e prepararsi per il futuro. Ecco alcuni esempi di tecnologie che guidano la domanda di calcolo elevato e modi in cui la tecnologia open source, le comunità e gli standard stanno contribuendo ad affrontare questa domanda su larga scala in modo sostenibile.

Intelligenza Artificiale e Apprendimento Automatico

Le tecnologie di intelligenza artificiale (IA) e apprendimento automatico (ML) stanno rivoluzionando vari settori come l’elaborazione del linguaggio naturale, la visione artificiale, il riconoscimento del parlato, i sistemi di raccomandazione e le auto a guida autonoma. L’IA e l’ML consentono ai computer di apprendere dai dati e svolgere compiti che normalmente richiedono intelligenza umana.

Tuttavia, l’IA e l’ML richiedono anche enormi quantità di dati e potenza di calcolo per addestrare ed eseguire modelli e algoritmi complessi. Ad esempio, GPT-3, uno dei modelli di linguaggio naturale più avanzati al mondo, ha 175 miliardi di parametri ed è stato addestrato su 45 terabyte di dati testuali. Per elaborare set di dati e modelli di questa portata in modo efficiente, le applicazioni di IA e ML hanno bisogno di sistemi di calcolo ad alte prestazioni (HPC) in grado di garantire velocità di trasferimento dati elevate, latenze ridotte e potenza di calcolo elevata.

Uno dei trend emergenti nell’HPC è l’utilizzo di processori specializzati come le GPU o le TPU ottimizzate per l’elaborazione parallela e le operazioni matriciali comuni nelle carichi di lavoro di IA e ML. Ad esempio, il processore Grace di NVIDIA è un nuovo processore progettato specificamente per applicazioni HPC che sfrutta la tecnologia delle GPU di NVIDIA per offrire prestazioni fino a 10 volte superiori rispetto alle attuali CPU x86. Il processore Grace supporta anche interconnessioni veloci come NVLink che consentono velocità di trasferimento dati elevate tra CPU e GPU.

Realtà Aumentata e Realtà Virtuale

L’Apple Vision Pro ha fatto grandi onde durante la sua presentazione. La realtà aumentata (AR) e la realtà virtuale (VR) sono due delle tecnologie più coinvolgenti e interattive che stanno trasformando vari settori come l’intrattenimento, l’istruzione, la cura della salute e la produzione. AR sovrappone informazioni digitali al mondo reale, mentre la VR crea un ambiente completamente simulato che gli utenti possono vivere attraverso un visore.

Tuttavia, queste tecnologie pongono anche sfide significative per il trasferimento e l’elaborazione dei dati. A causa del suo recente lancio, i dettagli su Apple Vision Pro sono ancora in sospeso. Altri visori VR sono disponibili da tempo, tuttavia, quindi possiamo fare alcune supposizioni. Ad esempio, i visori VR come Oculus Quest 2 richiedono una connessione ad alta velocità a un PC o a un server cloud per lo streaming di contenuti video e audio ad alta qualità, nonché per il tracciamento e l’input dati provenienti dal visore e dai controller. La velocità di trasferimento dati, che è la quantità di dati trasferiti al secondo, dipende dalla velocità con cui la GPU può codificare il segnale dal lato del PC o del server e dalla velocità con cui il processore di Quest 2 può decodificare il segnale dal lato del visore.

Secondo Oculus, la velocità di trasferimento dati raccomandata per lo streaming VR è compresa tra 150 Mbps e 500 Mbps, a seconda della risoluzione e del frame rate. Ciò significa che lo streaming VR richiede una velocità di trasferimento dati molto più elevata rispetto ad altre attività online come la navigazione web o lo streaming musicale. Inoltre, lo streaming VR richiede anche una bassa latenza, ovvero il tempo impiegato da un segnale per viaggiare da un punto all’altro. Una latenza elevata può causare un gameplay lento o tremolante, che può rovinare l’immersività e provocare il mal di movimento.

La latenza dipende da diversi fattori come la velocità di rete, la distanza tra i dispositivi e gli algoritmi di codifica e decodifica. Secondo Oculus, la latenza ideale per lo streaming VR è inferiore a 20 millisecondi. Tuttavia, raggiungere questo livello di prestazioni non è facile, soprattutto su connessioni wireless come Wi-Fi o 5G.

Tecnologie Open Source per l’ottimizzazione dei Data Center

Con l’emergere di nuove tecnologie che richiedono velocità di trasferimento dati più elevate, latenze più basse e maggiore potenza di calcolo nei data center, gli operatori dei data center devono affrontare diverse sfide come l’aumento del consumo energetico, nuove esigenze di raffreddamento, utilizzo dello spazio, costi operativi e un ritmo accelerato di innovazione e rinnovo dell’hardware. Per affrontare queste sfide, gli operatori dei data center devono ottimizzare la loro infrastruttura attuale e adottare nuovi standard e tecnologie che possano migliorare la loro efficienza e scalabilità.

Questo è l’obiettivo dell’Open19 Project, un’iniziativa dell’Alleanza per un’Infrastruttura Sostenibile e Scalabile ora parte della Linux Foundation. L’Open19 Project è uno standard aperto per l’hardware dei data center basato su fattori di forma comuni che fornisce una distribuzione di potenza altamente efficiente di prossima generazione, componenti riutilizzabili e opportunità per interconnessioni ad alta velocità emergenti. La missione di SSIA e gli standard aperti creati attraverso il progetto Open19 sono in linea con l’obiettivo più ampio del settore verso l’efficienza, la scalabilità e la sostenibilità dell’infrastruttura che alimenta le nostre vite e le nostre comunità digitali. L’Open Compute Project è un altro sforzo per supportare in modo efficiente le crescenti esigenze dell’infrastruttura di calcolo. Questo progetto promuove in modo simile la collaborazione guidata dalla comunità tra partner del settore per sviluppare soluzioni per i data center, con un focus sulle dimensioni dei rack server da 21″ tipicamente utilizzati da grandi colos e hyperscaler. Lo scopo dell’OCP si estende anche alla struttura del data center, oltre ai componenti IT interni dei server.

Conclusion

Le nuove tecnologie stanno guidando la domanda di velocità di trasferimento dati più veloci, latenze più basse e una maggiore potenza di calcolo nei data center, mentre comunità, governi e aziende si concentrano sulla gestione delle risorse e sulle crescenti preoccupazioni per la sostenibilità legate all’uso dell’acqua, alla gestione energetica e ad altri aspetti intensivi di carbonio nella creazione, nell’uso e nell’implementazione delle tecnologie. L’adozione di tecnologie open source, sviluppate in forum guidati dalla comunità come SSIA e Linux Foundation, può aiutare gli operatori dei data center a massimizzare le loro attuali operazioni e prepararsi per un futuro più sostenibile, soddisfacendo le esigenze di queste nuove ed entusiasmanti applicazioni.