Google Cloud e NVIDIA portano la collaborazione al livello successivo

Google Cloud e NVIDIA collaborano a un nuovo livello

Mentre l’intelligenza artificiale generativa e i grandi modelli di linguaggio (LLM) continuano a guidare l’innovazione, i requisiti di calcolo per l’addestramento e l’inferenza sono cresciuti a un ritmo sorprendente.

Per soddisfare tale esigenza, Google Cloud ha annunciato oggi la disponibilità generale delle sue nuove istanze A3, alimentate da GPU NVIDIA H100 Tensor Core. Queste GPU offrono prestazioni senza precedenti a tutti i tipi di applicazioni di intelligenza artificiale grazie al loro motore di trasformazione, appositamente progettato per accelerare i LLM.

La disponibilità delle istanze A3 segue la nomina di NVIDIA a Partner di Intelligenza Artificiale Generativa dell’Anno di Google Cloud, un premio che riconosce la profonda e continua collaborazione tra le due aziende per accelerare l’intelligenza artificiale generativa su Google Cloud.

L’effort congiunto assume diverse forme, dalla progettazione dell’infrastruttura all’abilitazione del software estensivo, per facilitare la creazione e l’implementazione di applicazioni di intelligenza artificiale sulla piattaforma Google Cloud.

Alla conferenza Google Cloud Next, il fondatore e CEO di NVIDIA, Jensen Huang, si è unito al CEO di Google Cloud, Thomas Kurian, per la presentazione principale dell’evento per celebrare la disponibilità generale delle istanze A3 alimentate da GPU NVIDIA H100 e parlare di come Google sta utilizzando le GPU NVIDIA H100 e A100 per la ricerca interna e l’inferenza nelle sue divisioni DeepMind e altre.

Nel corso della discussione, Huang ha sottolineato i livelli più profondi di collaborazione che hanno reso possibile l’accelerazione delle GPU NVIDIA per il framework PaxML per la creazione di LLM massicci. Questo framework di apprendimento automatico basato su Jax è appositamente progettato per addestrare modelli di grande scala, consentendo sperimentazioni e parallelizzazioni avanzate e completamente configurabili.

PaxML è stato utilizzato da Google per la creazione di modelli interni, inclusi DeepMind e altri progetti di ricerca, e utilizzerà le GPU NVIDIA. Le aziende hanno anche annunciato che PaxML è immediatamente disponibile nel registro dei contenitori NVIDIA NGC.

Abbonda di Startup di Intelligenza Artificiale Generativa

Oggi ci sono oltre mille startup di intelligenza artificiale generativa che stanno sviluppando applicazioni di prossima generazione, molte delle quali utilizzano la tecnologia NVIDIA su Google Cloud. Alcune di queste includono Writer e Runway.

Writer utilizza i LLM basati su trasformatori per consentire ai team di marketing di creare rapidamente copie per pagine web, blog, annunci e altro ancora. Per fare ciò, l’azienda utilizza NVIDIA NeMo, un framework di applicazione di NVIDIA AI Enterprise che aiuta le aziende a curare i loro dataset di addestramento, creare e personalizzare i LLM e farli funzionare in produzione su larga scala.

Grazie alle ottimizzazioni di NeMo, gli sviluppatori di Writer sono passati a lavorare con modelli con centinaia di milioni di parametri a modelli con 40 miliardi di parametri. La lista dei clienti della startup include nomi famosi come Deloitte, L’Oreal, Intuit, Uber e molte altre aziende della Fortune 500.

Runway utilizza l’intelligenza artificiale per generare video in qualsiasi stile. Il modello di intelligenza artificiale imita stili specifici suggeriti da immagini fornite o da un prompt di testo. Gli utenti possono anche utilizzare il modello per creare nuovi contenuti video utilizzando filmati esistenti. Questa flessibilità consente a registi e creatori di contenuti di esplorare e progettare video in un modo completamente nuovo.

Google Cloud è stata la prima CSP a portare la GPU NVIDIA L4 nel cloud. Inoltre, le aziende hanno collaborato per consentire al servizio Dataproc di Google di sfruttare l’acceleratore RAPIDS per Apache Spark per fornire significativi miglioramenti delle prestazioni per ETL, disponibili oggi con Dataproc su Google Compute Engine e presto per Serverless Dataproc.

Le aziende hanno inoltre reso NVIDIA AI Enterprise disponibile su Google Cloud Marketplace e integrato il software di accelerazione NVIDIA nell’ambiente di sviluppo Vertex AI.

Trova ulteriori dettagli sulle istanze GPU NVIDIA su Google Cloud e su come NVIDIA alimenta l’intelligenza artificiale generativa, e scopri come le organizzazioni stanno eseguendo le loro applicazioni aziendali mission-critical con NVIDIA NeMo su Google Cloud accelerato da GPU.

Iscriviti alle notizie sull’intelligenza artificiale generativa per rimanere aggiornato sulle ultime scoperte, sviluppi e tecnologie.