L’acquisizione di terreni di LLM Come AWS, Azure e GCP si contendono l’IA

Acquisition of LLM lands as AWS, Azure, and GCP compete for AI

All’inizio degli anni 2000, i telefoni cellulari erano ancora ingombranti e utilitaristici. Ma nel luglio 2004, Motorola ha presentato il Razr, con il suo corpo in alluminio sottile e ultra sottile che rappresentava una netta rottura rispetto ai telefoni base dell’epoca. Posizionato come un dispositivo premium, il Razr è volato via dagli scaffali, vendendo 50 milioni di unità in soli due anni e oltre 130 milioni in vari modelli nel corso di quattro anni. Il Razr ha riportato in vita da solo la stagnante divisione telefoni cellulari di Motorola e ha cambiato la fortuna dell’azienda, almeno per un certo periodo.

All’epoca era comune che gli operatori di telefonia cellulare utilizzassero l’accesso esclusivo a telefoni nuovi e popolari come il Razr come incentivo per incoraggiare i clienti a cambiare rete. Cingular Wireless ha segnato un grande successo ottenendo i diritti esclusivi per il Razr. La mossa ha pagato – Cingular ha poi acquisito AT&T Wireless nel 2004 ed è diventato il più grande operatore wireless negli Stati Uniti grazie al popolarissimo Razr.

Oggi, una dinamica simile si sta verificando nel mondo dei grandi modelli di linguaggio (LLM) e dell’elaborazione cloud. Grandi giocatori come Amazon, Microsoft e Google si stanno affrettando a soddisfare la crescente domanda di LLM come GPT-3. Ma proprio come il Razr, l’accesso ai modelli più avanzati è limitato a piattaforme cloud specifiche. Mentre i clienti chiedono a gran voce capacità AI generative, i fornitori di cloud si stanno affrettando a implementare LLM e a promuovere l’adozione delle loro piattaforme. Proprio come il Razr ha potenziato Cingular, l’accesso esclusivo a LLM ambiti potrebbe dare a certi fornitori cloud un vantaggio e modificare la classifica dell’infrastruttura cloud. Questo articolo esplora come i principali fornitori di cloud stanno navigando nella corsa all’oro dell’AI e utilizzando l’esclusività a loro vantaggio.

PC Magazine: # 4 Companies Control 67% of the World’s Cloud Infrastructure

Amazon Web Services: L’approccio del coltellino svizzero

Con la vasta gamma di offerte di infrastruttura cloud e la scala senza rivali, Amazon Web Services (AWS) si è affermato come il giocatore dominante nel settore. Tuttavia, la rapida crescita dei grandi modelli di linguaggio (LLM) come GPT-3 rappresenta una nuova sfida per il gigante tecnologico.

Senza un LLM interno altrettanto famoso, AWS rischia di perdere terreno rispetto ai concorrenti che si affrettano a lanciare i propri modelli sul mercato. Quindi, invece di cercare di competere modello per modello, AWS ha adottato una strategia diversa: consentire l’accesso a quante più modelli possibile tramite partnership e collaborazioni.

Entra in scena Amazon Bedrock, lanciato nell’aprile 2023. Bedrock serve come piattaforma per gli sviluppatori per accedere e combinare le capacità di un’ampia gamma di LLM, sia vecchi che nuovi. Questo include nomi ben noti come il conversazionale Claude 2 di Anthropic, il generatore di codice Jurassic-2 di AI21 Labs, i modelli multipurpose Command e Embed di Cohere e lo strumento di sintesi delle immagini Stable Diffusion di Stability.ai.

Al posto di scommettere su un singolo modello, AWS si sta posizionando come il coltellino svizzero dei LLM, concedendo agli sviluppatori la flessibilità di combinare le migliori caratteristiche di una vasta gamma di modelli.

E AWS non sta certo con le mani in mano sul fronte LLM. Sebbene i dettagli siano ancora scarsi, sta sviluppando il proprio LLM di casa, Titan. Ma la forza di AWS è sempre stata la sua piattaforma, non l’IA proprietaria. Riducendo l’attrito per accedere e implementare LLM, AWS punta a far sì che gli sviluppatori rimangano fedeli a ciò che conoscono.

Google Cloud: L’approccio del giardino murato

Come peso massimo nella ricerca sull’IA, Google era perfettamente posizionato per capitalizzare sull’esplosione dei grandi modelli di linguaggio (LLM). E nel 2021 hanno presentato LaMDA, un LLM che può competere con le capacità di GPT-3.

L’accesso ai modelli di intelligenza artificiale di Google è fornito tramite Model Garden, un servizio gestito sulla piattaforma Google Cloud (GCP). Model Garden fornisce modelli di base pronti per l’impresa, modelli specifici per compiti e API per avviare i flussi di lavoro. Questi includono l’uso diretto dei modelli, l’ottimizzazione nel Generative AI Studio o il loro deployment su un notebook.

A partire da agosto 2023, Model Garden include modelli sviluppati internamente come il conversational LaMDA, il generatore di testo-immagine Imagen e lo strumento di autocompletamento del codice Codey. Google ha anche modelli open-source come BERT, T5, ViT ed EfficientNet per un facile deployment su GCP.

Ma Google non limita Model Garden esclusivamente alla propria intelligenza artificiale. Modelli di terze parti vengono già aggiunti, segnalando l’intenzione di Google di essere il punto di riferimento per le esigenze di intelligenza artificiale. Tuttavia, è improbabile che i concorrenti offrano i loro modelli più avanzati. La domanda chiave è quale provider fornirà la licenza dei propri modelli per la disponibilità su GCP.

Iscriviti ora

Microsoft Azure: Scommessa sull’esclusività di OpenAI

Microsoft ha fatto una scommessa precoce e consistente sui grandi modelli di linguaggio (LLMs) che sta pagando profumatamente. Nel 2019, prima che molti comprendessero il potenziale sorprendente dei LLM, Microsoft ha investito un miliardo di dollari in OpenAI, l’azienda produttrice di GPT-3.

Questo investimento lungimirante ha garantito a Microsoft l’accesso esclusivo ai LLM di OpenAI in rapido sviluppo, inclusa una versione migliorata di GPT-4 e il generatore di immagini DALL-E. Con OpenAI che domina i titoli dell’intelligenza artificiale, Microsoft sta sfruttando il suo accesso esclusivo per attirare clienti sulla sua piattaforma cloud Azure. E sta funzionando, poiché Azure sta gradualmente erodendo la dominanza di AWS nella quota di mercato del cloud.

Tuttavia, Microsoft non ha messo tutte le uova nel cestino di OpenAI. Di recente ha stretto una partnership con Meta per lanciare LLaMA, un LLM open-source. Ciò consente a Microsoft di diversificare il suo portfolio di LLM al di là di OpenAI, coprendosi nel caso in cui un nuovo modello usurpi GPT-3 come re della collina.

Gli altri: Approcci diversi per ottenere trazione con i LLM

Le principali piattaforme cloud come AWS, Microsoft Azure e Google Cloud vantano modelli di intelligenza artificiale proprietari molto interessanti per attirare clienti aziendali. Le piccole aziende di cloud che non dispongono di modelli interni eccezionali stanno adottando invece un approccio flessibile “BYOM” (Bring Your Own Model). Invece di cercare di sviluppare modelli unici, consentono ai clienti di integrare modelli di terze parti o personalizzati nei flussi di lavoro.

Il servizio watsonx di IBM è un esempio di questa strategia. Offre una piattaforma MLOps per costruire e allenare modelli di intelligenza artificiale su misura per esigenze specifiche. Watson X consente l’integrazione senza soluzione di continuità con repository open-source come Hugging Face per coloro che desiderano modelli predefiniti. Ciò consente ai clienti di accedere a una vasta gamma di modelli pre-costruiti.

Anche Salesforce combina la ricerca e sviluppo interna con la flessibilità esterna. Il suo team di ricerca sull’intelligenza artificiale ha sviluppato gradualmente offerte proprietarie come CodeGen, XGen e CodeT5+. Ma il cloud di Salesforce supporta anche nativamente i modelli dei partner provenienti da fornitori come Anthropic e Cohere. Questo impedisce il blocco del cliente e fornisce accesso a intelligenza artificiale di terze parti leader.

Oracle punta su Cohere. Ha partecipato all’ultimo round di finanziamento di Cohere (insieme a Nvidia e Salesforce). I clienti di Oracle avranno accesso al LLM di Cohere tramite Oracle Cloud Infrastructure. Cohere, dal canto suo, rimane indipendente dal cloud, collaborando con diversi fornitori di cloud.

Le nuove aziende di intelligenza artificiale

Oltre ai principali fornitori di infrastrutture cloud, ci sono anche aziende specializzate in analisi dei dati e intelligenza artificiale che stanno facendo mosse. Invece di competere direttamente con i grandi attori, puntano a colmare le lacune e fornire capacità complementari.

Snowflake consente ai clienti di accedere a una serie di LLM di terze parti dal suo Snowflake Marketplace. Sta anche sviluppando il proprio modello chiamato DocumentAI per l’estrazione di informazioni. Al contrario di essere un negozio di modelli “tutto in uno”, Snowflake si concentra sulle sue capacità principali – l’integrazione dei dati – mentre collabora nell’ambito dell’intelligenza artificiale.

Databricks ha acquisito MosaicML per la sua piattaforma MLOps aziendale progettata per costruire, distribuire e monitorare modelli di apprendimento automatico. MosaicML ha anche sviluppato il cutting-edge LLM open-source MPT-30B. Con strumenti di ingegneria e ML, Databricks consente ai clienti di creare soluzioni di intelligenza artificiale altamente personalizzate potenziate dalle sue collaborazioni.

Credito: Matthew Yohe

La battaglia per il dominio dell’AI aziendale è ancora nelle sue fasi iniziali e imprevedibili. Mentre i fornitori di servizi cloud di peso come AWS, Azure e GCP vantano oggi l’accesso esclusivo a modelli all’avanguardia come GPT-3 e Codex, i giocatori più piccoli stanno adottando un approccio diverso. Mettendo l’accento sulla flessibilità, la personalizzazione e le partnership, mirano a consentire ai clienti di abbracciare le possibilità dell’AI senza vincoli di fornitore.

È facile farsi assorbire dai punti di forza dei giocatori attualmente in campo. La storia ci mostra come un nuovo entrante possa sconvolgere il tavolo in modi imprevedibili. Proprio come nel 2007, quando Steve Jobs ha svelato l’iPhone mettendo fine al dominio del Razr praticamente da un giorno all’altro.

Una cosa è chiara: è ancora troppo presto per fare una previsione sulla gara.