Le funzionalità AI di SaaS incontrano le applicazioni senza fossati

La potenza dell' IA nell'integrazione di SaaS con applicazioni senza soluzioni intermedie

Diverse società SaaS aziendali hanno annunciato recentemente funzionalità generative di AI, che rappresentano una minaccia diretta per le startup di AI che mancano di un vantaggio competitivo sostenibile

Nel mese di luglio, abbiamo approfondito le startup di AI generativa provenienti dal lotto W23 di Y Combinator – in particolare, le startup che sfruttano grandi modelli di linguaggio (LLM) come GPT, che alimenta ChatGPT. Abbiamo identificato alcune grandi tendenze con queste startup, come il focus su problemi e clienti molto specifici (ad esempio, contenuti di marketing per le PMI), integrazioni con software esistenti (ad esempio, con piattaforme CRM come Salesforce), capacità di personalizzare grandi modelli di linguaggio per contesti specifici (ad esempio, la voce del marchio della tua azienda).

Una parte secondaria, non molto enfatizzata dell’articolo riguardava i rischi della fossa – citando da allora:

Un rischio fondamentale per diverse di queste startup è la possibile mancanza di una fossa a lungo termine. È difficile leggerci molto date le fasi di queste startup e le limitate informazioni pubbliche disponibili, ma non è difficile trovare lacune nella loro difensibilità a lungo termine. Ad esempio:

Se una startup si basa sulla premessa di: prendere i LLM di base (grandi modelli di linguaggio) come GPT, costruire integrazioni nel software di assistenza per comprendere la base di conoscenza e lo stile di scrittura, per poi generare bozze di risposte, cosa impedisce a un gigante del software di assistenza (pensa a Zendesk, Salesforce) di copiare questa funzione e renderla disponibile come parte del loro pacchetto di prodotti?

Se una startup sta creando un’interfaccia innovativa per un editor di testo che aiuta a generare contenuti, cosa impedisce a Google Docs (che sta già sperimentando auto-drafting) e Microsoft Word (che sta già sperimentando i tools Copilot) di copiarlo? Un passo ulteriore, cosa impedisce loro di fornire un prodotto peggiore del 25% e darlo gratuitamente all’interno di un pacchetto di prodotti esistente (ad esempio, Microsoft Teams che prende il posto di Slack nel mercato)?

Questo è esattamente ciò che si è verificato negli ultimi mesi. Diverse grandi aziende SaaS enterprise hanno annunciato e/o lanciato i loro prodotti di AI generativa: Slack, Salesforce, Dropbox, Microsoft e Google per citarne alcuni. Questa è una minaccia diretta per le startup di AI generativa che stanno costruendo applicazioni di produttività utili per clienti aziendali, ma che hanno un vantaggio competitivo limitato e sostenibile (cioè senza fossa protettiva). In questo articolo, approfondiremo:

  • Riepilogo della catena del valore dell’AI
  • Recenti funzionalità AI delle società SaaS aziendali
  • Come le startup possono creare fossati in questo contesto

Riepilogo della catena del valore dell’AI

Non passeremo molto tempo su questo, ma come rapido promemoria, un modo per pensare a come le aziende possono trarre valore dall’AI è attraverso il concetto della catena del valore dell’AI. In particolare, è possibile suddividere la catena del valore in tre livelli:

  • Infrastruttura (ad esempio, NVIDIA che produce chip per eseguire applicazioni di AI, Amazon AWS fornisce il cloud computing per l’AI, Open AI fornisce grandi modelli di linguaggio come GPT per la creazione di prodotti)
  • Platform (ad esempio, Snowflake fornisce una soluzione basata su cloud per gestire tutte le tue esigenze di dati in un unico luogo, dall’ingestione alla pulizia fino all’elaborazione)
  • Applicazioni (ad esempio, una startup che crea un prodotto che aiuta le PMI a creare rapidamente contenuti di marketing)
Catena del valore dell'AI; Fonte: autore

Anche se l’onda dell’AI generativa è iniziata con il lancio di ChatGPT di OpenAI, che è alimentato dal modello GPT (livello infrastrutturale), sta diventando sempre più chiaro che il livello infrastrutturale sta diventando una merce comune, con diversi grandi attori che entrano nel mercato con i propri LLM, tra cui Facebook (LLaMA), Google (LaMDA), Anthropic per citarne alcuni. La commoizzazione è spiegata dal fatto che la maggior parte di questi modelli viene allenata utilizzando lo stesso corpus di dati disponibili pubblicamente (come CommonCrawl che analizza i siti in tutto Internet e Wikipedia).

Oltre a questo pool di dati, ogni grande azienda che possiede un ampio corpus di dati di prima parte sta o proteggendo i propri dati per se stessa o creando modelli di licenza, il che significa che questi dati saranno o non disponibili o disponibili a ogni fornitore di modelli per l’addestramento, cioè la commoditizzazione. Questa è una storia simile a quella che si è svolta nel mercato del cloud computing dove Amazon AWS, Microsoft Azure e Google Cloud ora possiedono una grande parte del mercato ma competono aggressivamente tra di loro.

Anche se il livello della piattaforma è un po’ meno commoditizzato e probabilmente ci sono spazi per più player che soddisfino una varietà di esigenze dei clienti (ad es. startup vs PMI vs clienti aziendali), sta andando nella direzione della commoditizzazione e i grandi player stanno iniziando a potenziare le loro offerte (ad es. Snowflake, una piattaforma di data warehousing che ha recentemente acquisito Neeva per applicare LLMs alle aziende, Databricks, una piattaforma di analisi che ha acquisito MosaicML per alimentare l’AI generativa per i loro clienti).

Di conseguenza, la maggior parte del valore dell’IA verrà generata a livello di applicazione. La domanda aperta, tuttavia, è quale aziende probabilmente beneficeranno delle applicazioni sviluppate dai grandi modelli di linguaggio (come GPT). Non sorprendentemente, su 269 startup nel gruppo W23 di Y Combinator, ~31% ha dichiarato di essere un’azienda di intelligenza artificiale. Mentre le applicazioni sono tutte oggettivamente utili e sbloccano valore per i loro clienti, soprattutto nel mondo delle imprese SaaS, sta diventando sempre più chiaro che le aziende Saas esistenti sono in una posizione molto migliore per trarre vantaggio dall’IA.

Ultime funzionalità di AI delle aziende Saas aziendali

Sono state annunciate numerose novità dalle aziende Saas nelle ultime settimane. Vediamone alcune.

Inizialmente, Slack ha iniziato supportando il bot ChatGPT per funzionare all’interno del tuo spazio di lavoro Slack, sia per riassumere discussioni che per aiutare a redigere risposte. Questo è stato rapidamente ampliato per supportare il bot Claude (Claude è l’equivalente di Anthropic del modello GPT). Più importantemente, Slack ha annunciato la propria AI generativa costruita nativamente nell’app, che supporta una vasta gamma di capacità di riassunto nelle discussioni e nei canali (ad es. dimmi cosa è successo in questo canale oggi, dimmi cos’è il progetto X). Ciò che avrebbe potuto essere un plugin sviluppato da startup è ora una funzionalità nativa sviluppata da Slack, perché Slack può facilmente prendere modelli come GPT direttamente dallo scaffale e costruire una funzionalità di IA generativa. Ciò non è particolarmente difficile da fare e inoltre evita a Slack la seccatura di gestire integrazioni / esperienze utente confusionarie da plugin sconosciuti.

Un altro annuncio è venuto da Salesforce. Il loro prodotto Einstein GPT è posizionato come AI generativa per il loro CRM. Consentirà agli utenti di Salesforce di interrogare una vasta gamma di informazioni (ad esempio, chi sono i miei migliori contatti in questo momento), generare e iterare automaticamente le bozze delle e-mail e persino creare flussi di lavoro automatizzati basati su queste interrogazioni. È probabile che la funzionalità sembri migliore negli screenshot di quanto non sia in realtà, ma è possibile che Salesforce possa sviluppare un prodotto abbastanza fluido in un anno di tempo. Questa, infatti, è esattamente la funzionalità che sta venendo sviluppata da alcune delle startup di IA generativa oggi. Mentre utili nel breve termine, il successo di queste startup dipende non solo dal fatto di essere migliori di Einstein GPT, ma di essere così migliori da spingere un acquirente di Saas aziendale ad accettare le difficoltà di integrazione di un nuovo prodotto (non nominerò le startup nella mia critica perché costruire prodotti da zero è difficile e scrivere critiche è più facile).

In una vena simile, Dropbox ha annunciato Dropbox Dash, che si colloca come una ricerca universale potenziata dall’IA. Supporta una vasta gamma di funzionalità, tra cui risposte a domande dai documenti memorizzati su Dropbox, riassunto di contenuti nei documenti e risposta a domande specifiche sul contenuto di un documento (ad esempio: quando scade questo contratto?). Anche in questo caso, oggi ci sono startup di IA generativa che stanno essenzialmente costruendo queste funzionalità pezzo per pezzo, e Dropbox ha una strada più facile per il successo a lungo termine, considerando che già ha accesso ai dati necessari e la capacità di creare un’interfaccia fluida all’interno del loro prodotto.

La lista continua:

  • Zoom ha annunciato Zoom AI, che fornisce riassunti delle riunioni, risponde alle domande durante le riunioni se hai perso qualcosa e vuoi recuperare, e riassume le conversazioni nella chat. Oggi diverse startup stanno sviluppando queste funzioni come prodotti separati (ad esempio, strumenti per prendere appunti).
  • Microsoft 365 Copilot leggerà le tue email non lette e le riassumerà, risponderà alle domande riguardanti i documenti e stilerà documenti, tra le altre cose. Queste funzionalità verranno integrate in modo fluido anche nelle interfacce di prodotti come Word, Excel, OneNote e OneDrive.
  • Google ha un prodotto equivalente chiamato Duet AI per la loro suite di produttività.
  • Anche OpenAI (anche se non è una società SaaS dominante) ha lanciato ChatGPT enterprise che può essere integrato in tutti gli strumenti di un’azienda e fornire risposte immediate a qualsiasi domanda da parte di un dipendente.

Non sto certo affermando che la battaglia è finita. Se hai utilizzato finora prodotti di intelligenza artificiale generativa, ci sono momenti di stupore ma anche momenti di delusione. Le promesse dei prodotti sopra citati sono accattivanti, ma la maggior parte di essi è ancora in fase di sperimentazione o sono annunci di nuove funzionalità future.

Ci sono anche diversi problemi irrisolti che limitano l’adozione di questi prodotti. Le tariffe variano notevolmente, con alcuni prodotti che offrono funzioni di intelligenza artificiale gratuitamente per competere, mentre altri prodotti più ampi richiedono una tariffa per utente. Microsoft 365 Copilot ha un prezzo di $30/utente/mese e ChatGPT enterprise è intorno a $20/utente/mese — pur sembrando accettabili per un consumatore, molte aziende potrebbero considerare questi prezzi ridicoli su larga scala, soprattutto considerando che i costi si accumulano rapidamente per migliaia di dipendenti. La condivisione dei dati è un altro ostacolo importante, dato che le aziende sono riluttanti a condividere dati sensibili con modelli linguistici (nonostante le offerte di intelligenza artificiale aziendali dichiarino esplicitamente che non utilizzeranno i dati dei clienti per scopi di addestramento).

Tuttavia, questi sono problemi risolvibili, e la determinazione con cui le grandi aziende SaaS stanno sviluppando funzioni di intelligenza artificiale significa che queste sfide verranno superate nel breve termine. Questo ci riporta al problema della barriera difensiva — le startup di intelligenza artificiale generativa che si rivolgono ai clienti aziendali devono creare solide barriere se vogliono continuare a prosperare di fronte alle funzionalità di intelligenza artificiale delle aziende SaaS consolidate.

Come le startup possono creare barriere difensive in quest’ambiente

Cominciamo con quelle ovvie non barriere difensive: prendere un grande modello di linguaggio e costruire una piccola proposta di valore sopra di esso (ad esempio, una migliore interfaccia utente, collegarsi a una singola fonte di dati) non crea un vantaggio a lungo termine e sostenibile. Queste sono abbastanza facili da imitare e, anche se avete un vantaggio da primi sul mercato, finirete per perdere contro una grande azienda consolidata (che ha un accesso più facile ai dati o una maggiore flessibilità nelle interfacce) o affonderete in una guerra di prezzi al ribasso.

Ecco alcuni approcci non esaustivi per creare una barriera difensiva per i prodotti di intelligenza artificiale aziendale.

1. Specializzazione di dominio/verticale

Alcuni ambiti/verticali si prestano più di altri allo sviluppo di applicazioni di intelligenza artificiale. Ad esempio, costruire sopra un software CRM (Customer Relationship Management) è molto difficile da difendere perché le aziende di CRM come Salesforce hanno sia le connessioni ai dati che il controllo sulle interfacce per farlo meglio. Potreste ideare innovazioni davvero intelligenti (ad esempio, creare un plugin LinkedIn per la stesura automatica di email di contatto utilizzando i dati del CRM), ma gli innovatori o i primi nel mercato non vincono sempre.

Un esempio di settore verticale in cui le startup di intelligenza artificiale potrebbero brillare è quello legale. I documenti legali sono lunghi, richiedono un’immensa quantità di ore uomo per la lettura e il processo è frustrante per tutti i soggetti coinvolti. Riassumere/analizzare contratti, rispondere a domande riguardanti il contenuto dei contratti, riassumere argomentazioni legali, estrarre prove dai documenti sono tutte attività che richiedono molto tempo e potrebbero essere svolte in modo efficiente dalle LLM (Large Language Models). Casetext, Harvey.ai sono un paio di startup che hanno prodotti di copilota rivolti agli avvocati e hanno creato esperienze personalizzate appositamente per i casi d’uso legali.

Un altro settore che ha un disperato bisogno di efficienza nell’assistenza sanitaria. Ci sono diverse sfide nel implementare l’intelligenza artificiale nell’assistenza sanitaria, tra cui la privacy / sensibilità dei dati, la complessa rete di software (ERP, strumenti di pianificazione, ecc.) con cui lavorare e la mancanza di profondità tecnica / agilità tra le grandi aziende che producono prodotti per l’assistenza sanitaria. Queste sono chiare opportunità per le startup di lanciare rapidamente prodotti e utilizzare la posizione pioniere come fosso di protezione.

2. Effetti dati / network

I modelli di apprendimento automatico (compresi i grandi modelli di linguaggio) funzionano meglio quanto più dati hanno a disposizione per il training. Questa è una delle principali ragioni per cui, ad esempio, la ricerca di Google è il motore di ricerca più performante al mondo – non perché Google ha indicizzato tutte le pagine del mondo (lo fanno anche altri motori di ricerca), ma perché miliardi di persone utilizzano il prodotto e ogni interazione dell’utente è un dato che alimenta il modello di rilevanza della ricerca.

La sfida con i prodotti aziendali, tuttavia, è che i clienti aziendali vietano esplicitamente ai fornitori di software SaaS o IA di utilizzare i loro dati per il training (e giustamente). Le aziende hanno molte informazioni sensibili, dai dati dei clienti ai dati sulla strategia aziendale, e non vogliono che questi dati vengano alimentati nei grandi modelli di linguaggio di OpenAI o Google.

Pertanto, è difficile creare un fosso di protezione attorno a questo aspetto, ma può essere possibile in determinati scenari. Ad esempio, i contenuti generati da strumenti di intelligenza artificiale per scopi pubblicitari o di marketing sono meno sensibili e le aziende sono più propense a consentire l’utilizzo di questi dati per migliorare i modelli (e di conseguenza le loro future prestazioni). Un altro approccio è avere una versione non aziendale del proprio prodotto in cui i dati di utilizzo vengono ottati per il training per impostazione predefinita: singoli utenti e utenti di piccole e medie imprese sono più propensi ad accettare questo approccio.

3. Portare in diversi flussi di dati

La parte più difficile nell’applicare grandi modelli di linguaggio a un caso d’uso aziendale specifico non è selezionare un modello dallo scaffale e implementarlo, ma costruire i flussi necessari per canalizzare l’insieme di dati rilevanti dell’azienda a cui il modello può accedere.

Diciamo che sei un’azienda di grandi dimensioni come Intuit che vende software di contabilità e fiscale alle PMI. Supporti decine di migliaia di clienti PMI e, quando uno di loro ti contatta con una domanda di supporto, desideri fornire loro una risposta personalizzata. Molto probabilmente, i dati su quali prodotti utilizza questo cliente si trovano in un database interno, i dati sulle sue ultime interazioni con i prodotti si trovano in un altro database e la sua cronologia delle domande di supporto è presente in un prodotto SaaS per il supporto clienti. Un approccio per le startup di IA generative per costruire un fosso di protezione consiste nell’identificare casi d’uso specifici che richiedono l’utilizzo di più flussi di dati non di proprietà di un unico grande incumbente SaaS e nel creare le integrazioni per canalizzare questi dati.

Ciò ha funzionato incredibilmente bene in altri contesti, ad esempio tutto il mercato delle Piattaforme Dati Cliente è emerso dalla necessità di raccogliere dati da diverse fonti per avere una visione centralizzata sui clienti.

4. Silo di dati

Le grandi aziende non vogliono esporre dati sensibili ai modelli, soprattutto modelli di aziende concorrenti o con troppa leva sul mercato (cioè aziende con le quali le aziende sono costrette a condividere dati a causa della mancanza di alternative).

Dall’articolo YC W23, CodeComplete è un ottimo esempio di un’azienda che è emersa da questo punto di dolore:

L’idea per CodeComplete è emersa quando i suoi fondatori hanno cercato di utilizzare GitHub Copilot mentre erano a Meta e la loro richiesta è stata respinta internamente per motivi legati alla privacy dei dati. CodeComplete è ora uno strumento di assistenza alla programmazione con intelligenza artificiale che viene tarato per il codice dei propri clienti per offrire suggerimenti più pertinenti, e i modelli sono implementati direttamente in loco o nel cloud dei clienti stessi.

5. Costruire un prodotto completo

Per tutte le ragioni sopra esposte, personalmente sono scettico che la maggior parte delle applicazioni di IA autonome abbiano il potenziale di diventare aziende con fosso di protezione a lungo termine, in particolare quelle che si rivolgono ai clienti aziendali. Essere i primi sul mercato è sicuramente un vantaggio e potrebbe essere un buon percorso per un’acquisizione rapida, ma l’unico vero modo per costruire un solido fosso di protezione è quello di costruire un prodotto completo.

Un’azienda che si concentra solo sulla scrittura automatica di testi per il marketing sarà sempre a rischio di essere competuta da un’azienda di marketing più grande, come un marketing cloud o uno strumento di generazione creativa di una piattaforma come Google/Meta. Un’azienda che costruisce uno strato di IA sopra un CRM o uno strumento di supporto clienti molto probabilmente sarà imitata da un’azienda incumbente SaaS.

Il modo per risolvere questo problema è creare un prodotto più completo. Ad esempio, se l’obiettivo è consentire una migliore creazione di contenuti per il marketing, un prodotto più completo sarebbe una piattaforma che risolve i problemi principali degli utenti (ad esempio, il tempo necessario per creare contenuti, la necessità di creare contenuti in diverse dimensioni) e include un set di funzioni potenti di intelligenza artificiale generativa (ad esempio, generare la migliore immagine per Instagram).

Conclusione

Sono entusiasta dell’enorme produttività che l’intelligenza artificiale generativa può sbloccare. Sebbene personalmente non abbia ancora avuto un forte aumento significativo di produttività, credo che accadrà rapidamente nel medio termine. Dato che gli strati di infrastruttura e piattaforma stanno diventando ragionevolmente standardizzati, il valore maggiormente generato dalla produttività alimentata dall’IA sarà catturato dai prodotti a livello di applicazione. In particolare, nel settore dei prodotti enterprise, penso che una grande quantità di valore sarà catturata dalle aziende SaaS preesistenti, ma sono ottimista che emergeranno nuovi prodotti più completi con un set di funzionalità all’avanguardia nell’IA e, di conseguenza, una solida posizione di vantaggio.

🚀 Se ti è piaciuto questo articolo, prendi in considerazione l’iscrizione alla mia newsletter settimanale Unpacked. Ogni settimana pubblico un’analisi approfondita su un argomento tecnologico attuale o una strategia di prodotto, in forma di lettura di 10 minuti. Cordiali saluti, Viggy.

Unpacked | Viggy Balagopalakrishnan | Substack

Approfondimenti sulla tecnologia o strategie di prodotto nella tua casella di posta ogni settimana. Clicca per leggere Unpacked, di Viggy…

thisisunpacked.substack.com