Tendenze delle startup di intelligenza artificiale Insights dall’ultima selezione di Y Combinator

Tendenze delle startup di intelligenza artificiale Insights da Y Combinator

Quali tipi di aziende vengono costruite sulla base delle ultime tecnologie in AI

Foto di Proxyclick Visitor Management System su Unsplash

Y Combinator (YC), il rinomato acceleratore di startup con sede nella Silicon Valley, ha recentemente annunciato la loro coorte Winter 2023 e, non sorprendentemente, ~31% delle startup ( 80 su 269) hanno dichiarato di utilizzare l’AI . Prendi il numero effettivo con le pinze, ma la tendenza è chiara: le startup che sfruttano l’AI sono ora una parte consistente della coorte YC.

In questo articolo, ho analizzato 20-25 startup di questa coorte per comprendere alcune delle tendenze più ampie, in particolare tra le startup che sfruttano LLM (large language models). Le tendenze riguardano come identificano i problemi da risolvere, quali approcci adottano per le soluzioni, cosa stanno facendo bene e quali potenziali rischi ci sono nel loro approccio.

Ma prima di approfondire le tendenze, partiamo da un quadro generale su come le aziende tecnologiche (piccole o grandi) possono pensare a generare valore dall’AI.

Catena del valore dell’AI

Se hai seguito le notizie tecnologiche di recente, ci sono state molte informazioni sull’AI ed è difficile sempre capire come si inseriscano in un quadro generale. Utilizziamo un quadro semplificato per riflettere su questo.

L’AI è un termine molto ampio che comprende una vasta gamma di tecnologie, dai modelli di regressione in grado di prevedere le cose, alla computer vision in grado di identificare oggetti, fino ai recenti LLM (large language models). Per questa discussione, ci concentreremo sugli LLM che sono stati recentemente al centro dell’attenzione dopo che OpenAI ha aperto ChatGPT al pubblico, dando il via a una corsa all’AI tra le aziende.

Le aziende tecnologiche che sfruttano l’AI operano tipicamente in uno dei tre livelli:

  • Infrastruttura — Questo include fornitori di hardware (ad es. NVIDIA che produce GPU per supportare tutti i calcoli intensivi richiesti dai modelli di AI), fornitori di calcolo (ad es. Amazon AWS, Microsoft Azure, Google Cloud che forniscono potenza di elaborazione nel cloud), modelli/algoritmi di AI (ad es. OpenAI, Anthropic che forniscono LLM) e piattaforme di AI (ad es. TensorFlow che fornisce una piattaforma per addestrare i modelli)
  • Piattaforma dati / strumenti — Questo include piattaforme che consentono di raccogliere, archiviare e elaborare dati per le applicazioni di AI (ad es. Snowflake che fornisce un data warehouse nel cloud, Databricks che fornisce una piattaforma unificata per l’analisi)
  • Livello applicativo — Questo riguarda tutte le aziende (start-up, grandi aziende tecnologiche e aziende non native del settore tecnologico) che sfruttano l’AI per applicazioni specifiche

In base a come si sta sviluppando il mercato e a come si è verificato in situazioni simili in passato (ad es. il mercato del cloud computing), è probabile che l’infrastruttura e il livello delle piattaforme dati convergeranno verso un numero limitato di giocatori con offerte relativamente standardizzate. Ad esempio:

  • Tra i produttori di hardware, NVIDIA è attualmente il leader con le loro offerte di GPU (il loro valore in borsa è triplicato nel 2023) e vedremo chi altro riuscirà a raggiungerli
  • Il mercato del calcolo è già convergente, con AWS, Azure e Google Cloud che detengono due terzi del mercato
  • Nel livello degli algoritmi di AI, OpenAI si è imposto con i modelli GPT, ma è un mercato altamente competitivo con aziende con grandi risorse finanziarie (Google con Deepmind/Google Brain, Facebook Lambda, Anthropic, Stability AI) — se vuoi approfondire, consulta questa analisi. Due cose da notare: i) La maggior parte di queste aziende ha accesso alle stesse basi di dati e se una società ottiene accesso a un nuovo set di dati a pagamento (ad es. Reddit), è probabile che anche i concorrenti ne ottengano accesso, ii) Il modello GPT si trova nel livello degli algoritmi, ma il prodotto ChatGPT si trova nel livello applicativo (non nel livello degli algoritmi).

Dato questo probabile cammino verso la standardizzazione, le aziende che operano in questi livelli hanno due possibili percorsi da seguire:

  1. Il primo percorso consiste nel potenziare le loro offerte per operare su più livelli, come dimostrato dalle recenti attività di fusione e acquisizione — Snowflake (azienda di data warehousing nel livello delle piattaforme dati) ha recentemente acquisito Neeva per rafforzare le sue capacità di ricerca e potenzialmente sbloccare l’applicazione di LLM per le imprese, Databricks (piattaforma di analisi nel livello delle piattaforme dati) ha acquisito MosaicML (nel livello degli algoritmi di AI) per rendere “l’AI generativa accessibile per ogni organizzazione, consentendo loro di costruire, possedere e proteggere modelli di AI generativi con i propri dati”
  2. Il secondo percorso consiste nel passare al livello applicativo — ChatGPT ne è un esempio classico. La forza di OpenAI si trovava nel livello degli algoritmi di AI, ma con il lancio di un prodotto per i consumatori, sono diventati il primo vero concorrente di Google Search in decenni.

La maggior parte del valore futuro sbloccato da AI e LLM sarà a livello di applicazione, compreso il valore generato dalla fondazione di nuove startup, il che ci porta a Y Combinator.

Come funziona Y Combinator (YC)

Breve contesto su YC e poi passeremo alle tendenze. La maggior parte delle aziende YC sono in uno stadio molto precoce – il 52% del gruppo è stato accettato solo con un’idea e il 77% del gruppo non aveva alcun fatturato prima di YC.

YC è piuttosto selettivo (tasso di accettazione <2%), ma lavora principalmente in volume:

  • Hanno investito in più di 300 aziende in due gruppi nel 2023 e più di 600 aziende nel 2022
  • Le aziende ottengono un accordo standard (finanziamento di $125k per il 7% della partecipazione)
  • YC fornisce alle startup molta consulenza oltre ad accesso a una vasta rete di persone, tra cui ex alunni YC, investitori, ecc.
  • Quindi, per avere successo, YC ha solo bisogno di alcuni grandi successi per guadagnare denaro (simile a qualsiasi investimento degli angeli), e diversi alunni sono stati molto di successo

Tutto questo per dire – YC è una buona lista “rappresentativa” di dove si trova il mercato delle startup in fase iniziale e dove si trovano le opportunità per le startup che stanno appena iniziando a sfruttare l’IA. Con questo, affronteremo le grandi tendenze.

1. Concentrarsi su problemi specifici e clienti

Le startup si concentrano su problemi specifici per un insieme specifico di clienti, cioè ci sono meno soluzioni di IA “generiche”.

Un esempio di questo è Yuma.ai, che si concentra sull’assistenza ai commercianti di Shopify che faticano a gestire le richieste e le preoccupazioni dei clienti (puoi vedere una demo qui). Utilizzando grandi modelli di linguaggio (LLM), Yuma.ai automatizza la generazione di risposte da una base di conoscenza. Un’altra startup chiamata Speedy si dedica al supporto di piccole e medie imprese (SMB) che non hanno tempo per creare contenuti di marketing utilizzando l’IA generativa. Haven mira ad automatizzare circa il 50% delle interazioni degli inquilini per i gestori immobiliari. OfOne si rivolge a grandi drive-thru di fast food, aiutandoli ad automatizzare i processi di presa degli ordini e aumentare la redditività.

In tutti questi esempi, c’è un focus unico su un problema e un cliente specifico, e l’applicazione di LLM in quel contesto.

2. Integrazioni con software esistenti

Oltre a prendere semplicemente GPT / LLM e renderli accessibili attraverso un’interfaccia utente, diverse startup vanno oltre integrando con software esistenti che i loro clienti utilizzano già.

Un esempio lampante di ciò è Lightski, che si concentra sull’integrazione con software di gestione delle relazioni con i clienti (CRM) come Salesforce. Il loro obiettivo è consentire ai clienti di aggiornare il loro CRM semplicemente inviando un messaggio in linguaggio naturale tramite Slack, eliminando la necessità di navigare tra livelli di interfacce utente. Yuma.ai offre una funzione di installazione con un solo clic nel software di help desk, combinando la potenza di LLM con la base di conoscenza dei clienti, generando bozze di risposte per gli agenti di servizio.

Queste integrazioni sono stati un grande driver per sbloccare nuovi casi d’uso che le applicazioni LLM “out-of-the-box” come ChatGPT non possono risolvere facilmente.

3. Sfruttare LLM in combinazione con altre tecnologie di IA

Le startup stanno esplorando la creazione di un prodotto differenziato utilizzando altre tecnologie di IA come la visione artificiale e le previsioni in combinazione con LLM.

Un esempio di ciò è Automat, i cui clienti forniscono una dimostrazione video di un processo ripetitivo di Chrome che desiderano automatizzare. Automat utilizza quindi tecniche di visione artificiale applicate alle registrazioni dello schermo, insieme all’ingresso in linguaggio naturale umano per creare le automazioni desiderate. Un’altra startup chiamata Persana AI sfrutta l’integrazione dei dati del CRM e dati pubblicamente disponibili per prevedere potenziali lead caldi per i team di vendita. Poi utilizzano LLM per redigere messaggi personalizzati per ogni lead identificato, utilizzando dati personalizzati disponibili sull’individuo (puoi vedere una demo qui).

L’incorporazione di una combinazione di tecnologie sta aiutando queste startup a creare una barriera e una differenziazione rispetto alle applicazioni LLM generiche.

4. Personalizzazione dei LLM

Molte startup offrono opzioni di personalizzazione basate sui dati passati degli utenti e sullo stile del linguaggio per personalizzare i modelli LLM utilizzati da un cliente.

Ad esempio, Speedy, una piattaforma che aiuta le SMB a generare contenuti di marketing, svolge workshop di branding con i propri clienti. I dati raccolti da questi workshop vengono quindi inseriti nei loro modelli, consentendo a Speedy di catturare e incorporare la voce unica e l’identità del marchio di ciascuna attività nei contenuti generati. Su linee simili, Yuma.ai si concentra sull’apprendimento dello stile di scrittura dai precedenti ticket di assistenza. Analizzando i modelli e il linguaggio utilizzato in queste interazioni, Yuma.ai è in grado di generare bozze di risposte che si allineano allo stile stabilito, garantendo coerenza e personalizzazione nelle comunicazioni con i clienti.

5. Interfacce utente creative

Uno dei leve più sottovalutati che le startup stanno iniziando a utilizzare è la creazione di interfacce utente uniche e utili, che la maggior parte dei prodotti LLM attuali (come chatGPT, Bard) non eccellono. Queste interfacce, quando personalizzate per casi d’uso specifici, possono sbloccare un sacco di nuovo valore per i clienti e attirare più utenti che ancora non hanno adottato i prodotti esistenti a causa della difficoltà d’uso.

Type è un esempio interessante – hanno creato un editor di documenti flessibile e veloce che consente all’utente di accedere rapidamente a potenti comandi AI premendo cmd + k mentre scrivono. L’AI di Type comprende il contesto di un documento e si adatta alle suggerimenti man mano che si scrive di più e apprende il proprio stile (puoi vedere una demo qui).

Alcuni altri esempi interessanti sono l’uso di Slack da parte di Lightski come interfaccia per l’aggiornamento delle informazioni CRM e l’uso delle estensioni di Chrome da parte di Persana AI come modo semplice per fornire accesso alle bozze in uscita mentre si è sulla pagina LinkedIn di una persona.

6. Casi d’uso ad alto volume di informazioni e alta precisione

Ci sono state alcune startup nel gruppo focalizzate su casi d’uso specifici che richiedono sia l’elaborazione di una grande quantità di informazioni che un alto livello di precisione per quanto riguarda le intuizioni scoperte.

SPRX acquisisce direttamente i dati dai sistemi di pagamento e contabilità per calcolare crediti R&D accurati che soddisfano i requisiti dell’IRS.

Nel mondo della sanità, Fairway Health utilizza LLM per portare efficienza a un processo finora piuttosto manuale – l’analisi di lunghi fascicoli medici per valutare se un paziente è idoneo a un particolare trattamento. Ciò ha aiutato le compagnie di assicurazione ad essere più efficienti e a creare un’esperienza meno frustrante per i consumatori (puoi vedere una demo qui).

AiFlow utilizza LLM per estrarre citazioni e dati dall’analisi di centinaia di documenti, al fine di aiutare le società di private equity a svolgere l’analisi di due diligence.

7. Prodotti BYOD con silos di dati per clienti aziendali

A differenza dei consumatori, le aziende vogliono avere il controllo su come i loro dati vengono utilizzati e condivisi con le aziende, compresi i fornitori di software AI. Vogliono operare in un contesto in cui possono utilizzare i propri dati (BYOD) con un prodotto di base e personalizzare il prodotto in un ambiente isolato.

L’idea per CodeComplete è nata quando i loro fondatori hanno cercato di utilizzare GitHub Copilot mentre erano a Meta e la loro richiesta è stata respinta internamente a causa di considerazioni sulla privacy dei dati. CodeComplete è ora uno strumento di assistenza alla codifica AI che viene adattato al codice dei clienti per fornire suggerimenti più pertinenti, e i modelli vengono implementati direttamente in loco o nel cloud dei clienti.

In una vena simile, AlphaWatch AI, un copilota AI per fondi di investimento, aiuta i clienti a utilizzare LLM personalizzati che sfruttano sia fonti di dati esterne che dati privati sicuri.

Rischi del fossato

È sicuramente eccitante vedere un gran numero di startup di intelligenza artificiale emergere, il che aiuta sia i consumatori individuali che le organizzazioni a essere più efficaci. Questi prodotti senza dubbio rappresenteranno un enorme sblocco per la produttività ed efficacia nella risoluzione dei problemi.

Tuttavia, un rischio chiave per diverse di queste startup è la potenziale mancanza di un fossato a lungo termine. È difficile trarne conclusioni definitive date la fase di sviluppo di queste startup e le limitate informazioni pubbliche disponibili, ma non è difficile individuare dei punti deboli nella loro difendibilità a lungo termine. Ad esempio:

  • Se una startup si basa sul presupposto di prendere LLM di base come GPT, creare integrazioni nel software di assistenza per comprendere la base di conoscenza e lo stile di scrittura, e quindi generare risposte provvisorie, cosa impedisce a un gigante del software di assistenza come Zendesk o Salesforce di copiare questa funzionalità e renderla disponibile come parte della loro suite di prodotti?
  • Se una startup sta creando un’interfaccia interessante per un editor di testo che aiuta nella generazione di contenuti, cosa impedisce a Google Docs (che sta già sperimentando la scrittura automatica) e a Microsoft Word (che sta già sperimentando strumenti di copilota) di copiarla? Ancora più in là, cosa impedisce loro di fornire un prodotto inferiore del 25% e regalarlo gratuitamente con una suite di prodotti esistente (ad esempio, Microsoft Teams che prende il posto di Slack nel mercato)?

Le aziende che non hanno un fossato potrebbero comunque avere successo nella loro forma attuale, e la natura di ciò che fanno le rende attraenti come obiettivi di acquisizione, sia come integrazione di funzionalità che dal punto di vista del talento. Tuttavia, la creazione di un fossato sarebbe fondamentale per le startup interessate a trasformare queste prime idee in enormi successi.

Un approccio chiaro consiste nella creazione di un prodotto completo che risolva un problema specifico e che faccia un ampio uso di AI come parte delle sue funzionalità (rispetto a un prodotto basato esclusivamente su AI che è un’aggiunta a un problema esistente).

Ad esempio, Pair AI si concentra sullo spazio dei problemi nell’aiutare i creatori a costruire corsi più coinvolgenti in un formato simile a Tiktok, con alcune funzionalità di intelligenza artificiale come parte della loro offerta (come la conversazione Q&A). KURUKURU sta sviluppando un motore 3D per la creazione di fumetti, e ha alcune funzionalità di intelligenza artificiale per la creazione di personaggi.

Un altro approccio consiste nel potenziare l’offerta di prodotti (passando da una funzionalità di intelligenza artificiale a un prodotto più ampio per lo spazio dei problemi) sfruttando alcune delle tendenze sopra citate insieme tra loro: integrazioni di dati, modelli BYOD, abilitazione di personalizzazioni, combinazione con altre tecnologie di intelligenza artificiale.

È un mercato in rapida evoluzione e siamo ancora lontani dal capire come si svilupperanno queste startup – sarà interessante vedere come si evolveranno nei prossimi anni. E buona fortuna alla YC’s W23 cohort!

Grazie per aver letto! Se ti è piaciuto questo articolo, considera l’iscrizione alla newsletter Unpacked, dove pubblico analisi approfondite settimanali su argomenti tecnologici e commerciali attuali. Puoi anche seguirmi su Twitter @viggybala. Cordiali saluti, Viggy.