Direttore delle Insight di Machine Learning [Parte 2 Edizione SaaS]
ML Insight Director [Parte 2 SaaS Edition]
Se tu o il tuo team siete interessati a costruire soluzioni di ML più velocemente, visita oggi hf.co/support!
👋 Benvenuti alla Parte 2 della nostra serie Direttore delle Insight di Machine Learning. Dai un’occhiata alla Parte 1 qui.
I Direttori di Machine Learning hanno un posto unico al tavolo dell’IA, coprendo la prospettiva di vari ruoli e responsabilità . La loro ricca conoscenza dei framework di ML, dell’ingegneria, dell’architettura, delle applicazioni reali e della risoluzione dei problemi fornisce approfondimenti sullo stato attuale del ML. Ad esempio, un direttore noterà come l’uso della nuova tecnologia di sintesi dei trasformatori abbia ridotto del 30% il tasso di errore del suo team e come un pensiero semplice possa aiutare a risparmiare molta potenza di calcolo.
Vi siete mai chiesti cosa pensano attualmente i direttori di Salesforce o ZoomInfo sullo stato del Machine Learning? Quali sono le loro sfide più grandi? E di cosa sono più entusiasti? Beh, state per scoprirlo!
- Gradio 3.0 è disponibile!
- Annuncio del Programma di Borse di Studio Hugging Face
- Esperti di Machine Learning – Sasha Luccioni
In questa seconda parte incentrata sul SaaS, ascolterete un autore di un libro di apprendimento profondo per la sanità che ha anche fondato un’organizzazione no-profit per il mentoring dei talenti di ML, un esperto di sicurezza informatica appassionato di scacchi, un imprenditore il cui business è stato ispirato dalla necessità di Barbie di monitorare la reputazione del marchio dopo un richiamo, e un autore di brevetti e articoli accademici esperto che ama osservare i suoi 4 figli commettere gli stessi errori dei suoi modelli di ML.
🚀 Incontriamo alcuni dei migliori direttori di Machine Learning nel settore SaaS e sentiamo cosa hanno da dire sul Machine Learning:
Omar Rahman – Direttore di Machine Learning presso Salesforce
Sfondo: Omar guida un team di ingegneri di Machine Learning e Data nell’utilizzo di ML per scopi di sicurezza difensiva come parte del team di sicurezza informatica. In precedenza, Omar ha guidato team di data science e machine learning engineering presso Adobe e SAP, concentrandosi sull’introduzione di capacità intelligenti nelle applicazioni di marketing cloud e procurement. Omar ha una laurea magistrale in Ingegneria Elettrica presso l’Arizona State University.
Aneddoto divertente: Omar adora giocare a scacchi e dedica il suo tempo libero a guidare e mentorare studenti universitari in AI.
Salesforce: Il software di gestione delle relazioni con i clienti numero 1 al mondo.
1. In che modo ML ha avuto un impatto positivo sul SaaS?
ML ha beneficiato le offerte SaaS in molti modi.
a. Miglioramento dell’automazione all’interno delle applicazioni: Ad esempio, un router di ticket di servizio che utilizza NLP (Natural Language Processing) per comprendere il contesto della richiesta di servizio e instradarla al team appropriato all’interno dell’organizzazione.
b. Riduzione della complessità del codice: I sistemi basati su regole tendono a diventare ingestibili man mano che vengono aggiunte nuove regole, aumentando così i costi di manutenzione. Ad esempio, un sistema di traduzione del linguaggio basato su ML è più preciso e robusto con molte meno righe di codice rispetto ai sistemi basati su regole precedenti.
c. Miglior previsione dei risultati per risparmiare costi. Essere in grado di prevedere in modo più accurato aiuta a ridurre gli ordini in arretrato nella supply chain e a risparmiare costi grazie a una riduzione dei costi di stoccaggio.
2. Quali sono le principali sfide di ML nel SaaS?
a. La creazione di applicazioni ML richiede molto più che avere un modello. Riuscire a sfruttare il modello per fornire risultati, rilevare e adattarsi ai cambiamenti nelle statistiche dei dati, ecc. comporta un notevole onere nella distribuzione e nella manutenzione dei sistemi di ML.
b. Nella maggior parte delle grandi organizzazioni, i dati sono spesso isolati e non ben mantenuti, il che comporta un tempo significativo impiegato nella consolidazione dei dati, nelle attività di pre-elaborazione e pulizia dei dati, ecc., con conseguente necessità di un notevole impegno di tempo e sforzo per creare applicazioni basate su ML.
3. Qual è un errore comune che vedi persone commettere cercando di integrare l’ML nel SaaS?
Non concentrarsi abbastanza sul contesto aziendale e sul problema che si sta risolvendo, ma cercare di utilizzare gli algoritmi più recenti e le librerie appena pubblicate in open source. Molto può essere ottenuto con semplici tecniche tradizionali di ML.
4. Cosa ti entusiasma di più per il futuro dell’ML?
Le capacità di intelligenza artificiale generalizzata, se costruite e gestite bene, hanno la capacità di trasformare l’umanità in modi che non si possono immaginare. Spero che vedremo grandi progressi nel settore della sanità e dei trasporti. Già ora vediamo i benefici dell’IA in radiologia, che comporta un notevole risparmio di manodopera consentendo agli esseri umani di concentrarsi su compiti più complessi. Le auto e i camion a guida autonoma stanno già trasformando il settore dei trasporti.
Cao (Danica) Xiao – Direttore Senior di Machine Learning in Amplitude
Sfondo: Cao (Danica) Xiao è il Direttore Senior e Responsabile della Scienza dei Dati e del Machine Learning presso Amplitude. Il suo team si concentra sullo sviluppo e l’implementazione di modelli e prodotti di machine learning self-serving basati su dati utente multi-sorgente per risolvere sfide aziendali critiche riguardanti l’analisi e l’ottimizzazione della produzione digitale. Inoltre, è una ricercatrice appassionata di machine learning con oltre 95+ articoli pubblicati in importanti conferenze di informatica. È anche una leader tecnologica con un’ampia esperienza nella creazione di piani strategici di machine learning, nella costruzione di team e nella formazione.
Prima di Amplitude, Cao (Danica) è stata Responsabile Globale del Machine Learning nel Analytics Center of Excellence di IQVIA. Prima di ciò, è stata membro del personale di ricerca presso IBM Research e responsabile di ricerca presso il MIT-IBM Watson AI Lab. Ha conseguito il suo dottorato in machine learning presso l’Università di Washington, Seattle. Recentemente, ha anche co-scritto un libro di testo sul deep learning per il settore sanitario e ha fondato un’organizzazione non profit per la formazione di talenti nel campo del machine learning.
Dato curioso: Cao ama i gatti ed è mamma di due gatti: una femmina Singapura e un maschio British shorthair.
Amplitude: Una piattaforma di analisi di prodotto basata su cloud che aiuta i clienti a costruire prodotti migliori.
1. Come ML ha avuto un impatto positivo su SaaS?
ML gioca un ruolo rivoluzionario nel trasformare grandi quantità di dati generati da macchine o utenti, e rumorosi, in risposte a domande aziendali di ogni tipo, tra cui personalizzazione, previsione, raccomandazione, ecc. Ha un impatto su una vasta gamma di settori industriali tramite SaaS.
2. Quali sono le sfide più grandi di ML all’interno di SaaS?
Mancanza di dati per l’addestramento dei modelli di ML che coprano un’ampia gamma di casi d’uso aziendali. Nonostante sia una soluzione generale per tutti i settori industriali, è ancora necessario capire come gestire le esigenze specifiche di settore derivanti da problemi aziendali o di cambiamento di dominio che influiscono sulla qualità del modello di ML.
3. Qual è l’errore più comune che vedi le persone commettere nel tentativo di integrare ML in un prodotto SaaS?
Non dare agli utenti la flessibilità di incorporare le loro conoscenze aziendali o altri fattori umani che sono fondamentali per il successo aziendale. Ad esempio, per una raccomandazione di prodotto self-serve, sarebbe fantastico se gli utenti potessero controllare la diversità dei prodotti consigliati.
4. Cosa ti eccita di più del futuro di ML?
ML ha ottenuto un enorme successo. Si evolve rapidamente anche per affrontare le attuali limitazioni (ad esempio, mancanza di dati, cambiamento di dominio, incorporazione di conoscenze di dominio).
Saranno applicate sempre più tecnologie di ML per risolvere le esigenze aziendali o dei clienti. Ad esempio, ML interpretabile per consentire agli utenti di comprendere e fidarsi delle previsioni del modello di ML; previsione controfattuale per consentire agli utenti di stimare l’esito alternativo nel caso in cui prendano una decisione aziendale diversa.
Raphael Cohen – Direttore del Machine Learning in ZoomInfo
Sfondo: Raphael ha un dottorato di ricerca nel campo della comprensione dei record sanitari e della genetica, ha scritto 20 articoli accademici e ha 8 brevetti. Raphael è anche un leader in Data Science e Ricerca con una formazione in NLP, Speech, sanità , vendite, customer journey e IT.
Dato curioso: Raphael ha 4 figli e si diverte a vederli imparare e commettere gli stessi errori di alcuni dei suoi modelli di ML.
ZoomInfo: Tecnologia intelligente per vendite e marketing supportata dal database aziendale più completo al mondo.
1. Come ML ha avuto un impatto positivo su SaaS
Il Machine Learning ha facilitato la trascrizione dei dati conversazionali per aiutare le persone a scoprire nuove intuizioni e comprensioni. Ora le persone possono facilmente visualizzare ciò di cui hanno parlato, gli obiettivi riassunti, i takeaway, chi ha parlato di più, chi ha fatto le migliori domande, quali sono i prossimi passi e altro ancora. Questo è estremamente utile per molte interazioni come email e videoconferenze (che sono più comuni che mai).
Con Chorus.ai trascriviamo le conversazioni mentre vengono registrate in tempo reale. Utilizziamo un algoritmo chiamato Wave2Vec per farlo. 🤗 Hugging Face ha recentemente rilasciato la propria versione di Wave2Vec creata per l’addestramento, da cui abbiamo tratto molto valore. Questa nuova generazione di tecnologia di elaborazione del linguaggio basata su trasformatori è incredibilmente potente, ha ridotto il nostro tasso di errore del 30%.
Una volta trascritta una conversazione, possiamo analizzarne il contenuto – qui entra in gioco l’NLP e ci affidiamo pesantemente a Hugging Face Transformers per consentirci di identificare circa 20 categorie di argomenti all’interno delle registrazioni e delle email; ad esempio, stiamo parlando di prezzo, firma di un contratto, prossimi passi, tutti questi argomenti vengono inviati tramite email o discussi ed è facile estrarre queste informazioni senza dover rivedere tutte le conversazioni.
Questo aiuta le persone a svolgere molto meglio il proprio lavoro.
2. Quali sono le principali sfide di ML all’interno di SaaS?
La sfida più grande è capire quando utilizzare l’ML.
Quali problemi possiamo risolvere con l’ML e quali non dovremmo? Molte volte otteniamo una svolta con un modello di ML, ma un modello euristico computazionalmente più leggero è più adatto per risolvere il problema che abbiamo.
Qui entra in gioco una solida strategia di IA. – Capire come desideri che funzioni il tuo prodotto finale e con quale efficienza.
Abbiamo anche la questione di come far entrare i modelli di ML che hai costruito in produzione con un impatto ambientale/computazionale ridotto? Tutti stanno lottando con questo; come mantenere i modelli in produzione in modo efficiente senza consumare troppe risorse.
Un ottimo esempio di questo è stato quando ci siamo spostati sul framework Wav2Vec, che ci ha obbligato a scomporre il nostro audio conversazionale in segmenti di 15 secondi che vengono alimentati in questo enorme modello. Durante questo processo, abbiamo scoperto che stavamo alimentando il modello con molti segmenti di silenzio. Questo è comune quando qualcuno non si presenta o una persona sta aspettando che un’altra si unisca a una riunione.
Aggiungendo semplicemente un altro modello molto leggero per dirci quando non inviare i segmenti di silenzio a questo grande e complicato modello di ML, siamo in grado di risparmiare molta potenza computazionale/energia. Questo è un esempio di come gli ingegneri possono pensare a modi più facili per velocizzare e risparmiare nella produzione del modello. C’è un’opportunità per che gli ingegneri siano più astuti e ottimizzino meglio i modelli senza consumare troppe risorse.
3. Qual è un errore comune che vedi che le persone commettono cercando di integrare l’ML in SaaS?
La mia soluzione è la soluzione più intelligente? Esiste un modo migliore per scomporlo e risolverlo in modo più efficiente?
Quando abbiamo iniziato a identificare gli interlocutori, abbiamo utilizzato direttamente un metodo di ML e questo non era altrettanto accurato dei dati forniti dal provider di videoconferenza.
Da allora abbiamo imparato che il modo migliore per farlo è iniziare con i metadati di chi parla forniti dal provider della conferenza e sovrapporli a un modello di incorporamento intelligente. Abbiamo perso tempo prezioso durante questa curva di apprendimento. Non avremmo dovuto utilizzare questa grande soluzione di ML se avessimo capito che ci sono altre fonti di dati in cui dovremmo investire che ci aiuteranno ad accelerare in modo più efficiente.
Pensate in modo creativo e non prendete solo qualcosa che qualcuno ha costruito e credete che avete un’idea su come migliorarlo. Dove possiamo essere più intelligenti capendo meglio il problema?
4. Cosa ti entusiasma di più riguardo al futuro dell’ML?
Credo che ci troviamo nel bel mezzo di un’altra rivoluzione. Per noi, vedere il nostro tasso di errore diminuire del 30% grazie al nostro modello Wave2Vec è stato sorprendente. Avevamo lavorato per anni ottenendo solo cali dell’1% alla volta e poi in soli 3 mesi abbiamo visto un miglioramento così enorme e sappiamo che è solo l’inizio. Nell’ambito accademico, stanno accadendo cose più grandi e intelligenti. Questi modelli pre-addestrati ci consentono di fare cose che non avremmo mai potuto immaginare prima. Questo è molto emozionante!
Stiamo anche vedendo molta tecnologia di NLP entrare in altri settori come il parlato e la visione e riuscire a potenziarli.
Un’altra cosa che mi entusiasma molto è la generazione di modelli! Abbiamo lavorato di recente con un’azienda chiamata Bria.ai e utilizzano questi incredibili GAN per creare immagini. Quindi si prende una foto di stock e la si può trasformare in un’altra foto dicendo “rimuovi gli occhiali”, “aggiungi gli occhiali” o “aggiungi capelli” e lo fa perfettamente. L’idea è che possiamo usare questo per generare dati. Possiamo prendere immagini di persone in riunioni che non sorridono e possiamo farle sorridere per costruire un dataset per la rilevazione del sorriso. Questo sarà trasformativo. Puoi prendere 1 immagine e trasformarla in 100 immagini. Questo si applicherà anche alla generazione di parlato, che potrebbe essere un’applicazione potente nel settore dei servizi.
Altri pensieri finali?
–È una sfida mettere in produzione i modelli. Credo che i team di data science abbiano bisogno di ingegneri che lavorino con loro. Gli ingegneri dovrebbero far parte del team di intelligenza artificiale. Questo sarà un importante cambiamento strutturale in futuro.
Martin Ostrovsky Founder/CEO & Direttore di Machine Learning presso Repustate Inc.
Background: Martin è appassionato di intelligenza artificiale, machine learning e NLP, ed è responsabile di guidare la strategia e il successo di tutti i prodotti di Repustate, guidando il team interfunzionale responsabile dello sviluppo e del miglioramento dei prodotti. Lui stabilisce la strategia, la roadmap e la definizione delle funzionalità per l’API di analisi del testo globale di Repustate, l’analisi del sentiment, la ricerca approfondita e le soluzioni di riconoscimento delle entità nominate. Ha una laurea in informatica presso l’Università di York e ha conseguito il suo Master in Business Administration presso la Schulich School of Business.
Fatto divertente: La prima applicazione di machine learning che ho utilizzato riguardava i giocattoli Barbie. Il mio professore alla Schulich Business School ha menzionato che Barbie aveva bisogno di monitorare la reputazione del loro marchio a causa di un richiamo dei giocattoli per preoccupazioni legate a un’eccessiva presenza di piombo. Assumere persone per analizzare manualmente ogni post sui social media e ogni articolo online sembrava inefficiente e inefficace. Così ho proposto di creare un algoritmo di machine learning che monitorasse ciò che le persone pensavano di loro attraverso tutti i canali dei social media e online. L’algoritmo ha funzionato senza problemi. Ed è così che ho deciso di chiamare la mia azienda, Repustate – lo “stato” della tua “repu”tazione. 🤖
Repustate: Un importante fornitore di servizi di analisi del testo per aziende.
1. Applicazione di machine learning preferita per l’ambito aziendale?
La mia applicazione di machine learning preferita è la sicurezza informatica.
La sicurezza informatica rimane la parte più critica per qualsiasi azienda (governativa o non governativa) per quanto riguarda i dati. Il machine learning aiuta a identificare le minacce informatiche, combattere i crimini informatici, inclusi il cyberbullismo, e consente una risposta più rapida alle violazioni della sicurezza. Gli algoritmi di machine learning analizzano rapidamente le vulnerabilità più probabili e le potenziali applicazioni di malware e spyware in base ai dati degli utenti. Possono individuare distorsioni nei modelli di accesso ai punti finali e identificarli come una possibile violazione dei dati.
2. Qual è la tua più grande sfida nel machine learning?
La più grande sfida di machine learning è la trascrizione audio in testo nella lingua araba. Ci sono diversi sistemi che possono decifrare l’arabo, ma mancano di precisione. L’arabo è la lingua ufficiale di 26 paesi ed è parlata da 247 milioni di persone come madrelingua e da 29 milioni di persone non madrelingua. È una lingua complessa con un ricco vocabolario e molti dialetti.
Lo strumento di sentiment mining deve leggere direttamente dati in arabo se si desiderano informazioni accurate dal testo in arabo, perché altrimenti le sfumature vengono perse nelle traduzioni. Tradurre il testo in inglese o in qualsiasi altra lingua può cambiare completamente il significato delle parole in arabo, compresa anche la radice delle parole. Ecco perché l’algoritmo deve essere addestrato su dataset in arabo e utilizzare un tagger dedicato alle parti del discorso in arabo. A causa di queste sfide, la maggior parte delle aziende non è in grado di fornire una traduzione accurata dell’audio in testo in arabo fino ad oggi.
3. Qual è l’errore più comune che vedi quando le persone cercano di integrare il machine learning?
L’errore più comune che le aziende commettono nel tentativo di integrare il machine learning è la mancanza di dati sufficienti nei loro set di dati di addestramento. La maggior parte dei modelli di machine learning non riesce a distinguere tra dati buoni e dati insufficienti. Pertanto, i set di dati di addestramento vengono considerati rilevanti e utilizzati come precedenti per determinare i risultati nella maggior parte dei casi. Questa sfida non è limitata alle piccole imprese o alle aziende di dimensioni VoAGI; anche le grandi imprese hanno la stessa sfida.
Indipendentemente dai processi di machine learning, le aziende devono assicurarsi che i set di dati di addestramento siano affidabili ed esaustivi per il risultato desiderato, incorporando un elemento umano nelle prime fasi del machine learning.
Tuttavia, le aziende possono creare le basi necessarie per progetti di machine learning di successo con una revisione approfondita dei dati di addestramento accurati, completi e costanti.
4. Dove vedi il machine learning avrà il maggior impatto nei prossimi 5-10 anni?
Negli prossimi 5-10 anni, il machine learning avrà il maggior impatto nella trasformazione del settore sanitario.
Ospedali in rete e cure connesse:
Con la cura predittiva, i centri di comando sono pronti ad analizzare i dati clinici e di posizione per monitorare l’offerta e la domanda nelle reti sanitarie in tempo reale. Con l’AI, gli operatori sanitari saranno in grado di individuare più rapidamente ed efficientemente i pazienti ad alto rischio, rimuovendo così i colli di bottiglia nel sistema. È possibile controllare più rapidamente la diffusione delle malattie contrattibili, adottare misure migliori per gestire le epidemie, identificare in modo più accurato i pazienti a rischio, soprattutto per le malattie genetiche, e altro ancora.
Migliori esperienze per il personale e i pazienti:
Le reti sanitarie predittive sono destinate a ridurre i tempi di attesa, migliorare i flussi di lavoro del personale e affrontare il crescente onere amministrativo. Apprendendo da ogni paziente, diagnosi e procedura, l’AI è destinata a creare esperienze che si adattano sia al personale ospedaliero che al paziente. Ciò migliora i risultati sanitari e riduce la carenza di medici e il burnout, consentendo al sistema di essere finanziariamente sostenibile.
🤗 Grazie per averci accompagnato in questo secondo episodio di ML Director Insights. Restate sintonizzati per ulteriori approfondimenti da parte dei direttori di ML nei settori finanziario, sanitario e dell’e-Commerce.
Un grande ringraziamento a Omar Rahman, Cao (Danica) Xiao, Raphael Cohen e Martin Ostrovsky per i loro brillanti contributi e la loro partecipazione a questo pezzo. Non vediamo l’ora di seguire i vostri successi continui e vi inciteremo ad ogni passo. 🎉
Se tu o il tuo team siete interessati ad accelerare la vostra roadmap di AI con Hugging Face Experts, visitate hf.co/support per saperne di più.