Direttore delle informazioni sull’apprendimento automatico [Parte 4]

'Direttore delle informazioni sull'apprendimento automatico [Pt. 4]'

Se sei interessato a costruire soluzioni di ML più velocemente, visita: hf.co/support oggi stesso!

👋 Bentornato alla nostra serie del Direttore degli Insight di ML! Se ti sei perso le edizioni precedenti, puoi trovarle qui:

  • Direttore degli Insight di Machine Learning [Parte 1]
  • Direttore degli Insight di Machine Learning [Parte 2: Edizione SaaS]
  • Direttore degli Insight di Machine Learning [Parte 3: Edizione Finanza]

🚀 In questo quarto capitolo, ascolterai cosa dicono i seguenti Direttori di Machine Learning sull’impatto del Machine Learning nelle rispettive industrie: Javier Mansilla, Shaun Gittens, Samuel Franklin ed Evan Castle. – Tutti sono attualmente Direttori di Machine Learning con una ricca esperienza nel campo.

Disclaimer: Tutte le opinioni sono di singoli individui e non di alcun datore di lavoro passato o attuale.

Javier Mansilla – Direttore di Machine Learning, Marketing Science presso Mercado Libre

Sfondo: Esperto imprenditore e leader, Javier è stato co-fondatore e CTO di Machinalis, un’azienda di alto livello che sviluppa Machine Learning dal 2010 (sì, prima della rivoluzione delle reti neurali). Quando Machinalis è stata acquisita da Mercado Libre, quel piccolo team si è evoluto per consentire il Machine Learning come capacità per un gigante tecnologico con più di 10.000 sviluppatori, influenzando la vita di quasi 100 milioni di utenti diretti. Quotidianamente, Javier guida non solo il percorso tecnologico e produttivo della loro piattaforma di Machine Learning (NASDAQ MELI), ma anche il sistema di monitoraggio degli utenti, il framework di AB Testing e l’ufficio open-source. Javier è un membro attivo e contributore dell’organizzazione no-profit PyAr in Argentina, ama passare del tempo con la famiglia e gli amici, il linguaggio di programmazione Python, andare in bicicletta, il calcio, la falegnameria e le vacanze tranquille nella natura!

Curiosità: Amo leggere fantascienza e la mia idea di pensione include riprendere il sogno adolescenziale di scrivere racconti brevi.📚

Mercado Libre: La più grande azienda in America Latina e la soluzione onnipresente di e-commerce e fintech per il continente

1. In che modo il ML ha avuto un impatto positivo sull’e-commerce?

Direi che il ML ha reso possibile l’impossibile in casi specifici come la prevenzione delle frodi e l’ottimizzazione dei processi e dei flussi in modi che non avremmo potuto immaginare nella maggior parte delle altre aree.

Nel mezzo, ci sono applicazioni in cui il ML ha permesso un livello successivo di UX che altrimenti sarebbe stato molto costoso (ma forse possibile). Ad esempio, la scoperta e la casualità aggiunte al percorso degli utenti nella navigazione tra le liste e le offerte.

Abbiamo eseguito ricerche, raccomandazioni, annunci, valutazioni del credito, moderazioni, previsioni di vari aspetti chiave, logistica e molte altre unità centrali utilizzando il Machine Learning per ottimizzare almeno una delle sue metriche fondamentali.

Utilizziamo persino il ML per ottimizzare il modo in cui riserviamo e utilizziamo l’infrastruttura.

2. Quali sono le principali sfide di ML nell’e-commerce?

Oltre a tutte le sfide tecniche che ci attendono (ad esempio, un’assoluta personalizzazione nel tempo reale), la sfida più grande è la costante attenzione all’utente finale.

L’e-commerce sta aumentando la sua quota di mercato anno dopo anno e il Machine Learning è sempre un approccio probabilistico che non fornisce una perfezione al 100%. Dobbiamo fare attenzione a continuare ad ottimizzare i nostri prodotti pur prestando attenzione alla long tail e all’esperienza di ogni singola persona.

Infine, una sfida crescente ̬ quella di coordinare e favorire la coesistenza dei dati (input e output) in un mondo multi-canale e multi-business Рmarketplace, logistica, crediti, assicurazioni, pagamenti nei negozi fisici, ecc.

3. Un errore comune che vedi fare alle persone che cercano di integrare ML nell’e-commerce?

Gli errori più comuni sono legati all’utilizzo di strumenti sbagliati per il problema sbagliato.

Ad esempio, iniziare con soluzioni complesse invece di partire dalla soluzione di base più semplice possibile. Ad esempio, non misurare l’impatto con/senza l’utilizzo del Machine Learning. Ad esempio, investire in tecnologia senza avere un chiaro concetto dei limiti del guadagno atteso.

Ultimo ma non meno importante: pensare solo al breve termine, dimenticando gli impatti nascosti, i debiti tecnici, la manutenzione, ecc.

4. Cosa ti emoziona di più riguardo al futuro del ML?

Parlando dal punto di vista di chi si trova in trincea a creare tecnologia con le proprie mani, come facevamo dieci anni fa, ciò che mi piace di più è vedere che come settore stiamo risolvendo la maggior parte dei pezzi lenti, ripetitivi e noiosi della sfida.

È ovviamente un obiettivo in continua evoluzione, e sorgono nuove difficoltà. Ma stiamo migliorando nell’incorporare strumenti e pratiche mature che porteranno a cicli più brevi di costruzione dei modelli che, alla fine della giornata, riducono il tempo di commercializzazione.

Shaun Gittens – Direttore di Machine Learning presso MasterPeace Solutions

Background: Il Dr. Shaun Gittens è il Direttore della Capacità di Machine Learning di MasterPeace Solutions, Ltd., un’azienda specializzata nella fornitura di tecnologie avanzate e servizi critici per la sicurezza informatica ai propri clienti. In questo ruolo, si occupa di:

  1. Sviluppare il nucleo di esperti e professionisti di machine learning all’interno dell’azienda.
  2. Aumentare la conoscenza delle pratiche di machine learning all’avanguardia tra i dipendenti esistenti.
  3. Garantire la fornitura di soluzioni efficaci di machine learning e supporto consulenziale non solo ai clienti dell’azienda, ma anche alle startup attualmente all’interno di MasterPeace. Prima di entrare a far parte di MasterPeace, il Dr. Gittens ha lavorato come Principal Data Scientist per l’Applied Technology Group, LLC. Ha costruito la sua carriera formando e implementando soluzioni di machine learning su piattaforme di big data distribuito e streaming come Apache Hadoop, Apache Spark e Apache Storm. Come borsista post-dottorato presso l’Auburn University, ha studiato metodi efficaci per visualizzare le conoscenze acquisite dai modelli di machine learning non lineari.

Curiosità: Dipendente dal tennis e grande appassionato di anime. 🎾

MasterPeace Solutions: MasterPeace Solutions si è affermata come una delle aziende di tecnologia avanzata in più rapida crescita nella regione del Mid-Atlantic. L’azienda progetta e sviluppa software, sistemi, soluzioni e prodotti per risolvere alcune delle sfide più urgenti che affronta la comunità dell’intelligence.

1. In che modo ML ha avuto un impatto positivo sull’ingegneria?

L’ingegneria è vasta nelle sue applicazioni e può comprendere molte aree diverse. Detto questo, più di recente, stiamo vedendo il ML influenzare una serie di aspetti dell’ingegneria, affrontando campi ovvi come la robotica e l’ingegneria automobilistica fino a campi meno ovvi come l’ingegneria chimica e civile. Il ML è così ampio nelle sue applicazioni che la sola esistenza di dati di addestramento costituiti da processi di lavoro precedenti registrati è tutto ciò che serve per tentare di far sì che il ML influenzi il tuo margine di profitto. In sostanza, ci troviamo in un’epoca in cui il ML ha avuto un impatto significativo sull’automazione di tutti i tipi di processi di ingegneria che in passato erano gestiti solo dagli esseri umani.

2. Quali sono le sfide più importanti del ML nell’ambito dell’ingegneria?

  1. Le sfide più importanti riguardano l’operazionalizzazione e l’implementazione delle soluzioni addestrate tramite ML in modo tale che le operazioni umane possano essere sostituite con conseguenze minime. Lo stiamo vedendo adesso con le automobili completamente autonome. È difficile automatizzare processi senza temere di mettere a rischio esseri umani o processi di cui gli esseri umani si affidano. Uno degli esempi più significativi di questo fenomeno che mi preoccupa è il ML e il pregiudizio. È una realtà che i modelli di ML addestrati su dati contenenti, anche se inconsapevoli, decisioni pregiudiziali possono riprodurre tale pregiudizio in fase di esecuzione. Il pregiudizio deve essere messo al centro del tentativo di incorporare il ML nell’ingegneria in modo che il razzismo sistematico non venga propagato nei futuri progressi tecnologici causando danni alle popolazioni svantaggiate. I sistemi di ML addestrati su dati provenienti da processi pregiudiziali sono destinati a ripetere tali processi, soprattutto se coloro che addestrano le soluzioni di ML non sono consapevoli di tutte le forme di dati presenti nel processo da automatizzare.
  2. Un’altra sfida fondamentale riguardante il ML nell’ingegneria è che il campo è principalmente caratterizzato dalla necessità di risolvere problemi, il che richiede spesso creatività. Al momento, esistono pochi casi concreti di agenti di ML che siano veramente “creativi” e capaci di “pensare fuori dagli schemi”, poiché le attuali soluzioni di ML tendono a risultare semplicemente da una ricerca tra tutte le possibili soluzioni. Secondo il mio modesto parere, anche se molte soluzioni possono essere trovate tramite questi metodi, il ML avrà un certo limite nell’ingegneria finché non sarà in grado di dimostrare in modo coerente la creatività in una varietà di spazi problemi. Detto ciò, questo limite è ancora piuttosto alto e c’è ancora molto da realizzare nelle applicazioni di ML nell’ingegneria.

3. Qual è un errore comune che vedi fare alle persone quando cercano di integrare l’IA nell’Ingegneria?

Un errore comune che vedo fare alle persone quando cercano di integrare l’IA nell’Ingegneria è utilizzare una tecnica di IA troppo potente su un piccolo set di dati di problema. L’Apprendimento Profondo, ad esempio, sta spingendo l’IA e l’IA a nuove altezze inimmaginabili in un così breve periodo, ma potrebbe non essere il metodo migliore per risolvere un problema, a seconda dello spazio del problema. Spesso, metodi più semplici funzionano altrettanto bene o meglio quando si lavora con piccoli set di dati di addestramento su hardware limitato.

Inoltre, un altro errore che vedo è non impostare una struttura di CI/CD (integrazione continua / distribuzione continua) efficace per la soluzione di IA. Molto spesso, un modello addestrato una volta non è sufficiente non solo perché i dati cambiano nel tempo, ma anche perché le risorse e il personale cambiano. L’esperto di IA di oggi deve:

  1. assicurare un flusso coerente di dati mentre cambiano e continuamente addestrare nuovi modelli per mantenerlo preciso e utile,
  2. assicurarsi che la struttura sia in grado di consentire la sostituzione senza soluzione di continuità dei modelli più vecchi con i modelli appena addestrati,
  3. consentire una minima interruzione al consumatore degli output del modello di IA.

4. Cosa ti entusiasma di più del futuro dell’IA?

Il futuro dell’IA continua ad essere entusiasmante e sembra che ogni mese ci siano progressi riportati nel campo che ancora oggi stupiscono gli esperti. Man mano che 1) le tecniche di IA migliorano e diventano accessibili sia a praticanti esperti che a principianti, 2) l’hardware di tutti i giorni diventa più veloce, 3) il consumo energetico diventa meno problematico per i dispositivi edge miniaturizzati e 4) le limitazioni di memoria diminuiscono nel tempo, il futuro dell’IA nell’Ingegneria sarà brillante per gli anni a venire.

Samuel Franklin – Senior Director di Data Science e ML Engineering presso Pluralsight

Sfondo: Samuel è un leader senior di Data Science e ML Engineering presso Pluralsight con un dottorato in scienze cognitive. Guida team talentuosi di Data Scientist e ML Engineer che costruiscono servizi intelligenti che alimentano la piattaforma Skills di Pluralsight.

Al di fuori dell’ufficio virtuale, il dottor Franklin tiene seminari di Data Science e Machine Learning presso l’Università di Emory. È anche presidente del Consiglio di Amministrazione della Atlanta Humane Society.

Dato Divertente: Vivo in una baita in cima a una montagna nella catena degli Appalachi.

Pluralsight: Siamo un’azienda di sviluppo della forza lavoro tecnologica e la nostra piattaforma Skills è utilizzata dal 70% delle Fortune 500 per aiutare i loro dipendenti a sviluppare competenze tecniche fondamentali per il business.

1. In che modo l’IA ha avuto un impatto positivo sull’educazione?

I contenuti educativi online e on-demand hanno reso l’apprendimento permanente più accessibile che mai per miliardi di persone in tutto il mondo. Decenni di ricerca cognitiva mostrano che la rilevanza, il formato e la sequenza dei contenuti educativi influiscono significativamente sul successo degli studenti. I progressi nella ricerca profonda e negli algoritmi di ricerca e raccomandazione dei contenuti hanno notevolmente migliorato la nostra capacità di creare percorsi di apprendimento personalizzati ed efficienti su larga scala che possono adattarsi alle esigenze individuali degli studenti nel tempo.

2. Quali sono le sfide più grandi dell’IA nell’ambito dell’educazione?

Vedo la tecnologia MLOps come un’area di opportunità chiave per migliorare l’IA in tutti i settori. Lo stato attuale della tecnologia MLOps mi ricorda le guerre di orchestrazione dei contenitori circa nel 2015-16. Ci sono visioni concorrenti per lo stack di addestramento-distribuzione-monitoraggio dell’IA, ognuna evangelizzata da comunità entusiaste e supportate da grandi organizzazioni. Se una visione predominante emergerà alla fine, allora potrebbe seguire un consenso su modelli ingegneristici MLOps, riducendo la complessità decisionale che attualmente crea attriti per i team di IA.

3. Qual è un errore comune che vedi fare alle persone cercando di integrare l’IA in prodotti esistenti?

Ci sono due errori critici che ho visto fare alle organizzazioni di tutte le dimensioni quando iniziano con l’IA. Il primo errore è sottovalutare l’importanza di investire in leader senior con una notevole esperienza pratica di IA. La strategia e la leadership delle operazioni di IA beneficiano di una profondità di competenze tecniche al di là di quanto tipicamente si trova nel dominio BI / Analytics o fornito dai programmi educativi che offrono solo una breve introduzione al campo. Il secondo errore è aspettare troppo a lungo per progettare, testare e implementare pipeline di distribuzione in produzione. Modelli prototipo efficaci possono languire nei repository per mesi, persino anni, in attesa dello sviluppo delle pipeline di IA. Ciò può comportare significativi costi di opportunità per un’organizzazione e frustrare i team di IA fino a aumentare il rischio di attrito.

4. Cosa ti entusiasma di più riguardo al futuro del ML?

Sono entusiasta dell’opportunità di guidare la prossima generazione di leader del ML. La mia carriera è iniziata quando le piattaforme di cloud computing erano appena agli inizi e gli strumenti di ML erano molto meno maturi di quanto lo siano ora. È stato eccitante esplorare diversi modelli di ingegneria per l’esperimentazione e l’implementazione del ML, dato che le migliori pratiche consolidate erano rare. Ma, questa esplorazione includeva anche l’apprendimento di molte lezioni tecniche e di leadership attraverso prove ed errori. Condividere queste lezioni con la prossima generazione di leader del ML li aiuterà a far avanzare il campo più lontano e più velocemente rispetto a quanto abbiamo visto negli ultimi 10+ anni.

Evan Castle – Direttore del ML, Product Marketing, Elastic Stack presso Elastic

Background: Oltre un decennio di esperienza nella leadership nell’intersezione tra data science, prodotto e strategia. Evan ha lavorato in diverse industrie, dalla creazione di modelli di rischio per grandi aziende come Capital One al lancio di prodotti di ML presso Sisense ed Elastic.

Curiosità: Ha incontrato Paul McCarthy. 🎤

MasterPeace Solutions: MasterPeace Solutions è emersa come una delle aziende di tecnologia avanzata in più rapida crescita nella regione del Mid-Atlantic. L’azienda progetta e sviluppa software, sistemi, soluzioni e prodotti per risolvere alcune delle sfide più urgenti che affronta la Community dell’Intelligence.

1. In che modo il ML ha avuto un impatto positivo su SaaS?

Il machine learning è diventato veramente operativo in SaaS, fornendo molteplici utilizzi dalla personalizzazione, alla ricerca semantica e di immagini, alle raccomandazioni, alla rilevazione di anomalie e a molteplici altri scenari aziendali. Il vero impatto è che il ML viene integrato sempre di più nelle applicazioni. Sta diventando una aspettativa e spesso è invisibile per gli utenti finali. Ad esempio, presso Elastic abbiamo investito in ML per la rilevazione di anomalie, ottimizzata per la sicurezza degli endpoint e SIEM. Fornisce una grande potenza di fuoco fin dall’inizio, con una combinazione di diverse tecniche come la decomposizione delle serie temporali, il clustering, l’analisi delle correlazioni e la modellizzazione delle distribuzioni bayesiane. Il grande vantaggio per gli analisti di sicurezza è che la rilevazione delle minacce viene automatizzata in molti modi diversi. Quindi le anomalie vengono rapidamente evidenziate in relazione a deviazioni temporali, posizioni geografiche insolite, rarità statistica e molti altri fattori. Questo è il grande impatto positivo dell’integrazione del ML.

2. Quali sono le sfide più grandi del ML in SaaS?

Per massimizzare i benefici del ML vi è una doppia sfida nel fornire valore agli utenti che sono nuovi al machine learning e anche ai data scientist esperti. C’è ovviamente una grande differenza nelle esigenze di queste due figure. Se una capacità di ML è una scatola nera totale, è probabile che sia troppo rigida o semplice per avere un vero impatto. D’altra parte, se si fornisce solo un toolkit per sviluppatori, è utile solo se si ha un team di data science interno. Trovare il giusto equilibrio significa assicurarsi che il ML sia sufficientemente aperto per consentire al team di data science di avere trasparenza e controllo sui modelli, e allo stesso tempo includere modelli testati sul campo che siano facili da configurare e implementare anche per chi non è un esperto.

3. Qual è un errore comune che vedi le persone fare nel tentativo di integrare il ML in SaaS?

Per farlo correttamente, qualsiasi modello integrato deve funzionare su larga scala, il che significa supportare insiemi di dati enormi garantendo al tempo stesso risultati performanti e accurati. Illustreremo questo con un esempio concreto. C’è stato un aumento di interesse nella ricerca vettoriale. Si possono rappresentare in vettori tutte le tipologie di contenuti, come testo, immagini ed eventi. I vettori possono essere utilizzati per catturare le similarità tra i contenuti e sono ottimi per cose come la rilevanza della ricerca e le raccomandazioni. La sfida consiste nello sviluppare algoritmi che possano confrontare i vettori tenendo conto dei compromessi tra velocità, complessità e costo. Presso Elastic, abbiamo dedicato molto tempo all’analisi e al benchmark delle prestazioni dei modelli per la ricerca vettoriale. Abbiamo optato per un approccio all’algoritmo dei “nearest neighbor” approssimato chiamato Hierarchical Navigable Small World graphs (HNSW), che essenzialmente mappa i vettori in un grafo in base alla loro similarità tra loro. HNSW offre un aumento di ordine di grandezza in velocità e accuratezza in una varietà di benchmark di “nearest neighbor”. Questo è solo un esempio delle decisioni non banali che sempre più team di prodotto e ingegneria devono prendere per integrare con successo il ML nei loro prodotti.

4. Cosa ti entusiasma di più riguardo al futuro dell’ML?

Il machine learning diventerà semplice come ordinare online. I grandi progressi nell’NLP, in particolare, hanno reso l’ML più umano, capace di comprendere contesto, intento e significato. Penso che siamo in un’era di modelli fondamentali che si svilupperanno in molte direzioni interessanti. Da Elastic siamo entusiasti della nostra integrazione con Hugging Face e felici di vedere come i nostri clienti stanno già sfruttando l’NLP per l’osservabilità, la sicurezza e la ricerca.


🤗 Grazie per esserti unito a noi in questa quarta parte degli Approfondimenti del Direttore dell’ML.

Un grande ringraziamento a Javier Mansilla, Shaun Gittens, Samuel Franklin ed Evan Castle per i loro brillanti contributi e la loro partecipazione a questo pezzo. Non vediamo l’ora di vedere il vostro successo continuare e vi sosterremo ad ogni passo. 🎉

Se sei interessato ad accelerare la tua roadmap di ML con Hugging Face Experts, visita hf.co/support per saperne di più.