10 Sessioni imperdibili su modelli di linguaggio che arriveranno a ODSC West 2023

10 Sessioni Imperdibili sui Modelli di Linguaggio che ti aspettano a ODSC West 2023

LLMs e l’IA generativa hanno dominato sia l’industria che la vita quotidiana quest’anno. A ODSC West dal 30 ottobre al 2 novembre, il nostro obiettivo è prepararti alle nuove tecnologie, applicazioni e competenze necessarie introdotte da questo cambiamento. Alla conferenza troverai sessioni di formazione pratiche, workshop e discorsi su LLMs, IA generativa e ingegneria della prompt. Di seguito troverai una selezione delle nostre sessioni confermate.

Personalizzare LLMs con un Feature Store

Jim Dowling | CEO | Hopsworks

In questa sessione ti mostreremo come personalizzare LLMs utilizzando un Feature Store e l’ingegneria delle prompt. Scoprirai come creare un’applicazione LLM personalizzata senza server e gratuita utilizzando Hopsworks, un Feature Store open-source con un database vettoriale integrato, e vedrai come creare modelli per le prompt, come riempire i modelli delle prompt con dati di contesto in tempo reale e come incorporare documenti dai database vettoriali nelle prompt utilizzando una combinazione di input dell’utente e dati utente storici dal Feature Store.

Tecniche di valutazione per Large Language Models

Rajiv Shah, PhD | Ingegnere di apprendimento automatico | Hugging Face

La scelta del LLM giusto per le tue esigenze è diventata sempre più complessa. Durante questo tutorial, imparerai gli strumenti pratici e le migliori pratiche per valutare e scegliere LLMs.

Esplorerai la ricerca esistente sulle capacità dei LLMs rispetto ai modelli di apprendimento automatico tradizionali di piccole dimensioni, nonché diverse tecniche, tra cui suite di valutazione come EleutherAI Harness, approcci di competizione diretta e l’utilizzo di LLMs per valutare altri LLMs. Infine, affronterai i fattori sottili che influenzano la valutazione, tra cui il ruolo delle prompt, la tokenizzazione, i requisiti per l’accuratezza fattuale e il bias e l’etica del modello.

Costruire un Question/Answer Bot esperto con strumenti Open Source e LLMs

Chris Hoge | Responsabile della Community | Heartex

Oltre a una “comprensione” del mondo, i LLMs ereditano dei bias che sono difficili da comprendere o controllare. Questo problema deve essere affrontato quando vengono incorporati nelle applicazioni del mondo reale. Questa sessione esplorerà come Label Studio, LangChain, Chroma e Gradio possono essere utilizzati come strumenti per il miglioramento continuo, in particolare nella costruzione di un sistema di domande e risposte (QA).

Comprendere il panorama dei Large Models

Lukas Biewald | CEO e co-fondatore | Weights & Biases

Partecipa a questa sessione per esplorare l’attuale panorama dei grandi modelli, da GPT-3 a Stable Diffusion. Discuterai anche di come i team di alcuni progetti open-source utilizzino W&B per accelerare il loro lavoro.

Democratizzazione del fine-tuning dei Large Models open-source con Joint Systems Optimization

Kabir Nagrecha | Dottorando | UC San Diego

Questa sessione fornirà una panoramica delle idee fondamentali dietro Saturn, del suo funzionamento a livello tecnico per ridurre i tempi di esecuzione e i costi e del processo di utilizzo di Saturn per il fine-tuning di grandi modelli. Esplorerai come Saturn possa accelerare e ottimizzare i carichi di lavoro dei grandi modelli con poche righe di codice e descriverai alcuni casi d’uso di valore elevato dal mondo industriale e accademico.

Costruire Knowledge Workers alimentati da LLMs sui tuoi dati con LlamaIndex

Jerry Liu | Co-fondatore e CEO | LlamaIndex

I LLM offrono nuovi modi per cercare, interagire e generare nuovi contenuti. In questa sessione, vedrai come LlamaIndex ti permette di costruire sistemi di ricerca e recupero alimentati da LLMs, nonché knowledge workers più automatizzati in grado di interfacciarsi con le tue fonti di dati in modi più sofisticati. In questo workshop, imparerai come costruire sia un semplice QA bot che un agente di flusso di lavoro automatizzato.

Apprendimento autosupervisionato generale ed efficiente con data2vec

Michael Auli | Principal Research Scientist presso FAIR | Direttore presso Meta AI

Questa sessione esplorerà data2vec, un framework per l’apprendimento autosupervisionato generalizzato che utilizza lo stesso metodo di apprendimento per il riconoscimento del linguaggio naturale (NLP), il riconoscimento vocale o la visione artificiale. Invece di prevedere obiettivi modali specifici come parole, token visivi o unità del linguaggio umano che sono locali nella loro natura, data2vec prevede rappresentazioni latenti contestualizzate che contengono informazioni dall’intero input. Gli esperimenti sui principali benchmark del riconoscimento vocale, la classificazione delle immagini e la comprensione del linguaggio naturale dimostrano un nuovo stato dell’arte o un’ottima performance rispetto agli approcci predominanti.

Verso LLM Esplicativi ed Agnostici alla Lingua

Walid S. Saba | Ricercatore Senior | Istituto per l’Intelligenza Artificiale Esperienziale presso la Northeastern University

Per affrontare le sfide della vera comprensione del linguaggio e della mancanza di spiegabilità, la sessione esplorerà la combinazione della forza delle rappresentazioni simboliche con un’efficace ingegnerizzazione inversa dal basso verso l’alto del linguaggio su larga scala. In tal senso, si argomenta a favore dell’ingegnerizzazione inversa dal basso verso l’alto del linguaggio in un contesto simbolico. Suggerimenti su cosa possa comportare questo progetto sono stati suggeriti da diversi autori e discuteremo in dettaglio come questo progetto potrebbe essere realizzato.

Oltre alle Dimostrazioni e ai Prototipi: Come Costruire Applicazioni Pronte per la Produzione Utilizzando LLMs Open-Source

Suhas Pai | Direttore Tecnico | Bedrock AI

Questo workshop esplorerà il panorama dei LLM open-source e fornirà una guida pratica su come utilizzarli in modo efficace per costruire applicazioni pronte per la produzione. Imparerai come scegliere un LLM che si adatti meglio al tuo compito, esplorare diverse tecniche di sintonizzazione fine che ti consentano di adattare il LLM al tuo dominio di interesse e discutere tecniche per affrontare limitazioni di ragionamento, allucinazioni, pregiudizi e problematiche di equità.

Modelli di Lingua Grandi – Trappole Comuni e Sfide

Nils Reimers | Direttore del Machine Learning | Cohere.ai

Questa sessione introdurrà come i Modelli di Lingua Grandi (LLMs) possono essere collegati ai tuoi dati attraverso la ricerca semantica con un focus sulle molte trappole e sfide. Esplorerai come alcune di esse possono essere risolte, quando si utilizzano le giuste tecnologie, e discuterai delle altre che sono ancora problemi aperti.

Registrati!

Per partecipare a queste e molte altre sessioni guidate da esperti su LLMs, Intelligenza Artificiale Generativa, Apprendimento Automatico, NLP, Apprendimento Profondo, Ingegneria dei Dati e altro ancora, unisciti a noi a ODSC West tra poche settimane. Registrati ora per approfittare dell’offerta scontata del 40%, che termina venerdì.