Generative AI con ampi modelli di linguaggio formazione pratica

Generative AI con modelli di linguaggio ampi e formazione pratica

 

Introduzione

 

I modelli di lingua di grandi dimensioni (LLM) come GPT-4 stanno rapidamente trasformando il mondo e il campo della scienza dei dati. Negli ultimi anni, le capacità che un tempo sembravano fantascienza stanno diventando realtà attraverso i LLM. 

Il Generative AI con Large Language Models: Hands-On Training ti introdurrà alle scoperte di deep learning che alimentano questa rivoluzione, con un focus sulle architetture dei transformer. Inoltre, avrai l’opportunità di sperimentare direttamente l’incredibile gamma di capacità offerte dai più recenti LLM come GPT-4.

Imparerai come i LLM stanno cambiando radicalmente il gioco nello sviluppo di modelli di machine learning e prodotti dati commercialmente di successo. Vedrai di persona come possono accelerare le capacità creative dei data scientist mentre li spingono a diventare sofisticati gestori di prodotti dati.

Attraverso dimostrazioni pratiche di codice che utilizzano Hugging Face e PyTorch Lightning, questa formazione coprirà l’intero ciclo di vita del lavoro con i LLM. Dalle tecniche di addestramento efficienti alla distribuzione ottimizzata in produzione, imparerai competenze direttamente applicabili per sbloccare il potere dei LLM.

Al termine di questa sessione ricca di azione, avrai sia una comprensione di base dei LLM che un’esperienza pratica nell’utilizzo di GPT-4.

 

 

Piani di Formazione

 

La formazione è composta da 4 moduli brevi che ti introducono ai Large Language Models e ti insegnano a addestrare il tuo proprio grande modello di lingua e a distribuirlo sul server. Oltre a ciò, imparerai il valore commerciale che deriva dai LLM.

 

1. Introduzione ai Large Language Models (LLMs)

 

  • Una breve storia dell’elaborazione del linguaggio naturale
  • I transformer
  • Tokenizzazione di sottostringhe
  • Modelli autoregressivi vs. modelli di autoencoding
  • ELMo, BERT e T5
  • La famiglia GPT (Generative Pre-trained Transformer)
  • Aree di applicazione dei LLM

 

2. L’ampiezza delle capacità dei LLM

 

  • LLM Playgrounds
  • Lo straordinario progresso della famiglia GPT
  • Aggiornamenti chiave con GPT-4
  • Chiamate alle API di OpenAI, inclusa GPT-4

 

3. Addestramento e distribuzione dei LLM

 

  • Accelerazione hardware (CPU, GPU, TPU, IPU, chip AWS)
  • La libreria Hugging Face Transformers
  • Best practice per l’addestramento efficiente dei LLM
  • Parameter-efficient fine-tuning (PEFT) con adattamento a basso rango (LoRA)
  • LLM pre-addestrati open-source
  • Addestramento di LLM con PyTorch Lightning
  • Addestramento multi-GPU
  • Considerazioni sulla distribuzione dei LLM
  • Monitoraggio dei LLM in produzione

 

4. Ottenere valore commerciale dai LLM

 

  • Supporto dell’apprendimento automatico con i LLM
  • Attività automatizzabili
  • Attività che possono essere potenziate
  • Best practice per team e progetti di IA di successo
  • Cosa ci riserva il futuro dell’IA

 

Risorse

 

La formazione include link a risorse esterne come codice sorgente, diapositive di presentazione e un notebook di Google Colab. Queste risorse rendono interattiva e utile la formazione per ingegneri e data scientist che stanno implementando l’IA generativa nel loro ambiente di lavoro.

   

Ecco un elenco di risorse essenziali necessarie per costruire e distribuire il proprio modello LLM utilizzando Huggingface e Pytorch Lighting:

  • Diapositive di presentazione
  • Codice sorgente su GitHub
  • Google Colab (T5-Finetune)
  • Video su Youtube
  • Jon Krohn (Sito Web Ufficiale)

 

Scopri il segreto del successo in soli 2 ore! Non aspettare oltre!

    Abid Ali Awan (@1abidaliawan) è un professionista certificato nel campo della scienza dei dati che ama costruire modelli di apprendimento automatico. Attualmente si dedica alla creazione di contenuti e alla scrittura di blog tecnici sulle tecnologie di apprendimento automatico e data science. Abid ha una laurea magistrale in Tecnologia Management e una laurea triennale in Ingegneria delle Telecomunicazioni. La sua visione è quella di costruire un prodotto di intelligenza artificiale utilizzando una rete neurale a grafo per gli studenti che lottano con disturbi mentali.