Come migliorare l’output di un modello GenAI

Come ottimizzare le prestazioni di un modello GenAI

La Generative AI, risalente agli anni ’50, si è evoluta dai primi sistemi basati su regole a modelli che utilizzano algoritmi di deep learning. Nell’ultimo decennio, i progressi nell’hardware e nel software hanno reso possibile la generazione di contenuti in tempo reale e di alta qualità da parte di modelli di Generative AI su larga scala.

In questo articolo, ti dirò come puoi integrare con successo la Generative AI nei processi di produzione su larga scala all’interno dell’ambiente aziendale. Così, saprai come prepararti per implementare la Generative AI a livello aziendale. Ad esempio, per il servizio clienti, le comunicazioni di marketing, la gestione finanziaria o altre applicazioni aziendali di Generative AI.

Ruolo del machine learning in Generative AI

Nel contesto della Generative AI, gli algoritmi di machine learning strutturano una serie di compiti. Queste sequenze di compiti sono esperimenti continui, che richiedono di preparare le nostre squadre e le nostre aziende per cicli ricorrenti.

Ad esempio, stai insegnando a un modello di linguaggio a fornire risposte. In questo caso, devi stabilire un ciclo, valutare i risultati e iterare come necessario. Qui, userai diverse approcci o “pattern” di risoluzione dei problemi che progrediscono da strategie più semplici a strategie più avanzate per gestire i compiti.

Questo diagramma include diversi cicli e iterazioni. Puoi farvi riferimento e adattarlo alle specifiche esigenze della tua azienda.

Facciamo una panoramica di un ciclo semplice.

Livello 1. Prompt, apprendimento in contesto e chaining

Passaggio 1

Scegli un modello, gli dai un suggerimento, ottieni una risposta, valuti la risposta e ripeti se necessario fino a ottenere l’outcome desiderato.

Il apprendimento in contesto è un approccio all’ingegnerizzazione dei suggerimenti in cui i modelli di linguaggio imparano compiti da pochi esempi di linguaggio naturale e cercano di eseguirli. L’apprendimento in contesto è un nuovo approccio nell’ambito dell’elaborazione del linguaggio naturale (NLP) che ha obiettivi simili all’apprendimento a pochi esempi e consente ai modelli di comprendere il contesto senza un’elaborazione estensiva.

Passaggio 2

Oltre al prompt -> FM -> adattamento -> schema di completamento, spesso abbiamo bisogno di una catena di compiti che comprende l’estrazione dei dati, l’intelligenza artificiale predittiva e i modelli fondamentali di Generative AI. Questo schema segue:

Chain: Estrarre dati/analisi -> Eseguire modello di machine learning predittivo -> Inviare risultato a LLM -> Generare output

Ad esempio, in uno scenario di marketing, puoi iniziare utilizzando SQL con BigQuery per mirare a segmenti specifici di clienti. Successivamente, viene utilizzato un algoritmo di classificazione dell’intelligenza artificiale predittiva per identificare i clienti migliori e inviare questi dati a LLM per generare email personalizzate.

Livello 2. Migliorare il livello precedente

Se non sei ancora soddisfatto delle risposte del modello, puoi provare a ottimizzare il modello fondamentale. Può essere specifico per un dominio, specifico per un settore industriale o creato per formati di output specifici. La sua ottimizzazione rifinisce tutti i parametri su un ampio set di dati di esempi etichettati, il che può richiedere molta potenza di calcolo, ma offre alte prestazioni.

Il fine-tuning dei parametri efficienti (PEFT) può essere un approccio più efficiente dal punto di vista computazionale rispetto all’ottimizzazione tradizionale. PEFT ottimizza solo un sottoinsieme dei parametri del modello, sia attraverso l’adattamento degli adattatori che attraverso l’adattamento con fattorizzazione a basso rango dei grandi modelli di linguaggio.

  • L’adattamento degli adattatori aggiunge un layer specifico del compito addestrato su un piccolo insieme di esempi etichettati, permettendo al modello di apprendere caratteristiche specifiche del compito senza un’ottimizzazione completa dei parametri.
  • LoRA approssima i parametri del modello con una matrice a basso rango utilizzando la fattorizzazione della matrice, ottimizzandola in modo efficiente su un piccolo set di dati di esempi etichettati per apprendere caratteristiche specifiche del compito.

Livello 3. Migliorare il contesto dell’input

Passaggio 1

Per implementare la ricerca semantica di documenti correlati, è necessario dividerli in frasi o paragrafi. È possibile poi trasformarli in embedding utilizzando uno strumento di embedding vettoriale. Questo processo utilizza una ricerca del vicino vicino approssimato (ANN), migliorando le risposte del modello riducendo le probabilità di allucinazioni e fornendo un contesto rilevante.

È noto come Retrieval Augmented Generation (RAG).

  1. Inizia con una query o un’affermazione dell’utente.
  2. Migliora la prompt aggiungendo contesto dal Vector Embedding tool.
  3. Invia il prompt ampliato al LLM.

Passo 2

Puoi aumentare l’accuratezza del modello facendogli mostrare da dove ha preso le risposte. Con RAG, ciò avviene prima di mostrare la risposta. Dopo aver generato la risposta, trova una fonte e la condivide. Molti fornitori, come Google Cloud AI, offrono modi per farlo.

Passo 3

FLARE, uno spin-off di RAG, coinvolge il recupero proattivo. Predice ciò che sta arrivando e recupera informazioni in anticipo, specialmente quando non è sicuro delle risposte.

Ultimi pensieri

Padroneggiare le fasi di un progetto di intelligenza artificiale generativa e adattare le competenze necessarie permette alle aziende di utilizzare l’IA in modo efficace. È un percorso impegnativo che richiede pianificazione, risorse e un impegno etico, ma il risultato è un potente strumento di intelligenza artificiale che può trasformare le operazioni aziendali. Spero che queste informazioni ti siano state utili!