Generazione migliorata della ricerca – spiegata in modo intuitivo ed esaustivo

La generazione migliorata della ricerca - spiegata in modo intuitivo ed esaustivo

Creazione di modelli di linguaggio in grado di cercare informazioni

“Data Retriever” di Daniel Warfield utilizzando MidJourney. Tutte le immagini sono dell'autore, salvo diversa indicazione.

In questo articolo esploreremo “generazione migliorata mediante recupero” (RAG), una strategia che ci permette di fornire informazioni aggiornate e pertinenti a un grande modello di linguaggio. Illustreremo la teoria e ci metteremo nei panni dei proprietari di un ristorante; implementeremo un sistema che permetterà ai nostri clienti di comunicare con l’intelligenza artificiale riguardo al nostro menu, agli eventi stagionali e alle informazioni generali.

Il risultato finale dell'esempio pratico, un chat bot in grado di fornire informazioni specifiche sul nostro ristorante.

A chi è utile? A chiunque sia interessato all’elaborazione del linguaggio naturale (NLP).

Quanto è avanzato questo articolo? Si tratta di un concetto molto potente, ma anche molto semplice, adatto sia ai principianti che agli esperti.

Prerequisiti: Una conoscenza sommaria dei grandi modelli di linguaggio (LLM) potrebbe essere utile, ma non è indispensabile.

Il cuore della questione

Il training dei LLM è costoso; il famoso modello chat GPT-3 è costato la bellezza di 3,2 milioni di dollari solo per le risorse di elaborazione. Se aprissimo un nuovo ristorante e volessimo utilizzare un LLM per rispondere alle domande sul menu, sarebbe bello non dover spendere milioni di dollari ogni volta che presentiamo una nuova insalata stagionale. Potremmo eseguire un passaggio di addestramento più piccolo (chiamato affinamento) per cercare di far imparare al modello una piccola quantità di informazioni altamente specifiche, ma questo processo può comunque costare centinaia o migliaia di dollari.

Un altro problema dei LLM è la loro affidabilità; a volte dicono cose completamente errate con certezza assoluta (comunemente chiamato allucinazione). Di conseguenza, può essere difficile capire da dove un LLM prenda le sue informazioni e se queste siano accurate. Se un cliente con allergie chiede se un piatto contiene frutta a guscio, sarebbe bello poter garantire che il nostro LLM utilizzi informazioni accurate in modo che i nostri clienti non vadano in shock anafilattico.

L’avvocato Steven A. Schwartz è finito nei guai per aver utilizzato ChatGPT, che ha portato a sei casi falsi citati in un memoriale legale. – Un famoso esempio di allucinazione in azione. fonte