Generazione migliorata della ricerca – spiegata in modo intuitivo ed esaustivo
La generazione migliorata della ricerca - spiegata in modo intuitivo ed esaustivo
Creazione di modelli di linguaggio in grado di cercare informazioni
In questo articolo esploreremo “generazione migliorata mediante recupero” (RAG), una strategia che ci permette di fornire informazioni aggiornate e pertinenti a un grande modello di linguaggio. Illustreremo la teoria e ci metteremo nei panni dei proprietari di un ristorante; implementeremo un sistema che permetterà ai nostri clienti di comunicare con l’intelligenza artificiale riguardo al nostro menu, agli eventi stagionali e alle informazioni generali.
A chi è utile? A chiunque sia interessato all’elaborazione del linguaggio naturale (NLP).
Quanto è avanzato questo articolo? Si tratta di un concetto molto potente, ma anche molto semplice, adatto sia ai principianti che agli esperti.
Prerequisiti: Una conoscenza sommaria dei grandi modelli di linguaggio (LLM) potrebbe essere utile, ma non è indispensabile.
- Un’introduzione al caricamento di modelli di linguaggio di grandi dimensioni
- Pattern di design con Python per gli ingegneri del machine learning Builder
- Un chatbot alimentato da un Llama può essere addestrato su una CPU?
Il cuore della questione
Il training dei LLM è costoso; il famoso modello chat GPT-3 è costato la bellezza di 3,2 milioni di dollari solo per le risorse di elaborazione. Se aprissimo un nuovo ristorante e volessimo utilizzare un LLM per rispondere alle domande sul menu, sarebbe bello non dover spendere milioni di dollari ogni volta che presentiamo una nuova insalata stagionale. Potremmo eseguire un passaggio di addestramento più piccolo (chiamato affinamento) per cercare di far imparare al modello una piccola quantità di informazioni altamente specifiche, ma questo processo può comunque costare centinaia o migliaia di dollari.
Un altro problema dei LLM è la loro affidabilità; a volte dicono cose completamente errate con certezza assoluta (comunemente chiamato allucinazione). Di conseguenza, può essere difficile capire da dove un LLM prenda le sue informazioni e se queste siano accurate. Se un cliente con allergie chiede se un piatto contiene frutta a guscio, sarebbe bello poter garantire che il nostro LLM utilizzi informazioni accurate in modo che i nostri clienti non vadano in shock anafilattico.
L’avvocato Steven A. Schwartz è finito nei guai per aver utilizzato ChatGPT, che ha portato a sei casi falsi citati in un memoriale legale. – Un famoso esempio di allucinazione in azione. fonte