Introduzione all’Ingegneria delle Prompt Zero, Uno, e Prompting a poche istanze

Introduzione all'Ingegneria delle Prompt Zero, Uno e Prompting a poche istanze

Un’introduzione a una strategia di base di ingegneria di prompt

Immagine di Alexandra_Koch da Pixabay

Introduzione

Nonostante le loro capacità apparentemente sovrannaturali, le LLM sono in definitiva modelli predittivi che prevedono semplicemente la parola successiva nella sequenza di parole in base al contesto fornito.

Di conseguenza, le loro prestazioni non dipendono solo dagli enormi volumi di dati con cui vengono addestrate, ma dipendono anche pesantemente dal contesto fornito attraverso gli input degli utenti.

Gli utenti frequenti di chatbot alimentati da LLM sono consapevoli dell’importanza del contesto. Senza un contesto sufficiente, i chatbot, che siano servizi pubblicamente disponibili (ad es. ChatGPT) o prodotti LLM personalizzati, avranno difficoltà a eseguire istruzioni più complesse.

Qui, approfondiremo una delle strategie più semplici utilizzate per guidare le LLM a rispondere correttamente ai prompt: fornire contesto all’interno dei prompt degli utenti. Questo viene spesso realizzato con 3 diversi metodi: zero-shot prompting, one-shot prompting e few-shot prompting.

Zero-Shot Prompting

Se hai già interagito con un chatbot alimentato da LLM in precedenza, probabilmente hai già utilizzato inconsapevolmente il zero-shot prompting. Il zero-shot prompting consiste nel fare affidamento esclusivamente sulle informazioni pre-addestrate di una LLM per rispondere a un determinato prompt dell’utente.

Ad esempio, supponiamo di utilizzare ChatGPT come classificatore di sentimenti. Un input con zero-shot prompting avrebbe questo aspetto:

Prompt dell’utente: “Determina il sentimento di questa frase. Frase: ‘Questa palla da basket ha molto peso’.”

ChatGPT: “Il sentimento della frase ‘Questa palla da basket ha molto peso’ è neutro. Non trasmette un sentimento positivo o negativo, ma fornisce informazioni di fatto sul peso della palla da basket.”

Quando viene fornita la query, la LLM, senza ulteriore contesto, valuta questa frase come neutra.

Anche se questo metodo di solito può produrre risposte soddisfacenti, potrebbe non essere sufficiente quando la complessità della domanda è alta o quando i criteri per la risposta sono diversi dalla norma.