Principi efficaci di ingegneria delle indicazioni per l’applicazione di AI generativa

Effective principles of indication engineering for the application of generative AI

In questo articolo, ti illustrerò un altro importante concetto di Generative AI Prompt Engineering. L’ingegneria dei prompt nel campo dell’IA consiste nella creazione di brevi frammenti di testo o frasi progettati secondo principi specifici. Questi prompt vengono poi utilizzati con i Large Language Models (LLM) per generare in modo efficace contenuti di output. Il processo di ingegneria dei prompt funge da fondamentale blocco di costruzione perché prompt costruiti in modo errato possono portare a modelli LLM come ChatGPT a generare risposte illogiche, prive di significato o fuori contesto. Pertanto, è considerata una buona pratica convalidare i testi di input passati all’API del modello LLM in base a principi ben definiti di ingegneria dei prompt.

A seconda dell’intento o dello scopo delle frasi di input, il modello può mostrare varie capacità. Queste possono includere il riassunto di ampie quantità di testo o contenuto, l’infrazione o la chiarificazione di argomenti, la trasformazione dei testi di input o l’ampliamento delle informazioni fornite. Aderendo ai principi dell’ingegneria dei prompt, il modello di intelligenza artificiale può sfruttare appieno il proprio potenziale garantendo al contempo un output accurato e pertinentemente contestuale.

Perché l’Ingegneria dei Prompt è Importante nella Progettazione di un Prodotto Basato su Intelligenza Artificiale Generativa?

Come puoi vedere, un prompt efficace produrrà la migliore risposta dal Large Language Model che sarà utilizzato nel prodotto di intelligenza artificiale che stiamo costruendo. Se non si fa abbastanza brainstorming durante la progettazione dei Prompt per l’istruzione o la query in entrata inviata al LLM, l’applicazione potrebbe non soddisfare la soddisfazione dell’utente. Quindi, quando progettiamo un prodotto basato su IA generativa, dovremmo coinvolgere gli Ingegneri di Prompt o gli Analisti di Linguaggio Naturale per approfondire e selezionare prompt efficaci da utilizzare durante l’interazione con il modello LLM. Anche se il prodotto genererà prompt dinamici, dovrebbe seguire linee guida e principi chiari per generare risultati accurati per gli utenti.

Nelle sezioni seguenti, ti guiderò attraverso alcuni prompt di esempio, tecniche e risposte dal LLM per dimostrare come utilizzare l’ingegneria dei prompt e perché la consideriamo un fondamentale blocco di costruzione.

Utilizzerò il codice Python e il modello LLM “text-davinci-003” di Open AI con la temperatura impostata a 0 in modo che le risposte del LLM rimangano sempre coerenti e non casuali.

Prima di eseguire il frammento di codice, assicurati di installare il pacchetto richiesto.

Il seguente semplice frammento di codice mostra un rapido utilizzo di OpenAI per ottenere un prompt.

Negli esempi seguenti, utilizzerò la classe PromptTemplate integrata di Langchain per dimostrare alcuni principi che dovremmo seguire rigorosamente durante la progettazione di prompt efficaci per il nostro progetto AI di NextGen come parte dell’Ingegneria dei Prompt.

Principi (Best Practices) dell’Ingegneria dei Prompt Efficaci:

Non esistono regole predefinite o rigide per l’ingegneria dei prompt. Non esiste un libro di regole pubblicato da alcun comitato a cui dovremmo attenerci durante l’ingegneria dei prompt. Tuttavia, se seguiamo alcune linee guida e principi come best practice, ciò aiuterà a ottenere il miglior output generato dal LLM e a raggiungere la soddisfazione del cliente.

Le Istruzioni Dovrebbero Essere CHIARE e SPECIFICHE

Vediamo un paio di esempi.

Nel primo esempio, chiederò al modello di riassumere alcuni contenuti forniti che ho preso da Wikipedia. Istruirò il modello a riassumere solo ciò che è menzionato tra i tre apici inversi (“`)

Quando metti il tuo contesto all’interno di un delimitatore e aggiungi l’istruzione, non solo eviti qualsiasi iniezione di prompt errato ma chiedi chiaramente al LLM cosa fare con il contenuto fornito.

Nell’esempio seguente, mostrerò come è possibile controllare l’output del modello. Ad esempio, chiederò al modello di generare tre titoli di film inventati nel formato JSON.

Fornisci un Testo o Contenuto di Riferimento Significativo per il LLM

Mentre invii i prompt al LLM, se desideri mantenere le risposte nel contesto fornito, devi fornire un riferimento conciso. OpenAI GPT ha limitazioni sul riferimento di input, quindi devi fare molto sforzo nella progettazione del contenuto di riferimento. Fornire riferimenti efficaci e corretti aiuterà a ottenere il miglior output dal LLM.

Fornisci “Tempo per PENSARE” al GPT

L’ingegneria dei prompt dovrebbe essere progettata in modo che il GPT non debba affrettarsi a rispondere; piuttosto, dovrebbe fare la RIFLESSIONE e quindi fornire la corretta e significativa risposta. Se stai fornendo problemi statistici o matematici in linguaggio e non dai tempo per pensare, allora la maggior parte delle volte il modello LLM commette anche errori come fa un essere umano. Quindi, per ottenere risposte corrette, la tua ingegneria dei prompt dovrebbe utilizzare formulazioni in modo tale che il GPT abbia del tempo per pensare e rispondere. Gli esempi seguenti mostreranno come i modelli possano commettere errori e come correggerli.

Le seguenti istruzioni guidano il LLM a svolgere determinati compiti e non forniscono istruzioni chiare, quindi mentre si affretta a dare una risposta, il LLM commette un errore e omette l’istruzione al punto 3. Vedi i risultati.

Tuttavia, le stesse istruzioni con qualche modifica fornirebbero al LLM una maggiore capacità di pensiero per produrre risultati corretti.

Cosa fare e cosa non fare

Mentre si svolge un’efficace ingegneria delle istruzioni, ci sono alcune cose che dovremmo fare e alcune che dovremmo evitare, come:

Cosa non fare:

  • Evitare di fornire informazioni sovraccariche.
  • Non fare domande aperte che potrebbero confondere il LLM.

Cosa fare:

  • Specificare il formato corretto dell’output che ci si aspetta.
  • Includere un contesto significativo.

Conclusioni

In questo articolo, esploriamo preziose intuizioni sulle tecniche efficaci di prompt. Esploriamo anche l’importanza di un prompt ben strutturato e discutiamo linee guida essenziali, compresi i dos e i don’ts, per progettare un prompt efficace. Sono inclusi anche alcuni esempi pratici per illustrare questi principi.