È ora di cominciare a parlare dell’architettura rapida nei LLM?

È tempo di scoprire l'architettura rapida nei LLM tutto quello che devi sapere

Dalla prompt engineering all’architettura prompt

Immagine dell'autore. (Generata da AI)

Riassumere.

Tutto è iniziato con una parola singola. Non soddisfatti dei risultati, abbiamo riprovato.

Riassumere i punti più importanti dell’articolo.

La prompt engineering ci insegna che le prompt più specifiche sono migliori.

Identificare i tre argomenti più importanti trattati nell’articolo e valutare la solidità dell’argumento dell’autore basandosi sulle prove fornite. Ci sono punti in cui si ritiene che l’argumento potrebbe essere più solido o convincente?

Col passare del tempo, abbiamo imparato ad includere più dettagli per guidare i nostri LLM preferiti a fornire le migliori risposte.

Una recente architettura prompt chiamata Least to Most prompting. [1]

Le tecniche di prompt engineering stanno diventando sistemi più complessi ed elaborati, talvolta composti da molteplici componenti. La definizione di prompt engineering potrebbe limitare la definizione di tali sistemi intricati.

In questo articolo, voglio proporre un’etichetta più accurata per i sistemi multi-componente che interagiscono con gli LLM:

Prompt Architecture.

La storia della prompt engineering

I moderni modelli di linguaggio hanno sviluppato una capacità impressionante di affrontare nuovi compiti dopo aver visto solo un paio di esempi. Questa capacità è chiamata apprendimento in contesto, ed è il motivo principale per cui la prompt engineering funziona così bene.

I ricercatori ritengono che l’apprendimento in contesto funzioni perché l’allenamento preliminare insegna al modello le competenze generali necessarie per le attività linguistiche. Poi, durante il test, deve solo riconoscere il pattern e applicare le sue competenze. I modelli più grandi fanno questo ancora meglio, rendendoli sorprendentemente adattabili a diversi compiti del linguaggio naturale. [2]

In passato, sarebbero state necessarie migliaia di esempi etichettati per ottimizzare un modello di linguaggio per un nuovo compito. Ma con l’apprendimento in contesto, è possibile fornire al modello la descrizione del compito nella sua finestra di contesto e…+