Catena di pensiero per LLM

LLM Thought Chain

Un approccio pratico e semplice per il “ragionamento” con LLM

(Foto di Matthew Lancaster su Unsplash)

Il successo dei grandi modelli linguistici (LLM) deriva dalla nostra capacità di pre-addestrare (utilizzando un obiettivo di modellazione del linguaggio) modelli trasformatore solo decoder su grandi corpora testuali. Dato che pre-addestriamo modelli sufficientemente grandi, LLM è in grado di apprendere rapidamente una grande quantità di informazioni. In altre parole, questo significa che possiamo risolvere una varietà di problemi diversi (ad esempio, traduzione, classificazione delle frasi, riassunto, ecc.) semplicemente formulando una richiesta testuale (potenzialmente contenente alcuni esempi di output corretto) e facendo generare al LLM la risposta corretta.

Nonostante il potere dei LLM, ci sono alcuni problemi che questi modelli faticano costantemente a risolvere. In particolare, i problemi di ragionamento (ad esempio, ragionamento aritmetico o di buon senso) sono notoriamente difficili. I primi tentativi per risolvere questo problema hanno esplorato il fine-tuning dei LLM e i moduli di verifica specifici per compiti su un dataset supervisionato di soluzioni e spiegazioni di vari problemi di ragionamento [3, 4]. Tuttavia, lavori recenti hanno scoperto che l’apprendimento rapido può essere sfruttato per una soluzione più semplice.

“L’obiettivo di questo articolo è dotare i modelli linguistici della capacità di generare una catena di pensiero – una serie coerente di passaggi di ragionamento intermedi che portano alla risposta finale di un problema.” – da [1]

In particolare, la tecnica del prompting “chain-of-thought” (CoT) [1] è una tecnica recentemente proposta che migliora le prestazioni del LLM su compiti basati sul ragionamento tramite l’apprendimento rapido. Similmente alle tecniche standard di prompting, il prompting CoT inserisce diversi esempi di soluzioni a problemi di ragionamento nella richiesta del LLM. Successivamente, ogni esempio viene associato a una catena di pensiero, ovvero una serie di passaggi di ragionamento intermedi per risolvere il problema. Il LLM quindi apprende (in modo rapido) a generare catene di pensiero simili durante la risoluzione di problemi di ragionamento. Questo approccio utilizza dati minimi (ovvero solo alcuni esempi per il prompting), non richiede un fine-tuning specifico del compito e migliora significativamente le prestazioni del LLM su benchmark basati sul ragionamento, soprattutto per modelli più grandi.