Automazione della catena di pensiero come l’AI può spingere se stessa a ragionare

Automazione pensiero catena come AI spinge ragionare

 

Punti chiave

 

  • La promptizzazione a catena di pensiero (CoT) migliora il ragionamento del LM fornendo esempi passo-passo
  • La creazione manuale delle dimostrazioni CoT richiede un notevole sforzo umano
  • Questo articolo esplora l’automatizzazione della generazione delle dimostrazioni CoT utilizzando lo stesso LM
  • Il metodo proposto Auto-CoT raggruppa le domande, successivamente ne campiona alcune diverse per l’auto-prompting
  • Gli esperimenti mostrano che Auto-CoT corrisponde a CoT creati manualmente, senza coinvolgimento umano

 

Introduzione

 

L’articolo “Promptizzazione automatica a catena di pensiero nei grandi modelli di linguaggio” esplora modi automatizzati per creare prompt efficaci a catena di pensiero (CoT) per grandi modelli di linguaggio (LLM) come GPT-4. La promptizzazione CoT consiste nel mostrare agli LLM esempi che dimostrano catene di ragionamento passo-passo che vanno da una domanda a una risposta finale. Ciò migliora le prestazioni nei compiti di ragionamento complesso.

 

Discussione

 

I migliori risultati di promptizzazione CoT, tuttavia, richiedono attualmente agli umani di creare manualmente dimostrazioni, con domande create ad hoc e passaggi di ragionamento dettagliati adattati a ogni compito. Gli autori propongono di eliminare questo sforzo manuale facendo sì che l’LLM generi automaticamente le proprie dimostrazioni CoT per il prompting. Il loro metodo chiave, chiamato Auto-CoT, funziona innanzitutto raggruppando le domande di un dato compito in base alla loro similarità semantica. Auto-CoT campiona quindi un insieme vario di domande che coprono diversi raggruppamenti. Per ogni domanda campionata, Auto-CoT utilizza l’LLM stesso in modalità zero-shot per produrre una catena di ragionamento dalla domanda a una risposta. Applica euristici semplici per selezionare le catene in base alla lunghezza e alla semplicità.

Gli autori conducono esperimenti per valutare Auto-CoT su 10 set di dati di ragionamento che spaziano da problemi aritmetici, di buon senso e di logica simbolica. I risultati mostrano che Auto-CoT corrisponde o supera le prestazioni della promptizzazione CoT basata su dimostrazioni create manualmente, senza richiedere alcuno sforzo umano per la progettazione delle dimostrazioni. Un’idea chiave è che l’utilizzo di campionamento basato sulla diversità rispetto al recupero basato sulla similarità per selezionare le domande di promptizzazione mitiga l’impatto delle dimostrazioni imperfette generate dal ragionamento zero-shot dell’LLM. Auto-CoT supera anche i metodi di confronto come il recupero di domande simili o il campionamento casuale per le dimostrazioni.

Nel complesso, il lavoro fornisce prove solide che gli LLM possono promptare se stessi per dimostrare un ragionamento complesso a più passaggi. Auto-CoT essenzialmente compone un LLM che genera un insieme vario di esempi CoT, con un altro LLM che utilizza tali esempi per l’infertza. Gli autori suggeriscono che questo approccio di auto-prompting potrebbe estendere significativamente le tecniche di prompting e rendere gli LLM molto migliori nell’apprendimento a pochi casi nei compiti di ragionamento complesso. Le limitazioni includono i potenziali costi computazionali e le difficoltà di scalabilità verso problemi più liberi. Tuttavia, la capacità di automatizzare il prompting riduce lo sforzo umano e le esigenze di personalizzazione.

 

Domande e risposte sulla ricerca

 

Come si confronta Auto-CoT con altri metodi che automatizzano la creazione di prompt, come il prompting arricchito da recupero?

Il prompting arricchito da recupero recupera esempi di dati correlati da utilizzare per il prompting, anziché far generare all’LLM le dimostrazioni. Una differenza chiave è che Auto-CoT non richiede un set di dati di esempi etichettati e si basa invece sul ragionamento zero-shot dell’LLM stesso. Il recupero potrebbe richiedere meno campioni, ma richiede la raccolta di dati. Auto-CoT è completamente automatizzato, ma può soffrire di dimostrazioni imperfette.

  Può Auto-CoT essere applicato a compiti di generazione di linguaggio naturale al di là del ragionamento logico?

L’approccio di raggruppamento e auto-prompting sembra promettente per compiti testuali meno strutturati in cui è importante la coerenza. Ad esempio, Auto-CoT potrebbe fornire esempi di pianificazione della scrittura per la scrittura creativa o illustrazioni di dialogo per chatbot conversazionali. Le sfide chiave sarebbero definire metodi di raggruppamento appropriati e addestrare la generazione zero-shot dell’LLM per dimostrazioni di alta qualità.

  Cosa c’è di innovativo in questa ricerca?

L’innovazione chiave consiste nell’utilizzare l’LLM stesso per generare dimostrazioni per il prompting, anziché fare affidamento sulla creazione manuale. Ciò consente una maggior automazione del prompting e l’adattamento al compito. L’uso del raggruppamento per selezionare domande diverse per l’auto-prompting è anche innovativo.

  Quali sono le implicazioni più ampie di questa ricerca?

Questa ricerca potrebbe ridurre significativamente lo sforzo umano e l’esperienza necessaria per progettare prompt efficaci. Potrebbe consentire agli LLM di apprendere nuovi compiti più rapidamente e con meno dati, migliorando le loro capacità di apprendimento a pochi casi. L’approccio di auto-prompting potrebbe essere applicato per estendere le tecniche di prompting come l’apprendimento in contesto.

Quali sono alcuni potenziali problemi o trascuranze di questa ricerca come presentata, se presenti?

Un problema potenziale è che Auto-CoT si basa su clustering di domande basato su caratteristiche di similarità da Sentence-BERT. Le prestazioni potrebbero essere compromesse in compiti in cui la similarità semantica non si allinea bene con la similarità di ragionamento. L’approccio comporta anche costi di elaborazione più elevati rispetto alle tecniche standard di prompting.

Quali sono i passi successivi logici dalla ricerca attuale?

I passi successivi importanti includono l’esplorazione di come Auto-CoT si adatta a compiti di ragionamento più complessi e aperti, l’integrazione con il recupero di fonti di conoscenza esterne e lo studio di un’apprendimento più efficiente in termini di campioni attraverso il meta-apprendimento anziché basarsi solo su un LLM preaddestrato. L’analisi dell’interazione tra il numero di cluster, la dimensione del campione e le prestazioni è anche un’apertura di ricerca.

Punti chiave

  • Auto-CoT riduce la necessità di dimostrazioni create manualmente per stimolare gli LMs
  • L’auto-stimolazione con Auto-CoT compone un LM che genera esempi diversi e un altro che deduce
  • La diversità nel campionamento delle domande è fondamentale per superare le catene di ragionamento imperfette a zero-shot
  • L’approccio potrebbe estendere le tecniche di prompting e rendere gli LMs migliori apprendisti in pochi passi
  • Auto-CoT dimostra la promessa dell’automazione del prompting per ridurre lo sforzo umano
  • I passi successivi includono l’adattamento di Auto-CoT a compiti di ragionamento più complessi e LMs più grandi

Matthew Mayo (@mattmayo13) è un Data Scientist e l’Editor-in-Chief di VoAGI, la risorsa online fondamentale per Data Science e Machine Learning. I suoi interessi riguardano l’elaborazione del linguaggio naturale, la progettazione e l’ottimizzazione degli algoritmi, l’apprendimento non supervisionato, le reti neurali e gli approcci automatizzati all’apprendimento automatico. Matthew ha una laurea magistrale in informatica e un diploma di laurea in data mining. È possibile contattarlo all’indirizzo editor1 at VoAGI [dot] com.