Questa ricerca di intelligenza artificiale propone FireAct un nuovo approccio all’intelligenza artificiale per il raffinamento dei modelli linguistici utilizzando traiettorie da più compiti e metodi di agenti.

FireAct Un nuovo approccio all'intelligenza artificiale per ottimizzare i modelli linguistici attraverso l'utilizzo di traiettorie da diversi compiti e metodi di agenti

L’affinamento dei modelli di lingua spesso viene trascurato per creare agenti linguistici, concentrandosi specificamente sul miglioramento delle loro capacità nei compiti di domanda e risposta utilizzando l’API di ricerca di Google. Ricercatori di System2 Research, dell’Università di Cambridge, della Monash University e della Princeton University dimostrano che l’affinamento dei modelli di lingua di base migliora costantemente le prestazioni di questi agenti. La loro ricerca introduce “FireAct”, un approccio di affinamento che incorpora traiettorie da diverse attività e metodi di avvio, sottolineando l’importanza di dati diversi per l’affinamento per raffinare gli agenti linguistici.

La loro ricerca approfondisce l’intersezione tra agenti linguistici e l’affinamento di modelli di lingua preaddestrati. Mentre ricerche precedenti hanno esplorato separatamente agenti linguistici e l’affinamento, questo studio collega i due ambiti. FireAct, un approccio di affinamento per agenti linguistici, indaga sistematicamente i vantaggi e le conseguenze dell’affinamento dei modelli di lingua per questi agenti. La loro ricerca include l’esame degli effetti di scala, della robustezza, della generalizzazione, dell’efficienza e delle implicazioni di costo, contribuendo a fornire preziose intuizioni in questo campo emergente.

Il loro metodo affronta la necessità di agenti linguistici più efficaci introducendo un approccio sistematico per affinare i modelli di lingua (LM) per questi agenti. Gli agenti linguistici esistenti si basano su LM di base e tecniche di suggerimento a basso tiro, il che comporta restrizioni di prestazioni e robustezza. I risultati sperimentali rivelano che l’affinamento dei LM migliora significativamente le prestazioni degli agenti, riduce il tempo di inferenza e migliora la robustezza, offrendo una promettente via per le applicazioni reali.

Il loro studio esplora l’affinamento dei LM per agenti linguistici, in particolare nella risposta alle domande (QA) con l’API di ricerca di Google. Gli esperimenti si concentrano su LM, dimensioni dei dati e metodi di affinamento, con la valutazione delle prestazioni utilizzando metriche come HotpotQA EM. Il loro approccio dimostra i vantaggi dell’affinamento in termini di prestazioni migliorate, efficienza, robustezza e generalizzazione rispetto ai metodi di suggerimento tradizionali.

L’affinamento dei LM per agenti linguistici porta a significativi miglioramenti delle prestazioni, con un aumento del 77% delle prestazioni HotpotQA utilizzando Llama2-7B e 500 traiettorie degli agenti da GPT-4. Il metodo CoT migliora la qualità delle risposte. Metodi di agenti misti migliorano costantemente le prestazioni, allineandosi ai range di base. L’affinamento aumenta la precisione, migliorando le risposte esatte e la qualità complessiva delle risposte, come confermato dai punteggi EM e F1. Tuttavia, i punteggi F1 si stabilizzano e diminuiscono oltre quattro epoche, indicando il rendimento decrescente dell’affinamento prolungato.

L’integrazione del metodo CoT migliora ulteriormente la qualità delle risposte. L’approccio FireAct, che prevede l’affinamento con traiettorie e suggerimenti diversi, migliora ulteriormente le prestazioni degli agenti. Gli agenti linguistici che si affidano esclusivamente a LM preconfezionati presentano limitazioni come un insieme fisso di traiettorie di risoluzione dei compiti, un uso eccessivo degli strumenti e sfide di recupero dalla deviazione. Ricerche future sulla calibrazione e sul meta-ragionamento potrebbero migliorare i design degli agenti, affrontando l’uso degli strumenti e le sfide di riflessione.

Le domande di ricerca derivanti da FireAct suggeriscono di ampliare l’affinamento dei LM per agenti linguistici a varie attività, impostazioni e domini. Le indagini dovrebbero includere l’uso degli strumenti API, l’esplorazione web e l’integrazione nel mondo reale. Esplorare diverse fonti di dati e tecniche di affinamento è cruciale per migliorare le prestazioni degli agenti. L’impatto della calibrazione e del meta-ragionamento sui design degli agenti e sulla loro capacità di gestire l’uso degli strumenti e le deviazioni delle traiettorie dovrebbe essere affrontato. Infine, sono necessari studi approfonditi per valutare scalabilità, robustezza, efficienza e implicazioni di costo.