Migliorare la fattualità nell’AI questa ricerca sull’IA introduce Self-RAG per modelli linguistici più accurati e riflessivi

Migliorare l'affidabilità dell'IA una ricerca introduttiva su Self-RAG per modelli linguistici più accurati e riflessivi

Self-Reflective Retrieval-Augmented Generation (SELF-RAG) è un framework che migliora i grandi modelli di linguaggio (LLM) recuperando dinamicamente informazioni rilevanti e riflettendo sulle proprie generazioni. Questo approccio migliora significativamente la qualità, la correttezza e le prestazioni dei LLM in varie attività, superando LLM come ChatGPT e modelli potenziati dal recupero come Llama2-chat. SELF-RAG è particolarmente efficace nel question-answering a dominio aperto, nella ragionamento, nella verifica dei fatti e nella generazione di contenuti di lunga durata.

Ricercatori dell’Università di Washington, dell’Allen Institute for AI e dell’IBM Research AI hanno introdotto SELF-RAG, che potenzia i LLM recuperando dinamicamente passaggi rilevanti su richiesta e riflettendo sui contenuti generati. Il loro approccio affronta le inaccuracies factuali trovate nei LLM e supera sia i LLM che i modelli potenziati dal recupero in varie attività, inclusa la domanda-risposta a dominio aperto, il ragionamento e la verifica dei fatti. Si propone di superare le limitazioni dei metodi precedenti che potrebbero ostacolare la versatilità dei LLM e produrre risultati di bassa qualità.

La sfida degli errori factuali nei LLM all’avanguardia è affrontata introducendo SELF-RAG. SELF-RAG combina il recupero e l’autoriflessione per migliorare la qualità delle generazioni di un LLM senza ridurne la versatilità. Addestra un LLM a recuperare in modo adattivo passaggi su richiesta e a riflettere su di essi, ottenendo miglioramenti significativi nella qualità delle generazioni e nell’accuratezza dei fatti. Gli esperimenti dimostrano la superiorità di SELF-RAG rispetto ai modelli esistenti di LLM e potenziati dal recupero in varie attività.

SELF-RAG migliora la qualità e la correttezza dei modelli di linguaggio. SELF-RAG addestra un singolo LM a recuperare e riflettere su passaggi, potenziando la versatilità in modo adattivo. Utilizza token di riflessione per il controllo durante l’inferenza, seguendo un processo in tre fasi: determinare la necessità di recupero, elaborare i passaggi recuperati e generare token di critica per la selezione dell’output. Gli esperimenti dimostrano la superiorità di SELF-RAG rispetto ai modelli esistenti in attività come la domanda-risposta a dominio aperto e la verifica dei fatti.

Il framework SELF-RAG si è dimostrato estremamente efficace in varie attività, superando i modelli di LLM all’avanguardia e i modelli potenziati dal recupero. Mostra miglioramenti significativi nella correttezza dei fatti e nell’accuratezza delle citazioni per le generazioni di lunga durata rispetto a ChatGPT. Nelle valutazioni umane, gli output di SELF-RAG sono plausibili, supportati da passaggi rilevanti e coerenti con la valutazione dei token di riflessione. Tra i modelli basati su LM non proprietari, SELF-RAG ottiene la migliore performance in tutte le attività.

Il meccanismo SELF-RAG offre una soluzione valida per migliorare l’accuratezza e la qualità delle Language Model Machines (LLM) integrando strumenti di recupero e autoriflessione. Superando in modo significativo gli approcci tradizionali potenziati dal recupero e i LLM contenenti più parametri, SELF-RAG risulta più efficace in varie attività. Questo lavoro affronta le preoccupazioni reali riguardanti l’accuratezza dei fatti e la disinformazione, riconoscendo però la possibilità di ulteriori miglioramenti. Valutazioni olistiche che utilizzano più metriche dimostrano la superiorità di SELF-RAG rispetto agli approcci convenzionali, sottolineando il suo potenziale per migliorare gli output dei LLM.

Ricerche future possono migliorare i LLM potenziando l’accuratezza dei loro output, soprattutto affrontando sfide reali legate alla disinformazione e ai consigli non accurati. Nonostante SELF-RAG abbia compiuto significativi progressi, c’è spazio per ulteriori miglioramenti. L’incorporazione esplicita dell’autoriflessione e dell’attribuzione dettagliata può aiutare gli utenti a convalidare i contenuti generati dal modello. Lo studio suggerisce inoltre di esplorare l’applicazione di meccanismi di autoriflessione e recupero in un’ampia gamma di attività e set di dati oltre al loro attuale ambito sperimentale.