La compressione dei documenti recuperati può migliorare le prestazioni del modello linguistico? Questo articolo sull’IA presenta RECOMP Migliorare i modelli linguistici con recupero, compressione e augmentazione selettiva.

La compressione dei documenti recuperati un nuovo approccio per migliorare i modelli linguistici - Presentando RECOMP Recupero, compressione e augmentation selettiva nell'Intelligenza Artificiale

Ottimizzare le prestazioni gestendo le risorse computazionali è una sfida cruciale nell’era di modelli di linguaggio sempre più potenti. Ricercatori dell’Università del Texas ad Austin e dell’Università di Washington hanno esplorato una strategia innovativa che comprime i documenti recuperati in sintesi testuali concise. Utilizzando sia compressori estrattivi che compressori astrattivi, il loro approccio migliora con successo l’efficienza dei modelli di linguaggio.

Migliorare l’efficienza nei modelli di linguaggio arricchiti da recupero (RALM) è un punto focale, concentrandosi sul miglioramento dei componenti di recupero attraverso tecniche come la compressione del database e la riduzione di dimensionalità. Le strategie per ridurre la frequenza di recupero includono il recupero selettivo e l’utilizzo di passi più ampi. Il loro studio “RECOMP” presenta un approccio innovativo che comprime i documenti recuperati in sintesi testuali succinte. Il loro approccio non solo riduce i costi computazionali ma migliora anche le prestazioni dei modelli di linguaggio.

Affrontando le limitazioni dei RALM, il loro studio introduce RECOMP (Retrieve, Compress, Prepend), un nuovo approccio per migliorarne l’efficienza. RECOMP prevede di comprimere i documenti recuperati in sintesi testuali prima dell’aumento in contesto. Il loro processo utilizza sia un compressore estrattivo per selezionare frasi pertinenti dai documenti che un compressore astrattivo per sintetizzare le informazioni in una sintesi concisa.

Il loro metodo introduce due compressori specializzati, un compressore estrattivo e un compressore astrattivo, progettati per migliorare le prestazioni dei modelli di linguaggio (LM) su compiti finali creando sintesi concise dai documenti recuperati. Il compressore estrattivo seleziona frasi pertinenti, mentre il compressore astrattivo sintetizza dati da più documenti. Entrambi i compressori sono allenati per ottimizzare le prestazioni del LM quando le loro sintesi generate vengono aggiunte in input al LM. La valutazione include modellizzazione del linguaggio e compiti di domande e risposte ad ampio dominio, e la trasferibilità è dimostrata su vari LM.

Il loro approccio è valutato su modellazione del linguaggio e compiti di domande e risposte ad ampio dominio, raggiungendo notevole riduzione del 6% con minima perdita di prestazioni, superando i modelli standard di sintesi. Il compressore estrattivo eccelle nei modelli di linguaggio, mentre il compressore astrattivo ha le prestazioni migliori con la minore perplessità. Nelle domande e risposte ad ampio dominio, tutti i metodi di miglioramento del recupero aumentano le prestazioni. L’oracle estrattivo è leader e il DPR ha buone prestazioni tra i baselines estrattivi. I compressori addestrati si trasferiscono su modelli di linguaggio nei compiti di modellazione del linguaggio.

RECOMP viene introdotto per comprimere i documenti recuperati in sintesi testuali, migliorando le prestazioni del LM. Vengono impiegati due compressori, estrattivo e astrattivo. I compressori sono efficaci nella modellazione del linguaggio e nei compiti di domande e risposte ad ampio dominio. In conclusione, la compressione dei documenti recuperati in sintesi testuali migliora le prestazioni del LM riducendo i costi computazionali.

Future direzioni di ricerca includono l’aumento adattivo con il sintetizzatore estrattivo, il miglioramento delle prestazioni del compressore su diversi modelli di linguaggio e compiti, l’esplorazione di diversi tassi di compressione, la considerazione di modelli basati su reti neurali per la compressione, l’esperimento su una gamma più ampia di funzioni e dataset, la valutazione della generalizzabilità ad altri domini e lingue e l’integrazione di altri metodi di recupero come l’incorporamento di documenti o l’espansione delle query per migliorare i modelli di linguaggio arricchiti da recupero.