Incontra LoraHub un framework AI strategico per la composizione di moduli LoRA (Adattamenti a basso rango) addestrati su diverse attività al fine di ottenere prestazioni adattabili su nuove attività.

Conosci LoraHub, un framework AI per la composizione di moduli LoRA addestrati su diverse attività per ottenere prestazioni adattabili.

I modelli di linguaggio preaddestrati su larga scala (LLM) come OpenAI GPT, Flan-T5 e LLaMA sono stati sostanzialmente responsabili dell’avanzamento rapido dell’NLP (Natural Language Processing). Questi modelli si comportano eccezionalmente bene in una varietà di applicazioni di NLP. Tuttavia, durante il fine-tuning, sorgono problemi legati all’efficienza computazionale e all’utilizzo della memoria a causa delle loro dimensioni dei parametri massicce.

Negli ultimi anni, è emerso il metodo di adattamento a basso rango (LoRA) come un potente strumento di sintonizzazione. LoRA accelera l’addestramento dell’LLM riducendo la quantità di memoria e calcolo richiesti. LoRA fa ciò fissando i parametri del modello principale (un LLM) e apprendendo un modulo complementare piccolo che si comporta in modo affidabile nelle attività designate.

I vantaggi di efficienza resi possibili da LoRA sono stati oggetto di ricerche precedenti, ma la modularità e la componibilità dei moduli LoRA hanno ricevuto pochissima attenzione. È necessaria una ricerca per capire se i moduli LoRA possono essere scritti per generalizzare efficientemente verso problemi sconosciuti.

Un gruppo di ricercatori del Sea AI Lab, della Washington University e dell’Allen Institute for AI ha deciso di utilizzare la modularità di LoRA per consentire prestazioni flessibili su sfide nuove anziché limitarsi all’addestramento su un compito specifico. Il principale vantaggio del loro approccio è che consente di assemblare automaticamente moduli LoRA senza intervento umano o conoscenze specializzate.

Il metodo può disporre automaticamente moduli LoRA adatti con solo alcuni campioni da compiti precedentemente non riconosciuti. Poiché i ricercatori non fanno assunzioni su quali moduli LoRA addestrati su quali compiti possono essere integrati, tutti i moduli che soddisfano i requisiti (ad esempio, utilizzando lo stesso LLM) sono idonei per una fusione. Chiamano questa tecnica di apprendimento LoraHub poiché utilizza diversi moduli LoRA già disponibili.

Per garantire l’efficacia del loro metodo, il team ha valutato le loro metodologie utilizzando il benchmark BBH, standard del settore, e Flan-T5 come LLM sottostante. I risultati dimostrano il valore di un processo di apprendimento LoraHub a pochi campioni per comporre moduli LoRA per compiti nuovi. Sorprendentemente, la strategia ottiene risultati molto simili all’apprendimento in contesto a pochi campioni. L’eliminazione della necessità di istanze come input per l’LLM riduce significativamente anche i costi di inferenza rispetto all’apprendimento in contesto. La tecnica di apprendimento adotta un approccio senza gradiente per generare i coefficienti dei moduli LoRA e richiede solo un piccolo numero di passaggi di inferenza. In meno di un minuto, con un singolo A100, ad esempio, l’approccio può raggiungere prestazioni di alto livello nel BBH.

L’apprendimento su LoraHub richiede solo la conoscenza di come elaborare l’inferenza LLM. Pertanto, può essere eseguito su un computer solo CPU. La flessibilità e l’alta performance di questo lavoro aprono la strada alla creazione di una piattaforma in cui i moduli LoRA addestrati possono essere facilmente condivisi, accessibili e applicati a nuovi compiti in questo ambito. Il team spera che un tale sistema consenta lo sviluppo di una libreria di moduli LoRA riutilizzabili con una vasta gamma di caratteristiche. Il gruppo sta lavorando sulla composizione dinamica dei nodi LoRA per migliorare le capacità dell’LLM per tutti.