Ricercatori del MIT introducono una nuova procedura di decodifica di modelli linguistici con IA senza bisogno di addestramento e basata sulla teoria dei giochi

Ricercatori del MIT rivoluzionano la decodifica dei modelli linguistici con IA una procedura innovativa senza bisogno di addestramento, basata sulla teoria dei giochi

Alcuni compiti che richiedono la creazione o la verifica di asserzioni fattuali, come rispondere a domande, verificare i fatti e persino generare testo incondizionato, sono gestiti con relativo successo dai modelli di linguaggio (LM) attuali. Tuttavia, crescono le prove che i LM diventano più inclini a produrre commenti erronei ma spesso ripetuti man mano che la loro dimensione aumenta. Sono lontani dall’essere completamente affidabili. Il fatto che i LM offrano diverse possibilità per risolvere i compiti di generazione di informazioni complica ulteriormente la questione.

Possono essere utilizzati sia in modo generativo (chiedendo la risposta più probabile a una domanda) che in modo discriminante (presentando una coppia domanda-risposta e chiedendo se la risposta è accettabile), ma questi due metodi a volte producono risultati diversi. I metodi generativi possono fallire quando la probabilità si distribuisce su più risposte contraddittorie, mentre i metodi discriminanti possono fallire a causa di una cattiva calibrazione o di una sottile dipendenza dalla domanda. Come possono estrarre la migliore stima della verità da questi segnali caotici e spesso contraddittori? Il GIOCO DEL CONSENSO, un gioco di segnalazione, viene utilizzato in questa ricerca da ricercatori del MIT per offrire un metodo per collegare i processi di decodifica generativa e discriminante dei LM.

Un agente DISCRIMINATORE deve comunicare un valore corretto o errato astratto a un agente GENERATORE a un livello superiore, ma può farlo solo utilizzando un numero limitato di possibili stringhe di linguaggio naturale. Sembrerebbe ragionevole supporre che una politica combinata, in cui GENERATORE e DISCRIMINATORE concordano sull’assegnazione di stringhe ai valori di correttezza, sarebbe un approccio vincente per questo gioco. Possono esaminare un approccio del genere per trovare candidati che tutti ritengono corretti. Per fare ciò, devono risolvere un gioco a più passaggi con uno spazio di azione difficile (valore di stringa). Gli algoritmi di apprendimento senza rimpianti sono stati molto popolari di recente come metodo principale per calcolare strategie vincenti in giochi come Poker, Stratego e Diplomazia.

In questo caso, dimostrano che possono essere utilizzati anche per compiti che coinvolgono la creazione di linguaggi liberi. Questo metodo di decodifica dei LM basato sulla teoria dei giochi è noto come RANKING DI EQUILIBRIO. Quando viene utilizzato in 6 benchmark per le prestazioni delle domande e risposte (MMLU, ARC, RACE, HHH, TruthfulQA e GSM8K), il RANKING DI EQUILIBRIO supera significativamente le tecniche di decodifica generative, discriminanti e miste attualmente in uso. In senso più ampio, i loro risultati dimostrano come l’insieme di strumenti basati sulla teoria dei giochi possa essere utilizzato per formalizzare e migliorare la coerenza nei LM. Anche l’accuratezza dei compiti fattuali migliora grazie a una maggiore coerenza.