Una nuova ricerca sull’IA da parte di Stanford spiega il ruolo delle espressioni di eccessiva fiducia e incertezza nei modelli di linguaggio
New Stanford research on AI explains the role of excessive confidence and uncertainty in language models.
A mano a mano che i sistemi di linguaggio naturale diventano sempre più diffusi in scenari reali, tali sistemi devono comunicare correttamente le incertezze. Gli esseri umani spesso si affidano alle espressioni di incertezza per informare i processi decisionali, che vanno dal prendere un ombrello a iniziare una cura chemioterapica. Tuttavia, c’è la necessità di ricerca su come le incertezze linguistiche interagiscono con i sistemi di generazione del linguaggio naturale, risultando nella necessità di comprendere questo componente critico di come i modelli interagiscono con il linguaggio naturale.
Recenti studi hanno esplorato la capacità dei modelli di linguaggio (LM) di interpretare le espressioni di incertezza e come il loro comportamento cambia quando vengono addestrati a emettere le proprie espressioni di incertezza. Le espressioni naturalistiche di incertezza possono includere segnali di esitazione, attribuzione di informazioni o riconoscimento di limitazioni, tra gli altri atti discorsivi. Mentre le ricerche precedenti si sono concentrate sull’apprendimento della corrispondenza tra le probabilità interne di un modello e un output verbale o numerico ordinale, l’attuale studio cerca di incorporare nei modelli di generazione del linguaggio naturale caratteristiche linguistiche non unidimensionali come freni, indicatori epistemici, verbi attivi e indicatori di evidenza.
Lo studio esamina il comportamento di ampi modelli di linguaggio (LM) nell’interpretazione e nella generazione di incertezza in prompt nel contesto di compiti di domanda-risposta (QA). Lo studio ha condotto esperimenti in un ambiente di zero-shot per isolare gli effetti dell’incertezza nella sollecitazione e in uno scenario di apprendimento in contesto per esaminare come l’apprendimento dell’espressione dell’incertezza influisce sulla generazione nei compiti di domanda-risposta.
- Incontra PaLM-E un nuovo modello di linguaggio multimodale incorporato con 562 miliardi di parametri che esegue compiti come la pianificazione della manipolazione robotica e la QA visiva.
- Approfondimento su Llama 2 Nuovo modello di fondazione Open Source di Meta AI
- Affrontare la curva di apprendimento la lotta dell’Intelligenza Artificiale con la memorizzazione della memoria
Lo studio ha scoperto che l’utilizzo di espressioni di alta certezza può comportare limitazioni sia in termini di accuratezza che di calibrazione. In particolare, si sono verificate perdite sistematiche in termini di accuratezza quando le espressioni di certezza venivano utilizzate per rafforzare le preposizioni. Inoltre, insegnare al LM di emettere attenuanti invece di rafforzatori ha portato a una migliore calibrazione senza sacrificare l’accuratezza. Lo studio ha introdotto una tipologia di espressioni di incertezza per valutare come le caratteristiche linguistiche influenzino la generazione del LM.
I risultati suggeriscono che progettare modelli linguisticamente calibrati sia cruciale, data la possibilità di inconvenienti derivanti da modelli che emettono linguaggio altamente certo. I contributi dello studio includono quanto segue:
- Fornire un quadro e un’analisi di come le espressioni di incertezza interagiscono con i LM.
- Introdurre una tipologia di espressioni di incertezza.
- Dimostrare i problemi di accuratezza che sorgono quando i modelli utilizzano espressioni di certezza o linguaggio idiomatico.
Infine, lo studio suggerisce che le espressioni di incertezza possono portare a una migliore calibrazione rispetto alle espressioni di certezza.
Conclusioni
Lo studio ha analizzato l’impatto delle espressioni naturalistiche di incertezza sul comportamento dei modelli nella sollecitazione di zero-shot e nell’apprendimento in contesto. I ricercatori hanno scoperto che l’utilizzo di espressioni naturalistiche di certezza, come rafforzatori e verbi attivi, e idiomi numerici di incertezza, come “100% certo”, ha diminuito l’accuratezza nella sollecitazione di zero-shot. Tuttavia, insegnare ai modelli ad esprimere attenuanti invece di rafforzatori ha portato a miglioramenti nella calibrazione.
Lo studio suggerisce che potrebbe essere una scelta di progettazione più sicura per le interazioni uomo-computer insegnare ai modelli di emettere espressioni di incertezza solo quando non sono sicuri anziché quando lo sono. Ciò perché lavori precedenti hanno dimostrato che la decisione assistita dall’IA ha prestazioni peggiori rispetto alla decisione umana da sola, il che suggerisce una dipendenza eccessiva dall’IA. Insegnare ai modelli potrebbe aggravare questa situazione emettendo espressioni di certezza, data la scarsa calibrazione e la fragilità dei modelli stessi.
I ricercatori raccomandano che la comunità si concentri sull’addestramento dei modelli ad emettere espressioni di incertezza mentre si svolgono ulteriori ricerche per indagare come gli esseri umani interpretino le espressioni naturalistiche generate.