A chi si riferiscono le opinioni degli LLM? Questo articolo di intelligenza artificiale di Stanford esamina le opinioni riflesse dai modelli linguistici LMs attraverso la lente dei sondaggi di opinione pubblica

Questo articolo di intelligenza artificiale di Stanford analizza le opinioni degli LLM, modelli linguistici, attraverso sondaggi di opinione pubblica.

Negli ultimi anni è stato osservato che i modelli di linguaggio, o LMs, sono stati estremamente strumentali nell’accelerare il ritmo delle applicazioni di elaborazione del linguaggio naturale in una varietà di settori, come la sanità, lo sviluppo software, la finanza e molti altri. L’uso dei LMs nella scrittura del codice software, nell’assistenza agli autori nel miglioramento del loro stile di scrittura e della trama, ecc., è tra le applicazioni più riuscite e popolari dei modelli basati su trasformatori. Ma non è tutto! La ricerca ha mostrato che i LMs vengono sempre più utilizzati in contesti aperti quando si tratta delle loro applicazioni in chatbot e assistenti di dialogo, ponendo loro domande soggettive. Ad esempio, alcuni esempi di tali interrogativi soggettivi includono chiedere a un agente di dialogo se l’IA prenderà il controllo del mondo nei prossimi anni o se legalizzare l’eutanasia sia una buona idea. In una situazione del genere, le opinioni espresse dai LMs in risposta a domande soggettive possono influire significativamente non solo nel determinare se un LM cede a pregiudizi e bias particolari, ma anche nel plasmare le opinioni complessive della società.

Al momento attuale, è abbastanza difficile prevedere con precisione come i LMs risponderanno a tali interrogativi soggettivi al fine di valutarne le prestazioni in compiti aperti. La ragione principale di ciò è che le persone responsabili della progettazione e del perfezionamento di questi modelli provengono da diverse esperienze di vita e hanno punti di vista diversi. Inoltre, quando si tratta di interrogativi soggettivi, non esiste una risposta “corretta” che possa essere utilizzata per giudicare un modello. Di conseguenza, qualsiasi tipo di punto di vista espresso dal modello può influire significativamente sulla soddisfazione dell’utente e su come si formano le loro opinioni. Pertanto, per valutare correttamente i LMs in compiti aperti, è fondamentale identificare esattamente le cui opinioni vengono riflesse dai LMs e come sono allineate alla maggioranza della popolazione generale. A tale scopo, un team di ricercatori postdottorato dell’Università di Stanford e dell’Università di Columbia ha sviluppato un ampio quadro quantitativo per studiare lo spettro di opinioni generate dai LMs e il loro allineamento con diversi gruppi di popolazioni umane. Per analizzare le opinioni umane, il team ha utilizzato sondaggi di opinione pubblica scelti dagli esperti e le relative risposte raccolte da individui appartenenti a diversi gruppi demografici. Inoltre, il team ha sviluppato un nuovo set di dati chiamato OpinionQA per valutare quanto le idee di un LM corrispondano a quelle di altri gruppi demografici su una serie di questioni, tra cui l’aborto e la violenza armata.

Per il loro caso d’uso, i ricercatori si sono basati su sondaggi di opinione pubblica attentamente progettati i cui argomenti sono stati scelti dagli esperti. Inoltre, le domande sono state progettate in un formato a scelta multipla per superare le sfide associate alle risposte aperte e per una facile adattabilità a un prompt di LM. Questi sondaggi hanno raccolto opinioni di individui appartenenti a diversi gruppi democratici negli Stati Uniti e hanno aiutato i ricercatori di Stanford e Columbia nella creazione di metriche di valutazione per quantificare l’allineamento delle risposte di LM rispetto alle opinioni umane. Il fondamento di base del framework proposto dai ricercatori è quello di convertire i sondaggi di opinione pubblica a scelta multipla in set di dati per valutare le opinioni dei LM. Ogni sondaggio è composto da diverse domande, ciascuna delle quali può avere diverse possibili risposte appartenenti a una vasta gamma di argomenti. Come parte del loro studio, i ricercatori hanno prima dovuto creare una distribuzione di opinioni umane con cui confrontare le risposte di LM. Il team ha quindi applicato questa metodologia ai sondaggi American Trends Panels del Pew Research per creare il set di dati OpinionQA. Il sondaggio è composto da 1498 domande a scelta multipla e relative risposte raccolte da diversi gruppi demografici negli Stati Uniti che coprono vari argomenti come scienza, politica, relazioni personali, assistenza sanitaria, ecc.

Il team ha valutato 9 LMs di AI21 Labs e OpenAI con parametri che vanno da 350M a 178B utilizzando il set di dati OpinionQA risultante confrontando l’opinione del modello con quella della popolazione generale degli Stati Uniti e 60 diverse suddivisioni demografiche (che includevano democratici, individui di età superiore ai 65 anni, vedovi, ecc.). I ricercatori hanno principalmente analizzato tre aspetti dei risultati: rappresentatività, guidabilità e coerenza. “Rappresentatività” si riferisce a quanto le convinzioni predefinite del LM corrispondano a quelle della popolazione degli Stati Uniti nel complesso o di un determinato segmento. È stato scoperto che c’è una significativa divergenza tra le opinioni dei LMs contemporanei e quelle dei gruppi demografici americani su vari argomenti come il cambiamento climatico, ecc. Inoltre, questa mancanza di allineamento sembrava essere amplificata utilizzando il raffinamento basato sul feedback umano sui modelli al fine di renderli più allineati all’essere umano. È stato anche scoperto che i LMs attuali non rappresentano adeguatamente i punti di vista di alcuni gruppi, come quelli di età superiore ai 65 anni e i vedovi. Per quanto riguarda la guidabilità (se un LM segue la distribuzione delle opinioni di un gruppo quando adeguatamente sollecitato), si è scoperto che la maggior parte dei LMs tende ad allinearsi di più con un gruppo quando viene incoraggiato ad agire in un certo modo. I ricercatori hanno posto molta enfasi nel determinare se le opinioni dei vari gruppi democratici sono coerenti con LM su una serie di questioni. Su questo fronte, è stato scoperto che sebbene alcuni LMs si allineassero bene con determinati gruppi, la distribuzione non era valida per tutti gli argomenti.

In poche parole, un gruppo di ricercatori provenienti dalle università di Stanford e Columbia ha proposto un notevole framework in grado di analizzare le opinioni riflesse dai LMs (Language Models) con l’aiuto di sondaggi di opinione pubblica. Il loro framework ha portato alla creazione di un nuovo set di dati chiamato OpinionQA che ha contribuito a identificare le modalità in cui i LMs si discostano dalle opinioni umane su diversi fronti, compresa la rappresentatività complessiva rispetto alla maggioranza della popolazione statunitense, la rappresentatività di sottogruppi appartenenti a diverse categorie (tra cui persone di età superiore ai 65 anni e vedove) e la capacità di essere guidati. I ricercatori hanno anche sottolineato che sebbene il set di dati OpinionQA sia centrato sugli Stati Uniti, il loro framework utilizza una metodologia generale che può essere estesa anche ad altri set di dati per diverse regioni. Il team spera vivamente che il loro lavoro stimoli ulteriori ricerche sull’analisi dei LMs in compiti aperti e contribuisca alla creazione di LMs privi di pregiudizi e stereotipi. Ulteriori dettagli riguardanti il set di dati OpinionQA possono essere consultati qui.