Il corso di filosofia per ChatGPT questa ricerca sull’AI esplora il comportamento di LLMs negli agenti di dialogo.

The philosophy course for ChatGPT explores LLMs behavior in dialogue agents for AI research.

Il 2023 è l’anno degli LLM. ChatGPT, GPT-4, LLaMA e altri ancora. Un nuovo modello LLM sta attirando l’attenzione uno dopo l’altro. Questi modelli hanno rivoluzionato il campo dell’elaborazione del linguaggio naturale e vengono sempre più utilizzati in vari domini.

Gli LLM possiedono la notevole capacità di esibire una vasta gamma di comportamenti, inclusa la partecipazione al dialogo, che può portare a una convincente illusione di conversare con un interlocutore simile a un essere umano. Tuttavia, è importante riconoscere che gli agenti di dialogo basati su LLM differiscono significativamente dagli esseri umani su diversi aspetti.

Le nostre competenze linguistiche si sviluppano attraverso l’interazione corporea con il mondo. Noi, come individui, acquisiamo capacità cognitive e abilità linguistiche attraverso la socializzazione e l’immersione in una comunità di utenti della lingua. Questa parte avviene più rapidamente nei bambini e, man mano che invecchiamo, il nostro processo di apprendimento si rallenta; ma i fondamenti rimangono gli stessi.

Al contrario, gli LLM sono reti neurali senza corpo addestrate su vaste quantità di testo generato dall’essere umano, con l’obiettivo primario di prevedere la prossima parola o token in base a un contesto dato. La loro formazione ruota attorno all’apprendimento di schemi statistici dai dati linguistici anziché attraverso l’esperienza diretta del mondo fisico.

Nonostante queste differenze, tendiamo ad utilizzare gli LLM per imitare gli esseri umani. Lo facciamo nei chatbot, negli assistenti, ecc. Tuttavia, questo approccio pone un dilemma impegnativo. Come descriviamo e comprendiamo il comportamento degli LLM?

È naturale utilizzare un linguaggio folk-psicologico familiare, utilizzando termini come “sa”, “capisce” e “pensa” per descrivere gli agenti di dialogo, come faremmo con gli esseri umani. Tuttavia, quando presi troppo alla lettera, tali linguaggi promuovono l’antropomorfismo, esagerando le somiglianze tra i sistemi di intelligenza artificiale e gli esseri umani, oscurando nel contempo le loro profonde differenze.

Quindi, come affrontiamo questo dilemma? Come possiamo descrivere i termini “comprensione” e “conoscenza” per i modelli di intelligenza artificiale? Entriamo nel paper Role Play.

In questo paper, gli autori propongono di adottare quadri concettuali e metafore alternative per pensare e parlare efficacemente degli agenti di dialogo basati su LLM. Essi sostengono due metafore principali: visualizzare l’agente di dialogo come un personaggio che interpreta un ruolo singolo o come una sovrapposizione di simulacri all’interno di un multiverso di personaggi possibili. Queste metafore offrono diverse prospettive per comprendere il comportamento degli agenti di dialogo e hanno i loro vantaggi distinti.

Esempio di campionamento autoregressivo. Fonte: https://arxiv.org/pdf/2305.16367.pdf

La prima metafora descrive l’agente di dialogo come un personaggio che interpreta un ruolo specifico. Quando gli viene dato un suggerimento, l’agente cerca di continuare la conversazione in modo da corrispondere al ruolo o alla personalità assegnati. Si propone di rispondere in base alle aspettative associate a quel ruolo.

La seconda metafora vede l’agente di dialogo come una collezione di diversi personaggi provenienti da varie fonti. Questi agenti sono stati addestrati su una vasta gamma di materiali come libri, sceneggiature, interviste e articoli, che dà loro molte conoscenze su diversi tipi di personaggi e trame. Man mano che la conversazione prosegue, l’agente regola il suo ruolo e la sua personalità in base ai dati di addestramento che ha, consentendogli di adattarsi e rispondere in modo coerente.

Esempio di turn-taking negli agenti di dialogo. Fonte: https://arxiv.org/pdf/2305.16367.pdf

Adottando questo framework, i ricercatori e gli utenti possono esplorare importanti aspetti degli agenti di dialogo, come la menzogna e la consapevolezza di sé, senza attribuire erroneamente questi concetti agli esseri umani. Invece, l’attenzione si sposta sulla comprensione di come gli agenti di dialogo si comportano in scenari di gioco di ruolo e dei vari personaggi che possono imitare.

In conclusione, gli agenti di dialogo basati su LLM possiedono la capacità di simulare conversazioni simili a quelle umane, ma differiscono significativamente dagli utenti del linguaggio umano effettivi. Utilizzando metafore alternative, come vedere gli agenti di dialogo come giocatori di ruolo o combinazioni di simulazioni, possiamo comprendere e discutere meglio il loro comportamento. Queste metafore forniscono informazioni sulle complesse dinamiche dei sistemi di dialogo basati su LLM, consentendoci di apprezzare il loro potenziale creativo mentre riconosciamo la loro fondamentale differenza dagli esseri umani.