Questo articolo mette alla prova il senso dell’umorismo di ChatGPT oltre il 90% delle battute generate da ChatGPT sono le stesse 25 battute.

ChatGPT's sense of humor is tested in this article. Over 90% of the generated lines are the same 25 lines.

L’umorismo può migliorare le prestazioni e la motivazione umana ed è fondamentale per sviluppare relazioni. È uno strumento efficace per influenzare l’umore e dirigere l’attenzione. Pertanto, un senso dell’umorismo computazionale ha il potenziale per migliorare notevolmente l’interazione uomo-computer (HCI). Purtroppo, anche se l’umorismo computazionale è un’area di studio di lunga data, i computer creati sono lontani dall’essere “divertenti”. Questa problematica è addirittura considerata come “AI-completa”. Tuttavia, miglioramenti in corso e recenti scoperte di apprendimento automatico (ML) creano una vasta gamma di nuove applicazioni e presentano nuove opportunità per l’elaborazione del linguaggio naturale (NLP). 

I modelli di linguaggio di grandi dimensioni (LLM) basati su trasformatori riflettono e catturano sempre più conoscenze implicite, tra cui la morale, l’umorismo e gli stereotipi. L’umorismo è spesso subliminale e guidato da sfumature minime. Quindi c’è motivo di ottimismo per lo sviluppo futuro dell’umorismo artificiale, date queste nuove proprietà di LLM. ChatGPT di OpenAI ha attirato recentemente molta attenzione per le sue capacità innovative. Gli utenti possono avere scambi di conversazioni con il modello attraverso l’API di chat pubblica. Il sistema può rispondere a una vasta gamma di domande considerando il dialogo contestuale precedente. Come si vede in Fig. 1, può anche raccontare barzellette. Divertente da usare, ChatGPT si impegna a un livello umano. 

Figura 1: Un ottimo esempio di dialogo tra un utente umano e un chatbot. La barzelletta è una risposta reale alla domanda che ha fatto ChatGPT.

Tuttavia, i consumatori potrebbero immediatamente vedere i difetti del modello mentre interagiscono con esso. Nonostante produca testo in inglese quasi privo di errori, ChatGPT ha occasionalmente errori grammaticali e relativi ai contenuti. Hanno scoperto che ChatGPT probabilmente ripeterà le stesse barzellette durante l’indagine precedente. Le barzellette offerte erano anche abbastanza accurate e sfumate. Queste scoperte hanno supportato che il modello non ha creato le barzellette prodotte. Invece, sono state copiate dai dati di formazione o addirittura codificate duramente in un elenco. Hanno eseguito diversi esperimenti strutturati basati su prompt per conoscere il comportamento del sistema e consentire l’inferenza riguardo al processo di generazione dell’output di ChatGPT poiché i meccanismi interni del sistema non sono divulgati. 

Ricercatori del Centro Aerospaziale Tedesco (DLR), della Technische Universität Darmstadt e del Centro Hessian per l’AI vogliono sapere, attraverso un’indagine sistematica basata su prompt, quanto bene ChatGPT possa catturare l’umorismo umano. Le tre condizioni sperimentali di inventare barzellette, spiegare barzellette e rilevare barzellette sono raccolte come principale contributo. Il vocabolario dell’intelligenza artificiale utilizza frequentemente confronti con tratti umani, come le reti neurali o la stessa frase di intelligenza artificiale. Inoltre, utilizzano parole relative all’essere umano quando si discutono agenti conversazionali, che mirano a emulare il comportamento umano il più possibile. Ad esempio, ChatGPT “capisce” o “spiega”. 

Anche se pensano che questi confronti catturino accuratamente il comportamento e il funzionamento interno del sistema, potrebbero essere ingannevoli. Vogliono chiarire che i modelli di intelligenza artificiale in discussione non sono a livello umano e, al massimo, sono simulazioni della mente umana. Questo studio non cerca di rispondere alla domanda filosofica se l’IA possa mai pensare o capire coscientemente.