GPT e Psicologia Umana

GPT and Human Psychology

Analogie con il Pensiero e il Ragionamento Umano

Lo stato dell’IA è cambiato drasticamente con i modelli di testo generativo, come ChatGPT, GPT-4 e molti altri.

Questi modelli GPT (Generative Pretrained Transformer) sembrano aver rimosso la soglia per addentrarsi nell’intelligenza artificiale per coloro che non hanno una formazione tecnica. Chiunque può iniziare a fare un sacco di domande ai modelli e ottenere risposte spaventosamente accurate.

Almeno, nella maggior parte dei casi…

Quando non riesce a riprodurre l’output corretto, non significa che non sia in grado di farlo. Spesso, dobbiamo semplicemente cambiare ciò che chiediamo, ossia il prompt, in modo da guidare il modello verso la risposta corretta.

Questo è spesso definito “ingegneria dei prompt”.

Molte delle tecniche nell’ingegneria dei prompt cercano di imitare il modo in cui pensiamo noi umani. Chiedere al modello di “pensare ad alta voce” o “pensiamo passo dopo passo” sono ottimi esempi di come il modello imiti il nostro modo di pensare.

Queste analogie tra i modelli GPT e la psicologia umana sono importanti perché ci aiutano a capire come possiamo migliorare l’output dei modelli GPT. Ci mostrano le capacità che potrebbero mancare.

Questo non significa che sto promuovendo un modello GPT come intelligenza generale, ma è interessante vedere come e perché stiamo cercando di far “pensare” i modelli GPT come gli esseri umani.

Molte delle analogie che vedrete qui sono anche discusse nel video sottostante. Andrej Karpathy condivide preziose intuizioni sui modelli linguistici di grandi dimensioni da una prospettiva psicologica ed è sicuramente degno di essere guardato!

Un eccellente video che descrive lo stato dei modelli GPT utilizzando interessanti analogie psicologiche.

Come data scientist e psicologo, questo è un argomento che mi sta a cuore. È incredibilmente interessante vedere come questi modelli si comportano, come vorremmo che si comportassero e come li stiamo spingendo a comportarsi come noi.

Ci sono diversi argomenti in cui le analogie tra i modelli GPT e la psicologia umana offrono interessanti intuizioni che saranno discusse in questo articolo:

Una panoramica di ciò che sarà discusso in questo articolo.

DISCLAIMER: Parlando delle analogie dei modelli GPT con la psicologia umana, c’è un rischio coinvolto, ovvero l’antropomorfismo dell’Intelligenza Artificiale. In altre parole, umanizzare questi modelli GPT. Questo non è assolutamente la mia intenzione. Questo post non riguarda rischi esistenziali o intelligenza generale, ma è semplicemente un esercizio divertente che cerca di trovare somiglianze tra noi e i modelli GPT. Se vuoi, prendilo con le pinze!

Prompting

Un prompt è ciò che chiediamo a un modello GPT, ad esempio: “Crea una lista di 10 titoli di libri”.

Quando proviamo diverse domande nella speranza di migliorare le prestazioni del modello, allora applichiamo l’ingegneria dei prompt.

In psicologia, ci sono molti modi diversi per suggerire a una persona di mostrare determinati comportamenti, che vengono tipicamente utilizzati in applicazioni di comportamento applicato (ABA) per imparare nuovi comportamenti.

C’è una differenza netta tra come funziona questo nei modelli GPT e in psicologia. In psicologia, il prompting riguarda l’apprendimento di nuovi comportamenti, qualcosa che l’individuo non poteva fare prima. Per un modello GPT, si tratta di dimostrare comportamenti precedentemente non visti.

La distinzione principale sta nel fatto che un individuo impara qualcosa di completamente nuovo e, fino a un certo punto, cambia come individuo. Al contrario, il modello GPT era già in grado di mostrare quel comportamento ma non lo faceva a causa delle sue circostanze, ossia i prompt. Anche quando si riesce a ottenere un comportamento “appropriato” dal modello, il modello stesso non cambia.

Il prompting nei modelli GPT è anche molto meno sottile. Molte delle tecniche di prompting sono esplicite quanto possibile (ad esempio, “Sei uno scienziato. Riassumi questo articolo.”).

Imitazione del comportamento

I modelli GPT sono imitatori. Sono addestrati su enormi quantità di dati testuali e cercano di replicarli nel miglior modo possibile.

Ciò significa che quando si fa una domanda al modello, cerca di generare una sequenza di parole che si adatti meglio a ciò che ha visto durante l’addestramento. Con una quantità sufficiente di dati di addestramento, questa sequenza di parole diventa sempre più coerente.

Tuttavia, un modello del genere non ha delle capacità intrinseche di comprendere veramente il comportamento che sta imitando. Come molte cose in questo articolo, se un modello GPT è veramente in grado di ragionare è sicuramente aperto a discussione e spesso suscita discussioni appassionate.

Anche se abbiamo delle capacità intrinseche per imitare il comportamento, è molto più complesso e ha delle basi sia nelle costruzioni sociali che nella biologia. Tendiamo, in qualche misura, a comprendere il comportamento imitato e possiamo facilmente generalizzarlo.

Identità

Abbiamo una preconcetta idea di chi siamo, di come le nostre esperienze ci hanno plasmato e delle opinioni che abbiamo del mondo. Abbiamo un’identità.

I modelli GPT non hanno un’identità. Hanno molte conoscenze sul mondo in cui viviamo e sanno che tipo di risposte potremmo preferire, ma non hanno un senso di “sé”.

Non sono necessariamente orientati verso determinate opinioni come lo siamo noi. Dal punto di vista dell’identità, sono un tavolozza vuota. Ciò significa che, dato che un modello GPT ha molte conoscenze sul mondo, ha alcune capacità di imitare l’identità che gli viene richiesta.

Ma come sempre, è solo un comportamento imitato.

Ha però un vantaggio significativo. Possiamo chiedere al modello di assumere il ruolo di uno scienziato, scrittore, redattore, ecc. e cercherà di adattarsi. Orientandolo verso determinate identità, le sue risposte saranno più adatte al compito.

Competenze

Questo è un argomento interessante. Ci sono molte fonti per valutare i modelli di Linguaggio Naturale Estesi su una vasta gamma di test, come la Hugging Face Leaderboard o l’utilizzo di valutazioni Elo per sfidare i modelli di Linguaggio Naturale Estesi.

Questi sono test importanti per valutare le capacità di questi modelli. Tuttavia, ciò che considero una forza di un certo modello, potrebbe non essere condiviso da tutti.

Ciò riguarda il modello stesso. Anche se gli diciamo i punteggi di questi test, non sa ancora dove si trovino le sue forze e debolezze in relazione agli altri. Ad esempio, se GPT-4 supera l’esame da avvocato, che generalmente consideriamo una grande forza, potrebbe non rendersi conto che superare solo l’esame da avvocato non è una forza quando si trova in una stanza piena di avvocati esperti.

In altre parole, dipende molto dal contesto della situazione quando le capacità di una persona sono considerate forze o debolezze. Lo stesso vale per le nostre capacità. Potrei pensare di essere competente nei modelli di Linguaggio Naturale Estesi, ma se mi circondi di persone come Andrew Ng, Sebastian Raschka, ecc., improvvisamente la mia conoscenza sui modelli di Linguaggio Naturale Estesi non è più una forza come lo era prima.

Questo è importante perché il modello non sa istintivamente quando qualcosa è una forza o una debolezza, quindi dovresti dirglielo.

Ad esempio, se ritieni che il modello sia scarso nel risolvere equazioni matematiche, puoi dirgli di non eseguire mai calcoli da solo ma di utilizzare invece il plugin Wolfram.

Al contrario, anche se affermiamo di avere un’idea delle nostre forze e debolezze, queste sono spesso soggettive e tendono ad essere fortemente influenzate.

Strumenti

Come già accennato, un modello GPT non sa in cosa è bravo o meno in situazioni specifiche. Puoi aiutarlo a comprendere la situazione aggiungendo una spiegazione della situazione alla richiesta. Descrivendo la situazione, il modello sarà orientato a generare risposte più accurate.

Ciò non sempre lo renderà in grado di affrontare tutti i compiti. Come gli esseri umani, spiegare la situazione aiuta ma non supera tutte le loro debolezze.

Invece, quando ci troviamo di fronte a qualcosa che non siamo in grado di fare al momento, spesso ci affidiamo a strumenti per superarli. Usiamo una calcolatrice per fare equazioni complesse o usiamo un’auto per un trasporto più veloce.

Questa dipendenza da strumenti esterni non è qualcosa che un modello GPT fa automaticamente. Dovrai dire al modello di utilizzare uno specifico strumento esterno quando sei convinto che non sia in grado di svolgere un certo compito.

Ciò che è importante qui è che ci affidiamo a un’enorme quantità di strumenti quotidianamente, come il telefono, le chiavi, gli occhiali, ecc. Dare a un modello GPT le stesse capacità può essere un aiuto enorme per le sue prestazioni. Questi strumenti esterni sono simili ai plugin disponibili su OpenAI.

Uno svantaggio principale di ciò è che questi modelli non utilizzano automaticamente gli strumenti. Accederanno solo ai plugin se dici al modello che è una possibilità.

Monologo interno

In genere abbiamo una voce interiore con cui dialoghiamo quando risolviamo problemi difficili. “Se faccio questo, allora otterrò questi risultati, ma se faccio quello, potrei ottenere una soluzione migliore”.

I modelli GPT non mostrano automaticamente questo comportamento. Quando gli fai una domanda, generano semplicemente una serie di parole che logicamente dovrebbero seguire quella domanda. Certo, calcolano quelle parole, ma non sfruttano quelle parole per creare questo monologo interno.

Come si è scoperto, chiedere al modello di “pensare ad alta voce” dicendo “Pensiamo passo dopo passo” tende a migliorare notevolmente le risposte che dà. Questo è chiamato catena di pensieri e cerca di emulare i processi di pensiero dei ragionatori umani. Questo non significa necessariamente che il modello stia “ragionando”, ma è interessante vedere quanto migliorano le sue prestazioni.

Come bel bonus, il modello non esegue internamente questo monologo, quindi seguire ciò che il modello sta pensando fornisce straordinari approfondimenti sul suo comportamento.

Questa “voce interiore” è piuttosto semplificata rispetto al nostro modo di funzionare. Siamo molto più dinamici nelle “conversazioni” che abbiamo con noi stessi, così come nel modo in cui abbiamo quelle “conversazioni”. Può essere simbolico, motorio o persino emotivo. Ad esempio, molti atleti si immaginano mentre praticano lo sport in cui eccellono come modo per allenarsi per la cosa effettiva. Questo si chiama immaginazione mentale.

Queste conversazioni ci permettono di fare brainstorming. Usiamo questo per venire con nuove idee, risolvere problemi e capire il contesto in cui appare un problema. Un modello GPT, al contrario, dovrà essere esplicitamente informato di fare brainstorming per una soluzione attraverso istruzioni molto specifiche.

Possiamo inoltre correlare questo ai nostri processi di pensiero del sistema 1 e del sistema 2. Il pensiero del sistema 1 è un processo automatico, intuitivo e quasi istantaneo. Qui abbiamo molto poco controllo. Al contrario, il sistema 2 è un processo cosciente, lento, logico e impegnativo.

Dando a un modello GPT la capacità di auto-riflessione, stiamo essenzialmente cercando di imitare il modo di pensare del sistema 2. Il modello impiega più tempo per generare una risposta e la esamina attentamente invece di generare rapidamente una risposta.

In sostanza, si potrebbe dire che senza alcuna ingegneria di prompt, abilitiamo il suo processo di pensiero del sistema 1, mentre senza istruzioni specifiche e processi di catena di pensiero, abilitiamo il suo modo di pensare del sistema 2.

Se vuoi saperne di più sul nostro pensiero del sistema 1 e sistema 2, c’è un libro straordinario chiamato Pensare, Veloce e Lento che vale la pena leggere!

Memoria

Andrej Karpathy, nel suo video menzionato all’inizio dell’articolo, fa un’ottima comparazione tra le capacità di memoria di un essere umano rispetto a quelle di un modello GPT.

La nostra memoria è piuttosto complessa, abbiamo la memoria a lungo termine, la memoria di lavoro, la memoria a breve termine, la memoria sensoriale e altro ancora.

Possiamo, in modo molto approssimativo, considerare la memoria di un modello GPT come quattro componenti e confrontarla con i nostri stessi sistemi di memoria:

  • Memoria a lungo termine
  • Memoria di lavoro
  • Memoria sensoriale
  • Memoria esterna

La memoria a lungo termine di un modello GPT può essere considerata come le cose che ha imparato durante l’addestramento su miliardi di dati. Quelle informazioni sono, fino a un certo punto, rappresentate all’interno del modello che può riprodurle perfettamente ogni volta che vuole. Questa memoria a lungo termine rimarrà con il modello per tutta la sua esistenza. Al contrario, la nostra memoria a lungo termine può decadere nel tempo, spesso indicata come teoria del decadimento.

La memoria a lungo termine di un modello GPT è perfetta e non decadente nel tempo

La memoria di lavoro di un modello GPT è tutto ciò che rientra nel prompt che gli viene dato. Il modello può utilizzare tutte queste informazioni perfettamente per eseguire i suoi calcoli e restituire una risposta. Questo è un ottimo parallelo con la nostra memoria di lavoro, poiché è un tipo di memoria che ha una capacità limitata di contenere temporaneamente informazioni. Ad esempio, un modello GPT “dimenticherà” il suo prompt dopo aver dato la sua risposta. La ragione per cui sembra ricordare la conversazione è che, insieme al prompt, viene aggiunta la cronologia della conversazione al prompt.

Un modello GPT è dimentico quando si tratta di nuove informazioni

La memoria sensoriale si riferisce al modo in cui conserviamo le informazioni derivanti dai nostri sensi, come informazioni visive, uditive e tattili. Utilizziamo queste informazioni e le trasferiamo alla nostra memoria a breve o di lavoro per l’elaborazione. Questo è simile ai modelli GPT multimodali, modelli che lavorano su testo, immagini e persino suoni.

Tuttavia, potrebbe essere più appropriato dire che i modelli GPT hanno una memoria di lavoro e una memoria a lungo termine multimodali piuttosto che una memoria sensoriale. Questi modelli accoppiano strettamente dati multimodali con le loro diverse forme di “memoria”. Quindi, come abbiamo visto in precedenza, sembra piuttosto imitare la memoria sensoriale.

Un modello GPT imita la memoria sensoriale con una procedura di addestramento multimodale

Infine, i modelli GPT diventano molto più forti quando gli si fornisce una memoria esterna. Questo si riferisce a un database di informazioni a cui può accedere ogni volta che vuole, come diversi libri di fisica. Al contrario, la nostra memoria esterna utilizza indizi dall’ambiente per aiutarci a ricordare determinate idee e sensazioni. In un certo senso, si tratta di accedere a informazioni esterne rispetto a ricordare informazioni interne.

NOTA: Non ho menzionato la memoria a breve termine. C’è molta discussione tra memoria a breve termine e memoria di lavoro e se in realtà non siano la stessa cosa. Una differenza spesso menzionata è che la memoria di lavoro fa più di una semplice memorizzazione a breve termine delle informazioni, ma ha anche la capacità di manipolarle. Inoltre, ha un’analogia migliore con un modello GPT, quindi cerchiamo di selezionare le informazioni qui.

Autonomia

Come abbiamo visto in tutto questo articolo, se vogliamo che un modello GPT faccia qualcosa, dobbiamo dirglielo.

È importante notare che ciò è correlato a un senso di autonomia. Di default, abbiamo un certo grado di autonomia. Se decido di prendere una bevanda, posso farlo.

Questo è diverso per un modello GPT in quanto non ha autonomia di default. Non può operare in modo indipendente senza fornirgli gli strumenti necessari e l’ambiente per farlo.

Possiamo dare autonomia a un modello GPT facendogli creare una serie di compiti da eseguire per raggiungere un determinato obiettivo. Per ogni compito, scrive i passaggi per completarlo, li riflette e li esegue se ha gli strumenti per farlo.

AutoGPT è un ottimo esempio di dare autonomia a un modello GPT

Di conseguenza, ciò di cui il modello è in grado dipende molto dall’ambiente, in misura arguabilmente maggiore rispetto a quanto il nostro ambiente ci influenzi. Ciò è abbastanza impattante considerando l’effetto che il nostro ambiente ha su di noi.

Ciò significa anche che sebbene un modello GPT possa mostrare un comportamento autonomo complesso e impressionante, è fisso. Non può decidere di utilizzare uno strumento che non gli abbiamo mai detto che esisteva. Noi, invece, siamo più adattabili a nuovi strumenti sconosciuti.

Allucinazione

Un problema comune dei modelli GPT è la loro capacità di affermare con sicurezza qualcosa che semplicemente non è vero né supportato dai dati di addestramento.

Ad esempio, quando si chiede a un modello GPT di generare informazioni factuali, come il fatturato di Apple nel 2019, potrebbe generare informazioni completamente false.

Questo viene chiamato allucinazione.

Il termine deriva dall’allucinazione in psicologia umana, dove crediamo che qualcosa che vediamo sia vero mentre in realtà non lo è. La differenza principale qui è che l’allucinazione umana si basa sulla percezione, mentre un modello “allucina” fatti incorretti.

Potrebbe essere più appropriato paragonarlo a falsi ricordi. La tendenza degli esseri umani a ricordare qualcosa in modo diverso da come è realmente accaduto. Questo è simile a un modello GPT che cerca di riprodurre cose che in realtà non sono mai accadute.

Curiosamente, possiamo generare più facilmente falsi ricordi con suggestibilità, priming, framing, ecc. Questo sembra corrispondere più da vicino a come un modello GPT “allucina” poiché il prompt che riceve ha un’influenza molto elevata.

I nostri ricordi possono essere influenzati anche da prompt/frasi che riceviamo dagli altri. Ad esempio, chiedendo a una persona “Di che colore era questa macchina?” stiamo implicitamente fornendo alla persona un presunto “fatto”, ovvero che la macchina era rossa anche quando non lo era. Ciò può generare falsi ricordi ed è definito presupposizione.

Grazie per aver letto!

Se sei, come me, appassionato di AI, Data Science o Psicologia, sentiti libero di aggiungermi su LinkedIn, seguirmi su Twitter o iscriverti alla mia Newsletter. Puoi anche trovare alcuni dei miei contenuti sul mio Sito Personale.

Tutte le immagini senza attribuzione della fonte sono state create dall’autore