Riflessione, Rapida e Lenta + Intelligenza Artificiale
Riflessione, Rapida e Lenta + IA
L’IA corregge la matematica sfruttando la psicologia umana

“Il cervello umano contiene un meccanismo progettato per dare priorità alle brutte notizie.” – Daniel Kahneman
“Pensare, veloce e lento” è un libro di successo del New York Times scritto dallo psicologo e premio Nobel Daniel Kahneman. Il libro presenta la sua ipotesi su come e cosa guida il nostro pensiero.
Questa sua ipotesi viene attualmente sfruttata da chatbot basati su intelligenza artificiale come il Bard di Google per rendere più efficienti e accurate le loro risposte.
Ma come esattamente l’ipotesi di Daniel Kahneman descritta nel libro aiuta lo sviluppo dei chatbot basati su intelligenza artificiale?
- Una nuova ricerca sull’IA proveniente dalla Cina combina metodi di apprendimento automatico con domande per rivelare nuove dimensioni nelle connessioni tra le relazioni tra supervisore e studente.
- Incontra Animate-A-Story Un Approccio Narrativo con Generazione di Video Potenziata da Retrieval che può Sintetizzare Video di Alta Qualità, Strutturati e Orientati ai Personaggi
- Un team dell’Australia vince una sovvenzione per unire l’IA alle cellule del cervello umano
Questo sarà esattamente di cosa parleremo in questo articolo.
I due sistemi che guidano il pensiero

Il libro di Kahneman esplora due sistemi di pensiero:
- pensiero basato sull’intuizione (chiamato pensiero del Sistema 1); e
- pensiero lento (chiamato pensiero del Sistema 2).
Secondo Kahneman, il Sistema 1 è veloce, basato sull’istinto ed emotivo; mentre il Sistema 2 è lento, riflessivo e logico. Entrambi i sistemi svolgono un ruolo cruciale nella presa di decisioni, ma un sistema tende ad essere più attivo dell’altro a seconda della situazione.
Il Sistema 1 opera rapidamente e senza sforzo. L’azione sotto questo sistema richiede poca o nessuna fatica e non ha senso di controllo volontario.
Questo include azioni come leggere parole su un poster, rilevare se un oggetto è lontano o vicino rispetto a un altro oggetto, identificare un suono che si sente e così via.
Il Sistema 2, d’altra parte, è più consapevole e logico. Le azioni sotto questo sistema richiedono molto tempo e volontà di controllo. Questo sistema si attiva quando si effettua pensiero astratto e logico.
Questo include azioni come identificare qualcuno in una folla, fare calcoli complessi mentalmente, giocare a scacchi e così via.
Recentemente, il concetto di due sistemi viene utilizzato da Bard (il chatbot basato su intelligenza artificiale di Google) per migliorare le sue operazioni matematiche e stringhe, rendendo la sua risposta più dinamica e precisa.
Ma come Bard utilizza questo concetto psicologico per migliorare il proprio sistema di intelligenza artificiale?
Come i principi del pensiero aiutano l’IA

Prima di immergerci, cerchiamo di capire i principali vantaggi e svantaggi di ogni sistema.
Il libro sottolinea che il pensiero del Sistema 1 è responsabile del 98% di tutto il nostro pensiero, mentre il pensiero del Sistema 2 è responsabile del restante 2% ed è schiavo del Sistema 1.
Ma entrambi i sistemi hanno vantaggi e svantaggi e influenzano pesantemente le nostre capacità decisionali.
Svantaggi di ogni sistema
Confidare troppo nel pensiero del Sistema 1 può portare a pregiudizi e errori. Alcuni dei limiti del pensiero del Sistema 1 sono i seguenti:
- Grande indulgenza nel pregiudizio di conferma
- Tendenza a trascurare dettagli concreti e importanti
- Ignorare le prove che non ci piacciono, che porta all’ignoranza
- Pensare troppo a decisioni apparentemente semplici o irrilevanti
- Produrre giustificazioni discutibili per decisioni sbagliate
e così via.
Ciao lettori! Spero che stiate apprezzando questo articolo. Questo articolo fa parte della mia newsletter Creative Block: una newsletter settimanale su Tech e IA.
Se desideri leggere altri contenuti come questo, vai su Creative Block
D’altra parte, fare affidamento esclusivamente sul pensiero del Sistema 2 può portare anche a errori e conseguenze negative. Questi includono:
- Riflettere troppo su decisioni semplici e sprecare una enorme quantità di tempo
- Incapacità di prendere decisioni rapide
- Eccessivo scetticismo eccessivo eccessivo
- Fatica decisionale e sovraccarico cognitivo
- Prendere decisioni troppo logiche e non tenere conto delle emozioni
Due sistemi di pensiero: Applicati all’Intelligenza Artificiale
Mentre nel dominio umano questo è fortemente psicologico, le cose diventano molto interessanti quando questo concetto viene applicato all’Intelligenza Artificiale e alla Computazione.
Gli LLM (modelli di IA che alimentano chatbot come Bard e CHatGPT) possono essere considerati come eseguiti nel Sistema 1.
Come?
Gli LLM (i modelli di IA che eseguono questi chatbot) lavorano trovando modelli nei miliardi di dati di addestramento su cui sono stati addestrati, e generano una risposta che corrisponde al modello comune. Ad esempio, quando chiedi a un chatbot di “scrivere un saggio sul cambiamento climatico”, ecco il processo nel backend:
- Trovare query corrispondenti nel suo vasto database di addestramento. Il chatbot cerca di trovare una query comune che includa le parole chiave “cambiamento climatico” e “saggi”.
- Trovare una tendenza o un modello. Il chatbot cerca quindi di trovare una tendenza o un modello comune tra tutti i dati selezionati. Ad esempio, il modello potrebbe essere che quasi tutti i dati devono menzionare “emissioni di carbonio”, “impronta di carbonio”, “inquinamento da plastica”, “riscaldamento globale” e così via. Inoltre, i formati di titolo e paragrafo degli saggi sono anch’essi un modello a sé stante (a differenza di altri formati come poesie, blog, ecc.).
- Generare un testo in base al modello. Questa è la parte divertente. Pensa a questo processo come a risolvere un puzzle. Il chatbot cerca di generare il testo utilizzando i pezzetti di dati (i pezzi del puzzle) e cerca di farlo assomigliare al modello di un saggio simile (le immagini finali), che in questo caso è un saggio sul cambiamento climatico. Crea diverse iterazioni (cioè output) del prompt che hai dato e le confronta con i dati di riferimento, che potrebbe essere un saggio già scritto sul cambiamento climatico.
- Fornire l’output. Viene scelta l’iterazione che corrisponde più da vicino al risultato desiderato e viene stampata sullo schermo.
Questo processo può sembrare lungo, ma viene eseguito in pochi secondi nei LLM tradizionali. Il primo passo viene eseguito molto prima nella fase di sviluppo e addestramento di un LLM, che consiste nel modello di IA che viene addestrato su set di dati contenenti miliardi di dati. Dopo aver imparato da questo enorme set di dati e aver trovato il modello in tutti loro, la parte più complessa e difficile del processo LLM è completata.

Il resto del processo è piuttosto veloce, principalmente grazie alla qualità dei dati su cui è stato addestrato il modello. In generale, migliori sono i dati di addestramento forniti, migliori saranno le previsioni e la generazione.
Di conseguenza, gli LLM generano testi senza sforzo senza “pensare” molto. Trovano semplicemente il modello e confrontano l’output con il riferimento.
Pertanto, gli LLM si trovano nel Sistema 1 – che è rapido ed efficiente. Tuttavia, lo svantaggio di ciò è che gli LLM possono generare output errati e distorti, e persino inventare fatti e cifre (allucinazione dell’IA).
Questo è il motivo del caso seguente, dove a volte il Bard mostra risultati senza sforzo per compiti difficili, ma fallisce miseramente nei compiti facili come quello qui sotto –

Questo perché risolvere un certo problema matematico è efficiente quando si segue una sequenza specifica di passaggi, anziché fare affidamento su “modelli” di problemi matematici simili.
Ecco dove funziona meglio il calcolo tradizionale. Ad esempio, il modo in cui funzionano le calcolatrici nel tuo computer.
La computazione tradizionale segue una sequenza o una struttura, che si presenta sotto forma di codice o di un semplice algoritmo. A questo proposito, la computazione tradizionale è preferita per svolgere compiti come risolvere problemi matematici, manipolare operazioni di stringa, effettuare conversioni e così via. Lo svantaggio è che, poiché segue un formato specifico, potrebbe non essere necessariamente veloce o efficiente nella maggior parte dei casi. Il computer tradizionale può trovare la risposta a domande come 12*24 = 288, ma impiega più tempo per fare calcoli di tipo matematico.
Tuttavia, il punto positivo qui è che è quasi certo di ottenere la risposta corretta nella maggior parte dei casi.
Si osserva che la computazione tradizionale è piuttosto lenta, più logica e strutturata rispetto alle LLM (Machine Learning Language Models).
Quindi la computazione tradizionale rientra nel sistema 2. È relativamente lenta, molto più sistematica e logica. Consiste in un algoritmo, un codice o qualsiasi altro sistema di esecuzione codificato.
Google’s Bard sta cercando interessantemente di utilizzare entrambi i sistemi per rendere le risposte del loro chatbot più ottimali.
Come usa Bard
Bard ha avuto un inizio difficile quando è stato lanciato. Il video promozionale iniziale che mostrava le capacità di Bard ha ricevuto forti critiche dopo che la risposta conteneva informazioni errate.
Pertanto, era importante per Bard rendere il loro chatbot AI più accurato, con meno pregiudizi o informazioni errate. Questo è un obiettivo sfidante per ridurre le informazioni errate e aumentare l’efficienza in quasi tutti gli strumenti di intelligenza artificiale esistenti.
Pertanto, a causa di questo, Google ha pubblicato un articolo il 7 giugno con il titolo – “Bard sta migliorando nella logica e nel ragionamento“.
L’articolo ha evidenziato due nuove funzionalità di Bard.
Una di esse era la funzione di esportazione in Google Sheets, che consente all’utente di esportare l’output contenente tabelle in Google Sheets.
L’altra funzionalità consentiva a Bard di – nelle loro stesse parole – “migliorare nelle operazioni matematiche, nelle domande di codifica e nella manipolazione delle stringhe”
Bard ha avuto problemi con i problemi matematici in passato, e ancora ogni tanto ne ha. Ma utilizzando l’approccio di combinare i due Sistemi che ho menzionato in precedenza, Bard mira a migliorarsi ora, correggendo i suoi errori matematici banali.
Questa nuova tecnica che Bard utilizza viene chiamata ‘esecuzione implicita del codice’.
Mentre le LLM (Sistema 1, composto da risposte rapide basate su pattern) ricevono il prompt, l’esecuzione implicita del codice consente a Bard di rilevare i prompt computazionali (Sistema 2, composto da esecuzione logica e sistematica) ed eseguire il codice in background.
Questo aiuta Bard a fornire risposte a prompt matematici e basati su stringhe in modo molto più semplice.
Nell’esempio menzionato nell’articolo, Google ha detto che Bard migliorerà nel rispondere a prompt come:
- Quali sono i fattori primi di 15683615?
- Calcola il tasso di crescita dei miei risparmi
- Inverti la parola “Lollipop” per me
Le seguenti estratti dall’articolo catturano l’essenza e la motivazione di utilizzare questo approccio (di utilizzare l’approccio dei due sistemi di pensiero) –
“Di conseguenza, sono stati estremamente capaci di compiti linguistici e creativi, ma più deboli in aree come il ragionamento e la matematica.
Per aiutare a risolvere problemi più complessi con capacità avanzate di ragionamento e logica, non è sufficiente affidarsi solo all’output delle LLM.
Le LLM possono essere considerate come operanti esclusivamente sotto il Sistema 1 – producendo testo rapidamente ma senza pensiero approfondito … La computazione tradizionale si allinea strettamente al pensiero del Sistema 2: è formulistica e inflessibile, ma la sequenza corretta di passaggi può produrre risultati impressionanti, come soluzioni per la divisione lunga.”
– Google nel suo blog
Questo approccio di mantenere le LLM e la computazione tradizionale rispettivamente nei Sistemi 1 e 2 assicura che la risposta sia molto più accurata ed efficiente.
Utilizzando questo approccio, Bard – secondo l’articolo – ha mostrato una precisione di quasi il 30% nel trattare problemi di parole e matematici.
Quanto è affidabile questo nuovo approccio
Sebbene ciò migliori l’accuratezza di Bard nel gestire problemi matematici e di parole, potrebbe non essere il miglior approccio per rendere efficiente il chatbot.
Sebbene mostri un’accuratezza significativa nel trattare problemi matematici e di parole, continua a lottare nel gestire problemi legati al codice.
Anche con questi miglioramenti, Bard non sempre otterrà il risultato corretto – ad esempio, potrebbe non generare codice per aiutare la risposta, il codice generato potrebbe essere errato o Bard potrebbe non includere il codice eseguito nella risposta
Google lo afferma alla fine del blog.
Quindi, sebbene si tratti di un cambiamento significativo, Bard deve comunque percorrere molta strada per essere completamente affidabile.
Ridurre le informazioni errate e aumentare l’efficienza sono le sfide per quasi tutti i chatbot là fuori.
Sebbene si stiano facendo progressi, c’è ancora molta strada da fare.
Questo è tutto per oggi, spero che tu abbia trovato utile questo post
Ci vediamo nel prossimo post 👋
Sei interessato a rimanere aggiornato sugli ultimi eventi nel campo della tecnologia, della scienza e dell’IA?
Allora non vorrai perderti la mia newsletter settimanale gratuita su Substack, dove condivido approfondimenti, notizie e analisi su tutto ciò che riguarda la tecnologia e l’IA.
Creative Block | Aditya Anil | Substack
La newsletter settimanale sull’IA, la tecnologia e la scienza che ti interessa. Clicca per leggere Creative Block, di Aditya…
creativeblock.substack.com