Le abilità di ragionamento analogico dell’IA una sfida per l’intelligenza umana?

Le abilità analogiche dell'IA sfidano l'intelligenza umana?

Il ragionamento analogico, l’abilità unica che gli esseri umani possiedono di risolvere problemi sconosciuti tracciando parallelismi con problemi noti, è stato a lungo considerato come una funzione cognitiva umana distintiva. Tuttavia, uno studio innovativo condotto da psicologi dell’UCLA presenta risultati convincenti che potrebbero spingerci a ripensare a questo concetto.

GPT-3: Alla pari con l’intelletto umano?

La ricerca dell’UCLA ha scoperto che GPT-3, un modello di linguaggio AI sviluppato da OpenAI, dimostra capacità di ragionamento quasi allo stesso livello di studenti universitari, specialmente quando è incaricato di risolvere problemi simili a quelli presenti nei test di intelligenza e negli esami standardizzati come il SAT. Questa rivelazione, pubblicata sulla rivista Nature Human Behaviour, solleva una domanda intrigante: GPT-3 emula il ragionamento umano grazie al suo esteso dataset di addestramento linguistico, o sta sfruttando un processo cognitivo completamente nuovo?

I dettagli del funzionamento di GPT-3 rimangono nascosti da OpenAI, lasciando i ricercatori dell’UCLA curiosi sul meccanismo alla base delle sue capacità di ragionamento analogico. Nonostante le prestazioni lodevoli di GPT-3 in determinati compiti di ragionamento, l’utensile non è privo di difetti. Taylor Webb, autore principale dello studio e ricercatore post-dottorato dell’UCLA, ha osservato: “Sebbene i nostri risultati siano impressionanti, è essenziale sottolineare che questo sistema ha limitazioni significative. GPT-3 può eseguire il ragionamento analogico, ma fatica con compiti banali per gli esseri umani, come utilizzare strumenti per un compito fisico”.

Le capacità di GPT-3 sono state messe alla prova utilizzando problemi ispirati alle Matrici Progressive di Raven, un test che coinvolge sequenze intricate di forme. Convertendo le immagini in un formato di testo decifrabile da GPT-3, Webb ha garantito che queste fossero sfide completamente nuove per l’AI. Confrontato con 40 studenti universitari dell’UCLA, GPT-3 non solo ha eguagliato le prestazioni umane, ma ha anche ripetuto gli errori commessi dagli esseri umani. Il modello AI ha risolto con precisione l’80% dei problemi, superando il punteggio medio umano ma rientrando nell’intervallo dei migliori esecutori umani.

Il team ha ulteriormente esaminato le capacità di GPT-3 utilizzando domande di analogia SAT inedite, con l’AI che supera la media umana. Tuttavia, ha avuto qualche difficoltà nel trarre analogie da brevi storie, anche se il modello GPT-4 più recente ha mostrato risultati migliorati.

Colmare il divario tra AI e cognizione umana

I ricercatori dell’UCLA non si fermano alle mere comparazioni. Si sono impegnati nello sviluppo di un modello informatico ispirato alla cognizione umana, confrontando costantemente le sue capacità con i modelli AI commerciali. Keith Holyoak, professore di psicologia dell’UCLA e co-autore, ha commentato: “Il nostro modello AI psicologico ha superato gli altri nei problemi di analogia fino all’ultimo aggiornamento di GPT-3, che ha mostrato capacità superiori o equivalenti”.

Tuttavia, il team ha individuato alcune aree in cui GPT-3 è rimasto indietro, specialmente in compiti che richiedono la comprensione dello spazio fisico. Nei problemi che coinvolgono l’uso di strumenti, le soluzioni di GPT-3 erano notevolmente fuori bersaglio.

Hongjing Lu, autore principale dello studio, ha espresso stupore per i progressi della tecnologia negli ultimi due anni, in particolare per la capacità dell’AI di ragionare. Tuttavia, se questi modelli “pensano” davvero come gli esseri umani o semplicemente imitano il pensiero umano, è ancora oggetto di dibattito. La ricerca di approfondimenti sui processi cognitivi dell’AI richiede l’accesso al backend dei modelli AI, un passo che potrebbe plasmare la futura traiettoria dell’AI.

Ecoando il sentimento, Webb conclude: “L’accesso al backend dei modelli GPT sarebbe di grande beneficio per gli studiosi di AI e di cognizione. Al momento, siamo limitati agli input e agli output, e manca la profondità decisiva che ambiamo a raggiungere”.