Tappeti di pietra verso la comprensione i Knowledge Graph come impalcature per il ragionamento sequenziale interpretativo con LLMs

Tappeti di pietra il Knowledge Graph come base per il ragionamento sequenziale interpretativo con LLMs

Grandi modelli linguistici (LLM), addestrati su vasti volumi di dati testuali, hanno scatenato una rivoluzione nell’intelligenza artificiale. La loro capacità di generare un linguaggio sorprendentemente eloquente e coerente a partire da un breve prompt di testo ha aperto nuovi orizzonti in vari settori, dalla scrittura creativa all’assistenza conversazionale.

Tuttavia, padronanza dell’espressione linguistica da sola non corrisponde a vera intelligenza. I LLM mancano ancora di una comprensione semantica dei concetti e delle abilità di ragionamento logico necessarie per la comprensione della situazione e la risoluzione di problemi complessi. La loro conoscenza rimane confinata a schemi superficiali derivati dai corpora di addestramento anziché a fatti concreti sul mondo reale.

Alla luce di domande sempre più aperte e complesse rivolte a questi modelli, le loro limitazioni diventano sempre più evidenti. Non sono in grado di sintetizzare logicamente dettagli provenienti da documenti diversi o di fare inferenze che richiedono più passaggi per ottenere risposte.

Una volta che le domande iniziano a discostarsi dalla distribuzione dei dati di addestramento, le risposte allucinate o contraddittorie iniziano a emergere.

Per affrontare queste problematiche, la comunità dell’intelligenza artificiale si sta concentrando sui framework di generazione arricchita da recupero (RAG). Questi sistemi mirano a combinare le capacità linguistiche dei modelli linguistici con un accesso rapido e mirato a fonti di conoscenza esterne che possano fornire un contesto fattuale anziché allucinazioni.

La maggior parte delle architetture esistenti recupera informazioni supplementari utilizzando la similarità semantica su rappresentazioni vettoriali di passaggi provenienti da corpora testuali. Tuttavia, ciò comporta difficoltà nella rilevanza sfumata tra i passaggi recuperati e il contesto effettivo della query. Dettagli chiave vengono persi quando i passaggi vengono condensati in vettori opachi singolari privi di collegamenti contestuali. La derivazione di narrazioni coerenti che collegano fatti disparati attraverso il ragionamento logico rimane difficile.

Ciò sottolinea la necessità di incorporare fonti di conoscenza strutturate che racchiudano entità del mondo reale e le relazioni tra di esse. I grafi di conoscenza soddisfano questa esigenza, codificando fatti come nodi e archi interconnessi attraverso i quali è possibile eseguire un percorso di spiegazione. Tuttavia, porre basi solide per il ragionamento in forma libera dei modelli linguistici sui grafi strutturati presenta sfide di interfacciamento. L’abbinamento creativo di approcci neurali con rappresentazioni simboliche rimane un problema aperto.