I ricercatori dell’Università di Stanford introducono un quadro unificato di IA per attribuzioni collaborative e contributive nei grandi modelli di linguaggio (LLM)

I ricercatori dell'Università di Stanford presentano un avanzato modello di intelligenza artificiale per attribuzioni collaborative e contributive nell'ambito dei grandi modelli di linguaggio (LLM)

I Large Language Models (LLMs) sono gli ultimi progressi nel campo dell’Intelligenza Artificiale (IA) in continua evoluzione. Anche se questi modelli dimostrano prestazioni incredibili in compiti come la generazione di testo, la risposta alle domande, il riassunto del testo, ecc., c’è una sfida riguardante l’accuratezza e la sicurezza dei dati che generano. Questi modelli a volte possono inventare o produrre informazioni imprecise, cioè allucinare e produrre un output non affidabile.

Tracciare la fonte è necessario per attribuire colpa morale e legale quando l’output del modello causa danni; tuttavia, l’attribuzione è un compito difficile che richiede ricerche tecniche creative. Le ricerche sull’attribuzione delle uscite di LLM alle fonti si sono concentrate principalmente su due aree: l’Attribuzione dei Dati di Allenamento (TDA) e la generazione di citazioni.

In una recente ricerca, un team di ricercatori dell’Università di Stanford ha introdotto un framework unificato per l’attribuzione dei Large Language Models. La ricerca riguarda la generazione di citazioni e l’Attribuzione dei Dati di Allenamento, combinate sotto attribuzioni corroboration e contributive. L’attribuzione contributiva si concentra sulla verifica della fonte del contenuto creato, mentre l’attribuzione corroboration cerca di convalidare che l’output sia accurato in conformità con la conoscenza esterna.

Il team ha esaminato diverse caratteristiche desiderate in diversi contesti e ha fornito definizioni precise per ciascuna forma di attribuzione. Questo metodo incoraggia la creazione e la valutazione di sistemi di attribuzione che possono fornire attribuzioni complete di entrambi i tipi ed è un primo passo verso un concetto di attribuzione del linguaggio ben definito ma flessibile.

Il framework è stato utilizzato in casi d’uso reali per dimostrarne l’utilità. Gli esempi illustrano situazioni in cui diventano necessarie una o entrambe le forme di attribuzione. Nel processo di creazione di documenti legali, la validità interna, cioè l’attribuzione dei dati di allenamento, conferma la fonte e la affidabilità delle informazioni, mentre la validità esterna, cioè la creazione di citazioni, assicura che il materiale sia conforme ai requisiti legali. Allo stesso modo, nel contesto di risposte a domande mediche, entrambe le attribuzioni sono importanti per verificare l’accuratezza della risposta e comprendere le fonti che influenzano la conoscenza del modello.

Il team ha riassunto le loro principali contribuzioni come segue.

  1. È stato presentato un modello di interazione che combina attribuzioni contributive e corroboration, evidenziando gli elementi condivisi.
  1. Il framework combinato è stato migliorato individuando attributi rilevanti per entrambi i tipi di attribuzione.
  1. È stata effettuata un’analisi completa delle implementazioni correnti di attribuzione contributiva e di corroboration per fornire spunti sulle applicazioni del mondo reale.
  1. Sono stati descritti scenari essenziali per le attribuzioni, come la creazione di documenti legali, insieme alle qualità necessarie per l’efficacia.

In conclusione, il framework è una grande introduzione e può essere utile nella standardizzazione della valutazione del sistema di attribuzione, promuovendo una valutazione più sistematica e comparabile della loro efficacia in vari campi. Questo può migliorare ed accelerare l’uso dei Large Language Models offrendo un metodo coerente e coeso per le attribuzioni, risolvendo il problema cruciale dell’affidabilità dell’output.