Combattere le falsità con due piccole parole

Combattere falsità con due parole

Ispirati dai giornalisti, i ricercatori hanno scoperto una nuova tecnica per ancorare le risposte di un grande modello di linguaggio nella realtà. ¶ Credito: Getty Images

I ricercatori della Johns Hopkins University (JHU) hanno sviluppato un metodo per ridurre le allucinazioni dei grandi modelli di linguaggio (LLM) includendo “secondo” nelle query dei LLM.

Utilizzando questo metodo, i LLM vengono indirizzati a citare fonti affidabili nei loro dati di addestramento, anziché produrre risposte false.

I ricercatori hanno utilizzato Data Portraits, uno strumento sviluppato precedentemente presso la JHU, per verificare se le risposte del LLM fossero presenti nell’insieme di dati di addestramento senza scaricare grandi quantità di testo.

Hanno osservato che il punteggio QUIP (Quoted Information Precision) di un LLM è aumentato dal 5% al 15% quando il prompt di ancoraggio “secondo” è stato incorporato nelle query.

I prompt di ancoraggio hanno inoltre generato risposte più dettagliate e accurate nel complesso.

Ha dichiarato Daniel Khashabi della JHU: “Il nostro obiettivo è permettere ai modelli di accedere a contenuti utili, come stringhe memorizzate da documenti di alta qualità o affidabili.”

Poiché l’accuratezza delle risposte dipende dalla qualità dell’insieme di dati di addestramento, il metodo può filtrare dati provenienti da siti web non affidabili. Da Johns Hopkins University Hub Visualizza l’articolo completo