Combattere le falsità con due piccole parole
Combattere falsità con due parole
I ricercatori della Johns Hopkins University (JHU) hanno sviluppato un metodo per ridurre le allucinazioni dei grandi modelli di linguaggio (LLM) includendo “secondo” nelle query dei LLM.
Utilizzando questo metodo, i LLM vengono indirizzati a citare fonti affidabili nei loro dati di addestramento, anziché produrre risposte false.
I ricercatori hanno utilizzato Data Portraits, uno strumento sviluppato precedentemente presso la JHU, per verificare se le risposte del LLM fossero presenti nell’insieme di dati di addestramento senza scaricare grandi quantità di testo.
Hanno osservato che il punteggio QUIP (Quoted Information Precision) di un LLM è aumentato dal 5% al 15% quando il prompt di ancoraggio “secondo” è stato incorporato nelle query.
- Gli Stati Uniti cercano malware cinese che potrebbe compromettere le operazioni militari
- I robot sottomarini potrebbero aprire le porte a un futuro ad alta tecnologia per l’estrazione mineraria in acque profonde
- Il futuro del Machine Learning Tendenze emergenti e opportunità
I prompt di ancoraggio hanno inoltre generato risposte più dettagliate e accurate nel complesso.
Ha dichiarato Daniel Khashabi della JHU: “Il nostro obiettivo è permettere ai modelli di accedere a contenuti utili, come stringhe memorizzate da documenti di alta qualità o affidabili.”
Poiché l’accuratezza delle risposte dipende dalla qualità dell’insieme di dati di addestramento, il metodo può filtrare dati provenienti da siti web non affidabili. Da Johns Hopkins University Hub Visualizza l’articolo completo