Incontra DERA Un framework AI per migliorare il completamento dei modelli di lingua con agenti risolutivi abilitati per il dialogo

Incontra DERA - un framework AI per migliorare il completamento dei modelli di lingua con agenti risolutivi per il dialogo.

I “modelli di linguaggio di grandi dimensioni” basati sull’apprendimento profondo sono stati sviluppati per prevedere il contenuto del linguaggio naturale in base all’input. Oltre alle sfide di modellazione del linguaggio, l’uso di questi modelli ha migliorato le prestazioni del linguaggio naturale. Gli approcci basati su LLM hanno dimostrato vantaggi in compiti medici come l’estrazione delle informazioni, la risposta alle domande e la sintesi. I prompt sono istruzioni linguistiche naturali utilizzate dalle tecniche basate su LLM. Questi set di istruzioni includono la specifica del compito, le regole che le previsioni devono rispettare e, facoltativamente, alcuni esempi di input e output del compito.

La capacità dei modelli generativi di produrre risultati basati su istruzioni date in linguaggio naturale elimina la necessità di un addestramento specifico del compito e consente a non esperti di ampliare questa tecnologia. Sebbene molti compiti possano essere espressi come un unico suggerimento, ulteriori ricerche hanno dimostrato che la suddivisione dei compiti in compiti più piccoli può migliorare le prestazioni del compito, in particolare nel settore sanitario. Essi supportano una strategia alternativa che comprende due componenti cruciali. Inizia con un processo iterativo per migliorare il primo prodotto. A differenza della concatenazione condizionale, ciò consente di raffinare la generazione in modo olistico. In secondo luogo, ha una guida che può indirizzare proponendo aree su cui concentrarsi durante ogni ripetizione, rendendo la procedura più comprensibile.

Con lo sviluppo di GPT-4, ora hanno a disposizione un ricco e realistico sistema di conversazione VoAGI. I ricercatori di Curai Health suggeriscono gli Agenti di Risoluzione Abilitati al Dialogo o DERA. DERA è un framework per indagare su come gli agenti incaricati della risoluzione del dialogo possano migliorare le prestazioni dei compiti di linguaggio naturale. Essi sostengono che assegnare a ogni agente di dialogo un ruolo specifico li aiuterà a concentrarsi su determinati aspetti del lavoro e garantire che il loro agente partner mantenga l’allineamento con l’obiettivo complessivo. L’agente ricercatore cerca dati pertinenti riguardo al problema e suggerisce argomenti su cui l’altro agente può concentrarsi.

Per migliorare le prestazioni dei compiti di linguaggio naturale, offrono DERA, un framework per l’interazione tra agenti. Valutano DERA in base a tre diverse categorie di compiti clinici. Per rispondere a ciascuno di essi, sono necessari diversi input testuali e livelli di competenza. La sfida di sintetizzare la conversazione medica mira a fornire un riassunto di un dialogo medico-paziente che sia corretto dal punto di vista dei fatti e privo di allucinazioni o omissioni. La creazione di un piano di cura richiede molte informazioni e ha output lunghi che sono utili per il supporto alle decisioni cliniche. L’agente Decider è libero di rispondere a questi dati e scegliere il corso finale di azione per l’output.

Il lavoro offre diverse soluzioni e l’obiettivo è creare il materiale più corretto e pertinente possibile. Rispondere a domande sulla medicina è un compito aperto che richiede una riflessione basata sulla conoscenza e ha una sola soluzione possibile. Utilizzano due set di dati di risposta alle domande per la ricerca in questo ambiente più sfidante. In entrambe le valutazioni annotate dall’uomo, scoprono che DERA ha prestazioni migliori rispetto a GPT-4 di base nella creazione di piani di cura e nelle sfide di sintesi delle conversazioni mediche su diverse misure. Secondo le analisi quantitative, DERA corregge con successo i riassunti delle conversazioni mediche che includono molte imprecisioni.

D’altra parte, scoprono poche o nessuna miglioria nelle prestazioni di GPT-4 e DERA nella risposta alle domande. Secondo le loro teorie, questo metodo funziona bene per problemi di generazione a lungo termine che coinvolgono molte caratteristiche fini. Collaboreranno per pubblicare un nuovo compito di risposta alle domande mediche aperte basato su MedQA, che comprende domande di pratica per il test di licenza medica degli Stati Uniti. Ciò rende possibile un nuovo studio sui sistemi di modellazione e valutazione delle risposte alle domande. Le catene di ragionamento e altri metodi specifici del compito sono esempi di strategie di concatenazione.

Le tecniche di concatenazione del pensiero incoraggiano il modello ad affrontare un problema come farebbe un esperto, il che migliora alcuni compiti. Tutti questi metodi fanno uno sforzo per ottenere la generazione appropriata dal modello di linguaggio fondamentale. Il fatto che questi sistemi di sollecitazione siano limitati a un insieme predefinito di prompt creati con scopi specifici, come scrivere spiegazioni o correggere anomalie di output, è un vincolo fondamentale di questo metodo. Hanno compiuto un buon passo in questa direzione, ma applicarli a situazioni reali è ancora una grande sfida.