Questa ricerca sull’IA di Microsoft e dell’Università Tsinghua introduce EvoPrompt un nuovo framework di intelligenza artificiale per l’ottimizzazione automatica dei prompt discreti che collega LLMs e algoritmi evolutivi

La ricerca di Microsoft e dell'Università Tsinghua introduce EvoPrompt, un nuovo framework di intelligenza artificiale per l'ottimizzazione automatica dei prompt discreti.

I modelli di linguaggio di grandi dimensioni (LLM) eccellono in praticamente tutte le attività di NLP. Tuttavia, i metodi tradizionali di fine-tuning sono costosi per i LLM, portando allo sviluppo di tecniche di prompt-tuning continuo che utilizzano embedding di prompt addestrabili senza modificare i parametri dei LLM. Tuttavia, questi metodi richiedono comunque accesso ai parametri dei LLM e non sono adatti per i LLM accessibili tramite API a scatola nera come GPT-3 e GPT-4.

Questo articolo presenta i seguenti contributi:

  1. Introduzione di EVOPROMPT: Gli autori introducono un nuovo framework, EVOPROMPT, per l’automazione dell’ottimizzazione dei prompt discreti. Questo framework collega i modelli di linguaggio di grandi dimensioni (LLM) con gli algoritmi evolutivi (EA) e offre diversi vantaggi:
  • Non richiede accesso ai parametri o ai gradienti dei LLM.
  • Bilancia efficacemente l’esplorazione e lo sfruttamento, portando a risultati migliorati.
  • Genera prompt facilmente comprensibili per gli esseri umani.
  1. Evidenza empirica: Attraverso esperimenti condotti su nove set di dati diversi, l’articolo fornisce evidenza empirica che mostra l’efficacia di EVOPROMPT rispetto ai metodi esistenti. Dimostra miglioramenti delle prestazioni fino al 14% in varie attività, come la classificazione del sentiment, la classificazione degli argomenti, la classificazione della soggettività, la semplificazione e la sintesi.
  1. Rilascio di prompt ottimali: Gli autori contribuiscono in modo significativo rilasciando i prompt ottimali ottenuti attraverso EVOPROMPT per attività comuni. Questi prompt possono essere utilizzati dalla comunità di ricerca e dai professionisti in attività legate all’analisi del sentiment, alla classificazione degli argomenti, alla classificazione della soggettività, alla semplificazione e alla sintesi.
  1. Utilizzo innovativo dei LLM: Questo articolo introduce il concetto di utilizzare i LLM per implementare algoritmi evolutivi quando vengono fornite istruzioni adeguate. Questo approccio innovativo amplia le potenziali applicazioni del combinare LLM con algoritmi tradizionali.

Per mettere in pratica EVOPROMPT, è fondamentale abbinarlo a un algoritmo evolutivo (EA) specifico. Esistono vari tipi di EA disponibili e questo articolo si concentra su due algoritmi ampiamente riconosciuti: l’Algoritmo Genetico (GA) e l’Evolution Differential (DE).

L’immagine sopra mostra il processo GA implementato dai LLM per l’ottimizzazione del prompt discreto. I ricercatori credono che i LLM offrano un’interfaccia efficace e interpretabile per implementare algoritmi tradizionali, garantendo un buon allineamento con la comprensione e la comunicazione umane. I risultati confermano una tendenza recente in cui i LLM eseguono “Gradient Descent” nello spazio discreto raccogliendo campioni predetti in modo errato.

Esistono ulteriori opportunità di ricerca per indagare fino in fondo le capacità dei modelli di linguaggio di grandi dimensioni (LLM) nell’eseguire una vasta gamma di algoritmi attraverso interazioni con gli esseri umani utilizzando istruzioni in linguaggio naturale. Idee di esplorazione potenziale includono la possibilità che i LLM possano generare soluzioni potenziali in algoritmi senza derivata, come il Simulated Annealing.