Microsoft rilascia Orca 2 la pioniera ragionamento avanzato nei modelli di linguaggio più piccoli con strategie di addestramento personalizzate.

Microsoft lancia Orca 2 l'innovazione avanzata nel campo dei modelli di linguaggio compatti con strategie di addestramento personalizzate.

LLMs (Large Language Models) sono addestrati su grandi quantità di dati testuali per comprendere e produrre linguaggio simile a quello umano. GPT-3, GPT-4 e PaLM-2 sono alcuni esempi. Questi modelli svolgono complesse attività linguistiche, inclusa la generazione di testo, l’interazione conversazionale e la risposta a domande. Sono stati utilizzati in vari settori migliorando l’esperienza degli utenti in chatbot, codifica, ricerca web, supporto clienti e produzione di contenuti.

Tuttavia, mentre la comunità di intelligenza artificiale si addentra nel vasto campo dei modelli più piccoli, Microsoft ha introdotto la prossima versione di Orca chiamata Orca 2, progettata per amplificare le capacità dei modelli di intelligenza artificiale compatti. Orca 1, attraverso l’integrazione di spiegazioni dettagliate, supera i modelli di istruzioni tradizionali in termini di prestazioni su benchmark difficili come BigBench Hard e AGIEval. Orca 2 esplora ulteriormente il potenziale dei segnali di addestramento potenziati per migliorare le capacità di ragionamento dei modelli di linguaggio più piccoli.

L’apprendimento per imitazione è un approccio diffuso per perfezionare modelli di linguaggio più piccoli. Questi modelli più piccoli spesso devono recuperare in capacità di ragionamento e comprensione, anche se sono in grado di produrre contenuti in modo simile ai loro insegnanti. Sebbene l’apprendimento per imitazione abbia alcuni vantaggi, presenta svantaggi che possono limitare la capacità dei modelli più piccoli di raggiungere tutto il loro potenziale e impedire loro di utilizzare le migliori soluzioni possibili date il problema specifico e le capacità del modello. Spesso hanno bisogno di aiuto per eguagliare le capacità di ragionamento e comprensione dei loro corrispettivi più grandi, ostacolandone il pieno potenziale.

Al posto di semplicemente imitare, Orca istruisce il modello in varie tecniche di ragionamento. Queste includono il processing passo-passo, il richiamo e poi la generazione, il richiamo-ragionamento-generazione e le risposte dirette. L’obiettivo è guidare il modello nell’acquisire la capacità di discernere la strategia di soluzione più efficace adattata alle sfumature di ogni specifico compito.

La capacità di ragionamento a zero-shot di Orca 2 evidenzia la possibilità di migliorare le reti neurali più piccole. Microsoft continua a credere che metodi di addestramento specializzati, come quello utilizzato per Orca 2, possano rivelare nuove applicazioni utili. Questo metodo mira a migliorare l’efficacia di tali implementazioni di reti neurali.

È importante sottolineare che Orca 2 è protetto dagli indizi iniziali che hanno indotto determinati comportamenti durante la fase di addestramento. Orca 2 si trasforma in un “Cautious Reasoner” attraverso l’innovativa tecnica di cancellazione delle prompt. A differenza dell’imitazione cieca, questo metodo utilizza modelli più grandi come fonte di comportamenti dai quali vengono scelti i migliori per il compito specifico.

I ricercatori hanno testato Orca 2 su benchmark esaustivi. Hanno dimostrato che supera gli altri modelli equivalenti in termini di comprensione del linguaggio, ragionamento di senso comune, problemi matematici multi-step, comprensione della lettura, sintesi e altro ancora. Ad esempio, nei compiti di ragionamento a zero-shot, Orca 2-13B raggiunge un’accuratezza superiore del 25% rispetto a modelli 13B comparabili ed è paragonabile a un modello 70B.

Orca 2 segna un significativo passo avanti nell’evoluzione dei modelli di linguaggio più piccoli. Il suo distacco dall’apprendimento per imitazione convenzionale, unito all’attenzione nell’insegnare diverse tecniche di ragionamento, mostra un nuovo approccio per liberare il potenziale dei modelli di intelligenza artificiale compatti.