Incontra Lamini AI Un motore LLM rivoluzionario che permette agli sviluppatori di addestrare modelli di linguaggio di livello ChatGPT con facilità

Lamini AI è un motore LLM rivoluzionario per addestrare facilmente modelli di linguaggio di livello ChatGPT.

Insegnare LLM da zero è una sfida a causa del tempo esteso richiesto per capire perché i modelli ottimizzati falliscono; i cicli di iterazione per l’ottimizzazione su piccoli set di dati sono tipicamente misurati in mesi. Al contrario, le iterazioni di ottimizzazione per un suggerimento avvengono in pochi secondi, ma dopo qualche ora, le prestazioni si stabilizzano. I gigabyte di dati in un magazzino non possono essere compressi nello spazio del suggerimento.

Utilizzando solo poche righe di codice dalla libreria Lamini, qualsiasi sviluppatore, non solo quelli esperti in machine learning, può allenare LLM ad alte prestazioni che sono all’altezza di ChatGPT su set di dati massicci. Rilasciata da Lamini.ai, le ottimizzazioni di questa libreria vanno oltre ciò a cui i programmatori attualmente possono accedere e includono tecniche complesse come RLHF e tecniche semplici come la soppressione delle allucinazioni. Da modelli di OpenAI a quelli open-source su HuggingFace, Lamini semplifica l’esecuzione di varie comparazioni di modelli di base con una sola riga di codice.

Passaggi per lo sviluppo del tuo LLM:

  • Lamini è una libreria che consente di ottimizzare prompt e output di testo.
  • Semplice ottimizzazione e RLHF utilizzando la potente libreria Lamini
  • Questo è il primo generatore di dati ospitato approvato per uso commerciale specificamente per creare dati necessari per allenare LLM che seguono istruzioni.
  • LLM gratuito e open-source che può seguire istruzioni utilizzando il software sopra menzionato con un minimo sforzo di programmazione.

La comprensione dell’inglese dei modelli di base è adeguata per casi d’uso dei consumatori. Tuttavia, quando si insegnano loro il gergo e gli standard del proprio settore, l’ottimizzazione del suggerimento non è sempre sufficiente e gli utenti dovranno sviluppare il proprio LLM.

LLM può gestire casi d’uso come ChatGPT seguendo questi passaggi:

  1. Utilizzare l’adattamento del suggerimento di ChatGPT o un altro modello al suo posto. Il team ha ottimizzato il miglior suggerimento possibile per un uso semplice. Ottimizza rapidamente i suggerimenti tra i modelli con le API della libreria Lamini; passa tra modelli di OpenAI e modelli open-source con una sola riga di codice.
  2. Crea una quantità massiccia di dati input-output. Questi mostreranno come dovrebbe reagire ai dati che riceve, che siano in inglese o JSON. Il team ha rilasciato un repository con poche righe di codice che utilizza la libreria Lamini per produrre 50.000 punti dati da soli 100. Il repository contiene un set di dati pubblicamente disponibile di 50.000.
  3. Adatta un modello di partenza utilizzando i tuoi dati estesi. Oltre al generatore di dati, condividono anche un LLM ottimizzato da Lamini allenato sui dati sintetici.
  4. Sottoponi il modello finemente adattato a RLHF. Lamini elimina la necessità di un team di machine learning (ML) e di etichettatura umana (HL) di dimensioni considerevoli per utilizzare RLHF.
  5. Mettilo in cloud. Invoca semplicemente il punto di accesso dell’API nella tua applicazione.

Dopo aver allenato il modello di base Pythia con 37.000 istruzioni prodotte (dopo aver filtrato 70.000), hanno rilasciato un LLM open-source che segue le istruzioni. Lamini offre tutti i benefici di RLHF e dell’ottimizzazione senza i problemi del primo. Presto, sarà responsabile di tutto il procedimento.

Il team è entusiasta di semplificare il processo di allenamento per i team di ingegneria e di migliorare significativamente le prestazioni di LLM. Sperano che più persone possano costruire questi modelli oltre che sperimentare con i suggerimenti se i cicli di iterazione possono essere resi più veloci ed efficienti.