Incontra Verba uno strumento open-source per costruire la tua pipeline di generazione di recupero aumentata RAG e utilizzare LLM per output basati internamente.

Incontra Verba, uno strumento open-source per costruire la tua pipeline di generazione di recupero aumentata RAG e utilizzare LLM per output interni.

Verba è un progetto open source per fornire app RAG con un’interfaccia semplificata e user-friendly. È possibile immergersi nei dati e iniziare a avere conversazioni pertinenti rapidamente.

Verba è più un compagno che uno strumento semplice per interrogare e manipolare i dati. La burocrazia, il confronto e il contrasto tra diversi insiemi di numeri e l’analisi dei dati, attraverso Weaviate e Large Language Models (LLMs), Verba rende tutto questo possibile.

Sulla base del motore di ricerca generativo all’avanguardia di Weaviate, Verba recupera automaticamente le informazioni di background necessarie dai documenti ogni volta che viene effettuata una ricerca. Utilizza la potenza di elaborazione dei LLM per fornire soluzioni esaustive e consapevoli del contesto. Il layout semplice di Verba rende facile recuperare tutte queste informazioni. Le semplici funzionalità di importazione dei dati di Verba supportano formati di file come .txt, .md e altri. La tecnologia esegue automaticamente il chunking e la vettorizzazione dei dati prima di inserirli in Weaviate, rendendoli più adatti per la ricerca e il recupero.

Sfrutta il modulo di creazione e le opzioni di ricerca ibrida disponibili in Weaviate quando lavori con Verba. Questi metodi sofisticati di ricerca esaminano gli articoli alla ricerca di importanti pezzi di contesto, che i Large Language Models utilizzano poi per fornire risposte approfondite alle domande.

Per migliorare la velocità delle ricerche future, Verba incorpora sia i risultati generati che le query nella Semantic Cache di Weaviate. Prima di rispondere alla domanda, Verba controllerà nella sua Semantic Cache per determinare se una domanda simile è già stata risposta.

È necessaria una chiave API di OpenAI indipendentemente dal metodo di distribuzione per abilitare le capacità di input e interrogazione dei dati. Aggiungi la chiave API alle variabili d’ambiente di sistema o crea un file .env quando si clona il progetto.

Verba consente di connettersi a istanze di Weaviate in vari modi, a seconda del caso d’uso specifico. Se le variabili d’ambiente VERBA_URL e VERBA_API_KEY non sono presenti, Verba utilizzerà invece Weaviate Embedded. Il metodo più semplice per avviare il database Weaviate per prototipazione e testing è attraverso questa distribuzione locale.

Verba fornisce semplici istruzioni per importare i dati per ulteriori elaborazioni. Si prega di notare che l’importazione dei dati avrà un costo in base alla configurazione della chiave di accesso OpenAI prima di continuare. I modelli OpenAI vengono utilizzati solo da Verba. Si tenga presente che la chiave API sarà addebitata per il costo dell’utilizzo di questi modelli. L’incorporazione dei dati e la generazione delle risposte sono i principali fattori di costo. 

Puoi provare https://verba.weaviate.io/.

Ci sono tre parti principali di Verba:

  • È possibile ospitare il proprio database Weaviate su Weaviate Cloud Service (WCS) o sul proprio server.
  • Questo punto di accesso FastAPI media tra il fornitore del Large Language Model e il deposito dati di Weaviate.
  • L’interfaccia utente reattiva di React (consegnata staticamente tramite FastAPI) fornisce un’interfaccia utente dinamica per l’esplorazione e la manipolazione dei dati. Sviluppo.