Incontra AnythingLLM un’applicazione Full-Stack che trasforma il tuo contenuto in dati ricchi per migliorare le interazioni dei grandi modelli di lingua (LLMs).

Incontra AnythingLLM, un'applicazione Full-Stack che migliora le interazioni dei grandi modelli di lingua (LLMs) trasformando il tuo contenuto in dati ricchi.

Dal rilascio del rivoluzionario ChatGPT di OpenAI, il numero di progetti che circondano l’AI, in particolare i grandi modelli di lingua (LLM), è stato al massimo storico. Molti di questi progetti sono in grado di disturbare vari campi consentendo ai ricercatori e ai programmatori di sfruttare la potenza dei LLM per affrontare compiti complessi, migliorare la comprensione del linguaggio naturale e generare testo simile all’essere umano. Uno di questi progetti, AnythingLLM, è stato recentemente rilasciato da Mintplex Labs. AnythingLLM è un’applicazione full-stack che mira ad essere il modo più semplice per un cliente di conversare intelligentemente con documenti, risorse, ecc., utilizzando un’interfaccia utente ben congegnata. AnythingLLM utilizza Pinecone e ChromaDB per gestire gli embedding vettoriali e l’API di OpenAI per la sua funzionalità di LLM e conversazione. Una qualità definitiva che distingue lo strumento è che può semplicemente eseguire in background senza utilizzare una grande quantità di memoria o risorse poiché, per impostazione predefinita, LLM e vectorDB sono ospitati in remoto nel cloud.

I creatori di AnythingLLM hanno anche sottolineato le sue caratteristiche chiave evidenziando come il loro strumento differisce dagli altri attualmente disponibili sul mercato, come PrivateGPT, LocalGPT, ecc. A differenza di PrivateGPT, che è solo uno strumento a riga di comando, AnythingLLM ha un’interfaccia utente interattiva che contribuisce ad un’esperienza intuitiva e user-friendly. Inoltre, PrivateGPT richiede all’utente di eseguire un LLM locale sulla propria macchina, che non è la soluzione più efficiente e ricca di risorse per gli utenti che non dispongono di una macchina potente. D’altra parte, LocalGPT, ispirato a PrivateGPT, affronta anche preoccupazioni simili in cui un LLM privato viene eseguito sulla macchina dell’utente. Ci sono anche significativi oneri tecnici che accompagnano queste soluzioni. È qui che AnythingLLM ha il vantaggio sui suoi concorrenti perché utilizza LLM e vectorDB con cui i clienti sono già familiari, rendendolo quindi più accessibile. Questa applicazione full-stack può essere eseguita localmente e in remoto in background.

AnythingLLM utilizza la containerizzazione dei documenti in spazi di lavoro come sua fondazione. In questo scenario, diversi spazi di lavoro possono condividere gli stessi record ma non interagire, consentendo all’utente di mantenere diversi spazi di lavoro per diversi casi d’uso. AnythingLLM è composto da due modalità di chat: conversazione, in cui le domande precedenti vengono conservate, e query, che si riferisce alla semplice chat domanda-risposta contro il documento specificato dall’utente. Inoltre, per i documenti accessibili al pubblico, ogni risposta in chat consiste anche di una citazione che collega al contenuto originale. Il progetto è stato progettato come una struttura monorepo e consiste principalmente in tre sezioni: collector, frontend e server. Il collector è un’utilità Python che consente all’utente di convertire rapidamente i dati accessibili al pubblico da risorse online come video da un canale Youtube specificato, articoli di Medium, link di blog, ecc., o documenti locali in un formato utilizzabile da LLM. Il frontend del prodotto è stato costruito utilizzando viteJS e React, mentre un server nodeJs e express gestisce tutte le interazioni LLM e la gestione del vectorDB.

Il progetto AnythingLLM è open source con licenza MIT e gli sviluppatori sono disponibili ad accettare correzioni di bug e qualsiasi altro contributo dalla comunità. Il progetto ha un enorme potenziale per cambiare completamente il modo in cui gli utenti interagiscono con i documenti o qualsiasi pezzo di contenuto utilizzando un LLM. Gli utenti interessati possono clonare il progetto da questo repository Github e procedere alla configurazione della propria applicazione.