The Content Search Results TheBloke

2023, anno degli LLM aperti

Nel 2023 si è riscontrato un aumento del interesse pubblico nei confronti dei Large Language Models (LLM), e ora che ...

Benvenuti a Mixtral – una miscela all’avanguardia di esperti su Hugging Face

Mixtral 8x7b è un emozionante modello di linguaggio di grandi dimensioni rilasciato oggi da Mistral, che stabilisce u...

Come utilizzare AutoGen senza dipendere da OpenAI o LM Studio?

Introduzione Sei pronto/a a creare il tuo team di intelligenza artificiale senza dipendere da OpenAI e LM Studio? Non...

Esplorare alternative open-source ai modelli di OpenAI

Introduzione Novembre è stato un mese drammatico nel campo dell’IA. È stato un vero viaggio, dal lancio dei neg...

LMQL – SQL per modelli di linguaggio

Sono sicuro che hai sentito parlare di SQL o addirittura l'hai padroneggiato. SQL (Structured Query Language) è un li...

LangChain Cheatsheet – Tutti i segreti su una singola pagina

La pagina creata è il mio riassunto delle basi di LangChain. In questo articolo, attraverserò sezioni di codice e des...

7 Passaggi per Eseguire un Piccolo Modello di Lingua su una CPU Locale

Scopri come eseguire un piccolo modello di linguaggio sul tuo CPU locale in soli sette semplici passaggi.

Da GPT a Mistral-7B L’emozionante balzo in avanti nelle conversazioni dell’IA

Introduzione Il campo dell’intelligenza artificiale ha visto notevoli progressi negli ultimi anni, in particola...

LangChain 101 Parte 2ab. Tutto quello che devi sapere sui modelli (grandi) di lingua

Questa è la parte 2ab del corso LangChain 101. È vivamente consigliato controllare la prima parte per comprendere meg...

Panoramica dei schemi di quantizzazione supportati nativamente in 🤗 Transformers

Aimiamo a fornire una panoramica chiara dei pro e dei contro di ogni schema di quantizzazione supportato nei transfor...

Stendi le tue ali Falcon 180B è qui

Introduzione Oggi siamo entusiasti di dare il benvenuto al Falcon 180B di TII su HuggingFace! Il Falcon 180B rapprese...

Sblocca il potere delle GenAI LLM direttamente sulla tua macchina locale!

Introduzione Dal rilascio dei GenAI LLM, abbiamo iniziato a utilizzarli in un modo o nell’altro. Il modo più co...

Quantizza i modelli di Llama con GGML e llama.cpp

In questo articolo, quantizziamo il nostro modello Llama 2 ottimizzato con GGML e llama.cpp. Successivamente, eseguia...

Alleggerire LLMs con AutoGPTQ e transformers

I modelli di linguaggio di grandi dimensioni hanno dimostrato straordinarie capacità nella comprensione e generazione...