The Content Search Results TheBloke
2023, anno degli LLM aperti
Nel 2023 si è riscontrato un aumento del interesse pubblico nei confronti dei Large Language Models (LLM), e ora che ...
Benvenuti a Mixtral – una miscela all’avanguardia di esperti su Hugging Face
Mixtral 8x7b è un emozionante modello di linguaggio di grandi dimensioni rilasciato oggi da Mistral, che stabilisce u...
Come utilizzare AutoGen senza dipendere da OpenAI o LM Studio?
Introduzione Sei pronto/a a creare il tuo team di intelligenza artificiale senza dipendere da OpenAI e LM Studio? Non...
Esplorare alternative open-source ai modelli di OpenAI
Introduzione Novembre è stato un mese drammatico nel campo dell’IA. È stato un vero viaggio, dal lancio dei neg...
LMQL – SQL per modelli di linguaggio
Sono sicuro che hai sentito parlare di SQL o addirittura l'hai padroneggiato. SQL (Structured Query Language) è un li...
LangChain Cheatsheet – Tutti i segreti su una singola pagina
La pagina creata è il mio riassunto delle basi di LangChain. In questo articolo, attraverserò sezioni di codice e des...
7 Passaggi per Eseguire un Piccolo Modello di Lingua su una CPU Locale
Scopri come eseguire un piccolo modello di linguaggio sul tuo CPU locale in soli sette semplici passaggi.
Da GPT a Mistral-7B L’emozionante balzo in avanti nelle conversazioni dell’IA
Introduzione Il campo dell’intelligenza artificiale ha visto notevoli progressi negli ultimi anni, in particola...
LangChain 101 Parte 2ab. Tutto quello che devi sapere sui modelli (grandi) di lingua
Questa è la parte 2ab del corso LangChain 101. È vivamente consigliato controllare la prima parte per comprendere meg...
Panoramica dei schemi di quantizzazione supportati nativamente in 🤗 Transformers
Aimiamo a fornire una panoramica chiara dei pro e dei contro di ogni schema di quantizzazione supportato nei transfor...
Stendi le tue ali Falcon 180B è qui
Introduzione Oggi siamo entusiasti di dare il benvenuto al Falcon 180B di TII su HuggingFace! Il Falcon 180B rapprese...
Sblocca il potere delle GenAI LLM direttamente sulla tua macchina locale!
Introduzione Dal rilascio dei GenAI LLM, abbiamo iniziato a utilizzarli in un modo o nell’altro. Il modo più co...
Quantizza i modelli di Llama con GGML e llama.cpp
In questo articolo, quantizziamo il nostro modello Llama 2 ottimizzato con GGML e llama.cpp. Successivamente, eseguia...
Alleggerire LLMs con AutoGPTQ e transformers
I modelli di linguaggio di grandi dimensioni hanno dimostrato straordinarie capacità nella comprensione e generazione...
- You may be interested
- Impara a disimparare le macchine
- Creare arte dal caos Modelli di diffusi...
- Rivoluzionare la protezione dell’...
- Una svolta mozzafiato l’agente di...
- Da Grezzo a Raffinato Un Viaggio Attrav...
- Transformatori variazionali per la comp...
- Crea flussi di lavoro di piegamento del...
- L’uso della biometria come metodo...
- I ricercatori di Sony propongono BigVSA...
- Ottieni risultati migliori e addestra p...
- Oracle Cloud Infrastructure offre nuove...
- Parole svelate l’evoluzione della...
- Ottimizza ViT per la classificazione de...
- 25 suggerimenti di ChatGPT per raggiung...
- Approfondimento su Llama 2 Nuovo modell...