Benvenuto spaCy nell’Hugging Face Hub

'Benvenuto spaCy su Hugging Face Hub'

spaCy è una libreria popolare per l’elaborazione avanzata del linguaggio naturale ampiamente utilizzata nell’industria. spaCy semplifica l’uso e l’addestramento di pipeline per attività come il riconoscimento delle entità nominate, la classificazione del testo, l’etichettatura delle parti del discorso e altro ancora, e ti consente di creare applicazioni potenti per elaborare e analizzare grandi volumi di testo.

Hugging Face rende davvero facile condividere le tue pipeline spaCy con la comunità! Con un singolo comando, puoi caricare qualsiasi pacchetto di pipeline, con una bella scheda del modello e tutti i metadati necessari generati automaticamente. L’API di inferenza supporta attualmente NER out-of-the-box e puoi provare la tua pipeline interattivamente nel tuo browser. Otterrai anche un URL live per il tuo pacchetto che puoi installare con pip da qualsiasi posizione per un percorso senza intoppi dal prototipo alla produzione!

Trova modelli

Oltre 60 modelli canonici possono essere trovati nell’organizzazione spaCy. Questi modelli sono dell’ultima versione 3.1, quindi puoi provare i modelli più recenti appena rilasciati! Inoltre, puoi trovare tutti i modelli spaCy dalla comunità qui https://huggingface.co/models?filter=spacy.

Widget

Questa integrazione include il supporto per i widget di NER, quindi tutti i modelli con un componente NER avranno questo di serie! Presto ci sarà anche il supporto per la classificazione del testo e il POS.

Utilizzo di modelli esistenti

Tutti i modelli dell’Hub possono essere installati direttamente usando pip.

pip install https://huggingface.co/spacy/en_core_web_sm/resolve/main/en_core_web_sm-any-py3-none-any.whl

# Utilizzando spacy.load().
import spacy
nlp = spacy.load("en_core_web_sm")

# Importando come modulo.
import en_core_web_sm
nlp = en_core_web_sm.load()

Quando apri un repository, puoi fare clic su Usa in spaCy e ti verrà fornito un frammento di codice funzionante che puoi utilizzare per installare e caricare il modello!

Puoi persino effettuare richieste HTTP per chiamare i modelli dall’API di inferenza, il che è utile in ambienti di produzione. Ecco un esempio di una richiesta semplice:

curl -X POST  --data '{"inputs": "Ciao, sono Omar"}' https://api-inference.huggingface.co/models/spacy/en_core_web_sm
>>> [{"entity_group":"PERSON","word":"Omar","start":15,"end":19,"score":1.0}]

E per casi d’uso su larga scala, puoi fare clic su “Deploy > Accelerated Inference” e vedere come farlo con Python.

Condividi i tuoi modelli

Ma probabilmente la caratteristica più interessante è che ora puoi condividere facilmente i tuoi modelli con la libreria spacy-huggingface-hub, che estende la CLI di spaCy con un nuovo comando, huggingface-hub push.

huggingface-cli login
python -m spacy package ./en_ner_fashion ./output --build wheel
cd ./output/en_ner_fashion-0.0.0/dist
python -m spacy huggingface-hub push en_ner_fashion-0.0.0-py3-none-any.whl

In soli pochi minuti, puoi ottenere il tuo modello confezionato nell’Hub, provarlo direttamente nel browser e condividerlo con il resto della comunità. Tutti i metadati necessari verranno caricati per te e avrai anche una scheda del modello fantastica.

Provalo e condividi i tuoi modelli con la comunità!

Ti piacerebbe integrare la tua libreria all’Hub?

Questa integrazione è possibile grazie alla libreria huggingface_hub, che contiene tutti i nostri widget e l’API per tutte le nostre librerie supportate. Se desideri integrare la tua libreria all’Hub, abbiamo una guida per te!