Usa LangChain per estrarre un dizionario dal testo
Usa LangChain per estrarre un dizionario
Un tutorial approfondito che sfrutta il parser di output di LangChain per salvare il testo di un annuncio immobiliare come coppie chiave-valore
Quando cerchi annunci immobiliari su siti web come i gruppi di Facebook, è dispendioso in termini di tempo scorrerli e leggerli.
Non sarebbe più efficiente mappare le informazioni dell’annuncio in un dizionario? Ad esempio, può essere utile raccogliere diversi annunci e confrontare prezzi e caratteristiche, permettendo di capire se prendere quell’appartamento è un buon affare o meno.
In questo tutorial, estrarremo un dizionario dal testo degli annunci utilizzando il parser di output di LangChain e ChatGPT. Iniziamo!
Requisiti
Dobbiamo installare le seguenti librerie Python:
- Incontra Chroma un database vettoriale open-source nativo di IA per LLM un modo più veloce per creare app LLM Python o JavaScript con memoria
- I ricercatori di Microsoft presentano SpeechX un modello di generazione del linguaggio versatile in grado di eseguire TTS a zero-shot e vari compiti di trasformazione del linguaggio parlato.
- Intelligenza Artificiale Responsabile Modo per Evitare il Lato Oscuro dell’Uso dell’IA
! pip install openai! pip install langchain! pip install python-dotenv
Dopo, possiamo importare i pacchetti:
import osimport openaifrom langchain.chat_models import ChatOpenAI
Dato che useremo ChatGPT, abbiamo bisogno di una chiave API di OpenAI per accedere al modello GPT-3.5. Prima di tutto, vai sulla piattaforma di OpenAI e clicca su “View API Keys” tra le opzioni. Successivamente, puoi creare, copiare e incollare la chiave API in un file .env con la seguente sintassi:
OPENAI_API_KEY=la_tua_chiave_api
Dovrai sostituire “la_tua_chiave_api” con la tua chiave API di OpenAI e il gioco può cominciare!
Passaggio 1: Chiamata LLM utilizzando LangChain
Il primo passaggio consiste nell’inizializzare la classe ChatOpenAI LLM. Questa riga di codice permette di creare un endpoint OpenAI.
chat = ChatOpenAI(model_name="gpt-3.5-turbo",temperature=0.0)
Stiamo usando il modello GPT-3.5 poiché è più economico del GPT-4 e sembra sufficiente per questa applicazione. Il parametro temperatura è fissato a 0 per evitare di avere un output casuale.