Predizione della misurazione del pozzo di tronchi utilizzando reti neurali con Keras
Predizione delle dimensioni dei tronchi del pozzo utilizzando le reti neurali con Keras
Un esempio di previsione della densità in massa (RHOB) con Keras e l’illustrazione degli impatti della normalizzazione sui risultati di previsione
Grandi quantità di dati vengono acquisite quotidianamente da pozzi di tutto il mondo. Tuttavia, la qualità di tali dati può variare notevolmente, dalla mancanza di dati all’impatto dei guasti ai sensori e alle condizioni del pozzo. Ciò può avere conseguenze su altre parti di un progetto sotterraneo, come ritardi e conclusioni e presupposti errati.
Poiché i dati mancanti sono uno dei problemi più comuni che affrontiamo con la qualità dei dati del registro del pozzo, sono stati sviluppati numerosi metodi e tecniche per stimare i valori e riempire le lacune. Ciò include l’applicazione della tecnologia di apprendimento automatico, che è aumentata di popolarità negli ultimi decenni grazie a librerie come TensorFlow e PyTorch.
In questo tutorial, utilizzeremo Keras, che è un’API di reti neurali di alto livello che funziona su TensorFlow. Lo utilizzeremo per illustrare il processo di creazione di un modello di apprendimento automatico che consenta di effettuare previsioni sulla densità in massa (RHOB). Si tratta di una misurazione comune acquisita tramite registro, tuttavia può essere notevolmente influenzata da condizioni del pozzo non buone o, in alcuni casi, gli strumenti possono guastarsi, risultando in nessuna misurazione su intervalli chiave.
Inizieremo con un modello molto semplice che non tiene conto della normalizzazione degli input, un passaggio comune nel flusso di lavoro dell’apprendimento automatico. Successivamente, costruiremo un secondo modello con input normalizzati e illustreremo il suo impatto sul risultato finale della previsione.
- 10 migliori piattaforme di coinvolgimento delle vendite (ottobre 2023)
- Meta AI presenta Habitat 3.0, Habitat Synthetic Scenes Dataset e HomeRobot 3 importanti innovazioni nello sviluppo di agenti AI socialmente incorporati.
- Leggi con me un club del libro sulla causalità
Importazione delle librerie e caricamento dei dati
Il primo passo in questo tutorial è quello di importare le librerie con cui lavoreremo.
Per questo tutorial, abbiamo bisogno di 4 librerie:
- Pandas: Caricamento e manipolazione del nostro dataset
- sklearn.model_selection: Per creare la divisione dei dati di addestramento e di test
- Tensorflow: Per costruire ed eseguire la nostra rete neurale
- matplotlib: Per visualizzare i risultati delle previsioni
Queste vengono importate nel seguente modo:
import pandas as pdfrom…