Il passaggio in avanti e la retropropagazione Reti neurali 101

Il passo avanti e la retropropagazione delle reti neurali una guida completa

Spiegazione di come le reti neurali “addestrano” e “apprendono” i pattern nei dati a mano e in codice utilizzando PyTorch

Immagine di juicy_fish da Flaticon. L'autore ha la licenza di Flaticon per utilizzare l'immagine.

Background

Nel mio ultimo articolo, abbiamo esplorato le origini delle reti neurali, dal singolo perceptron a un grande motore di ottimizzazione non lineare interconnesso (multi-layer perceptron (MLP)). Ti consiglio vivamente di leggere i miei articoli precedenti se non sei familiare con il perceptron, MLP e le funzioni di attivazione, poiché ne discuteremo abbastanza in questo articolo:

Introduzione, Perceptron e Architettura: Reti Neurali 101

Un’introduzione alle Reti Neurali e ai suoi mattoni fondanti

levelup.gitconnected.com

Funzioni di Attivazione e Non-Linearità: Reti Neurali 101

Spiegazione del motivo per cui le reti neurali possono apprendere (quasi) tutto e qualsiasi cosa

towardsdatascience.com

Ora è il momento di capire come queste reti neurali vengono “addestrate” e “apprendono” i pattern nei dati che vengono passati. Ci sono due componenti chiave: passaggio in avanti e retropropagazione. Approfondiamole!

Architettura

Riassumiamo brevemente la struttura generale di una rete neurale:

Un perceptron a due strati nascosti. Diagramma dell'autore.

Dove ogni neurone nascosto sta eseguendo il seguente processo:

<img alt=”Il processo eseguito all’interno di ogni neurone. Diagramma dell’autore.” src=”https://ai.miximages.com/miro.