IA interpretabile con SHAP

Interpretabile IA con SHAP

Foto di Nik Korba su Unsplash

Un caso per l’AI interpretabile

Viviamo nell’era dell’AI. È tutto intorno a noi e i media non ci permettono di dimenticare l’impatto che continua ad avere sul mondo come lo conosciamo. A causa della crescente popolarità dell’AI e delle sue applicazioni, sempre più persone stanno prendendo coscienza del ruolo che il machine learning svolge nella vita quotidiana, dai sistemi di raccomandazione alle previsioni fino all’AI generativa.

Con la sensibilità sempre maggiore della popolazione generale verso tutto ciò che riguarda l’AI, sta diventando sempre più importante per i data scientist e gli ingegneri dati essere in grado di interpretare, quando opportuno, perché i loro modelli fanno certe previsioni e decisioni. Di solito, un buon modello può prendere un problema e spiegare cosa è probabile che si osservi in futuro. Tuttavia, questo affronta solo una parte del problema effettivo:

“Il modello deve anche spiegare come è arrivato alla previsione (il perché), perché una previsione corretta risolve solo parzialmente il problema originale.” – Christoph Molnar, Interpretable Machine Learning

La citazione precedente sottolinea la necessità di affrontare il processo che un modello utilizza per effettuare le sue previsioni. Ci sono molti metodi per spiegare un modello, ma mi concentrerò su un metodo che è diventato sempre più popolare per la sua efficacia e semplicità.

SHAP (SHapley Additive exPlanations)

SHAP è un’applicazione del valore di Shapley, un concetto ben collaudato della teoria dei giochi cooperativi che misura il contributo individuale di ciascun giocatore al risultato di un gioco. Ad esempio, se 4 amici stanno giocando insieme a un gioco cooperativo, i valori di Shapley possono essere calcolati per misurare in che misura ciascun amico ha contribuito al risultato del gioco.

Per quanto riguarda il machine learning interpretabile, SHAP considera i giocatori in un gioco come singole caratteristiche di un modello e considera il risultato del gioco come le previsioni del modello. Pertanto, SHAP misura come ciascuna caratteristica in un modello influisce su una previsione individuale.

Dettagli

I valori di Shapley vengono calcolati simulando un gioco in cui alcuni giocatori sono assenti e altri sono presenti. Simulando vari giochi con diversi gruppi di giocatori presenti e calcolando i risultati, il modello può…