Questa recensione della ricerca sull’AI esplora l’integrazione delle immagini satellitari e dell’apprendimento profondo per misurare la povertà basata sugli asset.

La ricerca sull'IA esplora l'integrazione di immagini satellitari e apprendimento profondo per misurare la povertà basata sugli asset una recensione approfondita.

Ricercatori dell’Università di Lund e dell’Università di Halmstad hanno effettuato una revisione sull’intelligenza artificiale spiegabile nella stima della povertà attraverso immagini satellitari e deep machine learning. Sottolineando la trasparenza, l’interpretabilità e la conoscenza del dominio, l’analisi di 32 articoli rileva che questi elementi cruciali nell’apprendimento automatico spiegabile presentano variabilità e non soddisfano appieno le esigenze di conoscenze scientifiche e scoperte sulla povertà e il benessere.

Lo studio rileva la variabilità dello stato di questi elementi centrali analizzando 32 articoli che prevedono la povertà/ricchezza, utilizzando dati di indagini come verità di riferimento, applicandoli a contesti urbani e rurali e coinvolgendo reti neurali profonde. Si sostiene che lo stato attuale non soddisfi i requisiti scientifici per le conoscenze sulla povertà e il benessere. La revisione sottolinea l’importanza della spiegabilità per una maggiore diffusione e accettazione all’interno della comunità di sviluppo.

L’introduzione affronta le sfide nell’identificazione delle comunità vulnerabili e nella comprensione dei determinanti della povertà, citando lacune informative e limitazioni delle indagini sulle famiglie. Si evidenzia il potenziale del deep machine learning e delle immagini satellitari nel superare queste sfide e si sottolinea la necessità di spiegabilità, trasparenza, interpretabilità e conoscenza del dominio nel processo scientifico, valutando lo stato dell’apprendimento automatico spiegabile nella previsione della povertà/ricchezza utilizzando dati di indagini, immagini satellitari e reti neurali profonde. L’obiettivo è promuovere una maggiore diffusione e accettazione all’interno della comunità di sviluppo.

Effettuando una revisione integrativa della letteratura, lo studio analizza 32 studi che soddisfano determinati criteri nella previsione della povertà, dati di indagine, immagini satellitari e reti neurali profonde. Viene discussa l’uso di mappe di attribuzione per spiegare modelli di imaging di deep learning e lo studio valuta le proprietà del modello per l’interpretabilità. La revisione mira a fornire una panoramica della spiegabilità negli articoli esaminati e valutarne il potenziale contributo alle nuove conoscenze nella previsione della povertà.

La revisione degli articoli rivela uno stato variabile degli elementi centrali dell’apprendimento automatico spiegabile: trasparenza, interpretabilità e conoscenza del dominio, che non soddisfano i requisiti scientifici. L’interpretabilità e la spiegabilità sono deboli, con limitati sforzi per interpretare modelli o spiegare dati predittivi. La conoscenza del dominio è comunemente utilizzata nei modelli basati su caratteristiche per la selezione, ma meno in altri aspetti. I risultati sperimentali evidenziano alcune intuizioni, come la modellazione delle limitazioni degli indici di ricchezza e l’impatto delle immagini satellitari a bassa risoluzione. Un articolo si distingue per la sua forte ipotesi e valutazione positiva della conoscenza del dominio.

Nella sfera della povertà, dell’apprendimento automatico e delle immagini satellitari, lo stato della trasparenza, interpretabilità e conoscenza del dominio nelle approcci di apprendimento automatico spiegabile varia e non soddisfa i requisiti scientifici. La spiegabilità, essenziale per una maggiore diffusione nella comunità di sviluppo, va oltre la mera interpretabilità. La trasparenza negli articoli esaminati è mista, con alcuni ben documentati e altri privi di riproducibilità. Le debolezze dell’interpretabilità e della spiegabilità persistono, poiché pochi ricercatori interpretano i modelli o spiegano i dati predittivi. Sebbene la conoscenza del dominio sia comune nei modelli basati su caratteristiche per la selezione, non viene ampiamente applicata in altri aspetti della modellazione. La messa in ordine e la classificazione tra le caratteristiche di impatto sono una importante futura direzione di ricerca.