Questo articolo dell’IA rivela un nuovo approccio per comprendere i modelli di deep learning scomporre il ‘dove’ e il ‘cosa’ con la Propagazione della Rilevanza dei Concetti (CRP).

Questo articolo dell'IA svela un nuovo approccio nella comprensione dei modelli di deep learning la scomposizione del 'dove' e del 'cosa' tramite la Propagazione della Rilevanza dei Concetti (CRP).

“`html

Il campo del Machine Learning e dell’Intelligenza Artificiale è diventato molto importante. Abbiamo nuovi progressi che aumentano di giorno in giorno. Quest’area sta influenzando tutte le sfere. Utilizzando architetture di reti neurali finemente sviluppate, abbiamo modelli che si distinguono per una straordinaria accuratezza nei rispettivi settori.

Nonostante le loro prestazioni accurate, dobbiamo comunque comprendere appieno come queste reti neurali funzionino. Dobbiamo conoscere i meccanismi che governano la selezione e la previsione degli attributi all’interno di questi modelli per osservare ed interpretare i risultati.

La natura intricata e non lineare delle reti neurali profonde (DNN) porta spesso a conclusioni che possono mostrare un pregiudizio verso tratti indesiderati o indesiderabili. L’opacità intrinseca del loro ragionamento rappresenta una sfida, rendendo difficile applicare modelli di apprendimento automatico in diversi ambiti di applicazione pertinenti. Non è facile comprendere come un sistema di intelligenza artificiale prenda le sue decisioni.

Conseguentemente, il Prof. Thomas Wiegand (Fraunhofer HHI, BIFOLD), il Prof. Wojciech Samek (Fraunhofer HHI, BIFOLD) e il Dr. Sebastian Lapuschkin (Fraunhofer HHI) hanno introdotto il concetto di propaggine di rilevanza (CRP) nel loro articolo. Questo metodo innovativo offre un percorso dalle mappe di attribuzione a spiegazioni comprensibili dall’uomo, consentendo di eludere le decisioni individuali dell’intelligenza artificiale attraverso concetti comprensibili all’uomo.

I ricercatori evidenziano il CRP come un metodo esplicativo avanzato per le reti neurali profonde, che integra e arricchisce i modelli esplicativi esistenti. Integrando prospettive locali e globali, il CRP affronta le domande “dove” e “cosa” riguardanti le singole previsioni. Il CRP rivela le idee di intelligenza artificiale utilizzate, la loro rappresentazione spaziale nell’input e i singoli segmenti delle reti neurali responsabili della loro considerazione, oltre alle variabili di input rilevanti che influiscono sulla scelta.

Come risultato, il CRP descrive le decisioni prese dall’IA in termini che le persone possono comprendere.

I ricercatori sottolineano che quest’approccio di spiegabilità esamina il processo completo di previsione di un’IA dall’input all’output. Il gruppo di ricerca ha già sviluppato tecniche per utilizzare mappe di calore per dimostrare come gli algoritmi di intelligenza artificiale prendano decisioni.

Il Dr. Sebastian Lapuschkin, responsabile del gruppo di ricerca sull’intelligenza artificiale esplicabile presso il Fraunhofer HHI, spiega più in dettaglio la nuova tecnica. Ha affermato che il CRP trasferisce l’esplicazione dallo spazio di input, dove si trova l’immagine con tutti i suoi pixel, allo spazio concettuale arricchito semanticamente formato dai livelli più alti delle reti neurali.

I ricercatori hanno inoltre affermato che la prossima fase della spiegabilità dell’IA, nota come CRP, offre un mondo di nuove opportunità per la ricerca, la valutazione e il miglioramento delle prestazioni dei modelli di intelligenza artificiale.

Esplorando progetti di modelli e domini di applicazione utilizzando studi basati sul CRP, sarà possibile acquisire una comprensione della rappresentazione e composizione delle idee all’interno del modello e una valutazione quantitativa del loro influsso sulle previsioni. Queste indagini sfruttano il potere del CRP per approfondire i livelli complessi del modello, svelando il paesaggio concettuale e valutando l’impatto quantitativo di diverse idee sugli esiti predittivi.

“`