Comprensione dell’IA Esplicabile e dell’IA Interpretabile

'Understanding Explainable AI and Interpretable AI'

A seguito dei recenti progressi tecnologici nell’apprendimento automatico (ML), i modelli di ML vengono ora utilizzati in una varietà di campi per migliorare le prestazioni ed eliminare la necessità di manodopera umana. Queste discipline possono essere semplici come aiutare autori e poeti a perfezionare il proprio stile di scrittura o complesse come la previsione della struttura delle proteine. Inoltre, c’è una tolleranza molto bassa per gli errori poiché i modelli di ML stanno guadagnando popolarità in numerose industrie cruciali, come la diagnostica medica, il rilevamento delle frodi con le carte di credito, ecc. Di conseguenza, diventa necessario per gli esseri umani comprendere questi algoritmi e il loro funzionamento a un livello più profondo. Dopotutto, per gli accademici, comprendere come i modelli di ML fanno previsioni è cruciale per progettare modelli ancora più robusti e correggere le carenze dei modelli attuali riguardanti il bias e altre preoccupazioni.

È qui che entrano in gioco le tecniche di Intelligenza Artificiale Interpretabile (IAI) e Spiegabile (XAI), e la necessità di comprendere le loro differenze diventa più evidente. Sebbene la distinzione tra le due non sia sempre chiara, anche per gli accademici, i termini interpretabilità e spiegabilità vengono talvolta usati in modo sinonimo quando si fa riferimento agli approcci di ML. È fondamentale distinguere tra modelli IAI e XAI a causa della loro crescente popolarità nel campo del ML al fine di aiutare le organizzazioni a selezionare la migliore strategia per il proprio caso d’uso.

Per farla breve, i modelli di IA interpretabili possono essere facilmente compresi dagli esseri umani semplicemente guardando i loro riassunti e parametri di modello senza l’uso di strumenti o approcci aggiuntivi. In altre parole, si può dire che un modello IAI fornisce la propria spiegazione. D’altra parte, i modelli di IA spiegabili sono modelli di deep learning molto complessi che sono troppo complessi per essere compresi dagli esseri umani senza l’uso di metodi aggiuntivi. Ecco perché quando i modelli di IA spiegabili possono dare un’idea chiara del motivo per cui è stata presa una decisione, ma non di come si è arrivati a quella decisione. Nel resto dell’articolo, approfondiremo i concetti di interpretabilità e spiegabilità e li comprenderemo con l’aiuto di esempi.

1. Apprendimento automatico interpretabile

Sosteniamo che qualsiasi cosa possa essere interpretabile se è possibile comprendere il suo significato, ossia se è possibile determinare chiaramente la sua causa ed effetto. Ad esempio, se qualcuno mangia troppi cioccolatini subito dopo cena, avrà sempre problemi a dormire. Situazioni di questo tipo possono essere interpretate. Un modello è considerato interpretabile nel campo del ML se le persone possono comprenderlo da sole in base ai suoi parametri. Con i modelli di IA interpretabili, gli esseri umani possono facilmente capire come il modello sia arrivato a una soluzione particolare, ma non se i criteri utilizzati per arrivare a quel risultato siano sensati. Gli alberi decisionali e la regressione lineare sono un paio di esempi di modelli interpretabili. Illustreremo meglio l’interpretabilità con l’aiuto di un esempio:

Consideriamo una banca che utilizza un modello ad albero decisionale addestrato per determinare se approvare una richiesta di prestito. L’età del richiedente, il reddito mensile, se ha altri prestiti in sospeso e altre variabili vengono prese in considerazione durante la presa di decisione. Per capire perché è stata presa una decisione particolare, possiamo facilmente attraversare i nodi dell’albero e, in base ai criteri di decisione, possiamo capire perché il risultato finale è stato quello che è stato. Ad esempio, un criterio decisionale può specificare che una richiesta di prestito non verrà autorizzata se una persona che non è uno studente ha un reddito mensile inferiore a $3000. Tuttavia, non possiamo comprendere la logica alla base della scelta dei criteri decisionali utilizzando questi modelli. Ad esempio, il modello non spiega perché in questo scenario viene imposto un requisito minimo di reddito di $3000 per un richiedente non studente.

Per produrre l’output fornito, è necessario interpretare diversi fattori, tra cui pesi, caratteristiche, ecc., per le organizzazioni che desiderano comprendere meglio il motivo e il modo in cui i loro modelli generano previsioni. Ma questo è possibile solo quando i modelli sono abbastanza semplici. Sia il modello di regressione lineare che l’albero decisionale hanno un numero limitato di parametri. Man mano che i modelli diventano più complessi, non possiamo più comprenderli in questo modo.

2. Apprendimento automatico spiegabile

I modelli di IA spiegabili sono quelli le cui modalità di funzionamento interne sono troppo complesse per essere comprese dagli esseri umani e come influenzano la previsione finale. Altri nomi per gli algoritmi di ML sono i modelli a “scatola nera”, in cui le caratteristiche del modello sono considerate l’input e le previsioni prodotte sono l’output. Gli esseri umani hanno bisogno di metodi aggiuntivi per esaminare questi sistemi “scatola nera” al fine di comprendere come operano questi modelli. Un esempio di tale modello potrebbe essere un classificatore Random Forest composto da molti alberi decisionali. In questo modello, le previsioni di ciascun albero vengono prese in considerazione nella determinazione della previsione finale. Questa complessità aumenta ulteriormente quando si considerano modelli basati su reti neurali come LogoNet. Con un aumento della complessità di tali modelli, diventa semplicemente impossibile per gli esseri umani comprendere il modello guardando solo i pesi del modello.

Come accennato in precedenza, gli esseri umani hanno bisogno di metodi aggiuntivi per comprendere come algoritmi sofisticati generano previsioni. I ricercatori utilizzano diversi metodi per trovare collegamenti tra i dati di input e le previsioni generate dal modello, che possono essere utili per capire il comportamento del modello di apprendimento automatico. Tali metodi model-agnostic (metodi indipendenti dal tipo di modello) includono grafici di dipendenza parziale, grafici di dipendenza SHapley Additive exPlanations (SHAP) e modelli surrogati. Vengono anche impiegate diverse approcci che enfatizzano l’importanza delle diverse caratteristiche. Queste strategie determinano quanto bene ciascuna attributo può essere utilizzato per prevedere la variabile target. Un punteggio più alto significa che la caratteristica è più cruciale per il modello e ha un impatto significativo sulla previsione.

Tuttavia, la domanda che ancora rimane è perché c’è bisogno di distinguere tra l’interpretabilità e la spiegabilità dei modelli di apprendimento automatico. È chiaro dagli argomenti sopra menzionati che alcuni modelli sono più facili da interpretare di altri. In termini semplici, un modello è più interpretabile di un altro se è più facile per un umano comprendere come fa le previsioni rispetto all’altro modello. È anche vero che, in generale, i modelli meno complicati sono più interpretabili e spesso hanno una precisione inferiore rispetto a modelli più complessi che coinvolgono reti neurali. Di conseguenza, un’elevata interpretabilità di solito comporta una precisione più bassa. Ad esempio, utilizzare la regressione logistica per eseguire il riconoscimento delle immagini produrrebbe risultati scadenti. D’altra parte, la spiegabilità del modello inizia a svolgere un ruolo più importante se un’azienda vuole ottenere elevate prestazioni ma ha ancora bisogno di comprendere il comportamento del modello.

Pertanto, le aziende devono considerare se è necessaria l’interpretabilità prima di avviare un nuovo progetto di apprendimento automatico. Quando i dataset sono ampi e i dati sono sotto forma di immagini o testo, le reti neurali possono soddisfare l’obiettivo del cliente con elevate prestazioni. In tali casi, quando sono necessari metodi complessi per massimizzare le prestazioni, gli scienziati dei dati mettono maggior enfasi sulla spiegabilità del modello rispetto all’interpretabilità. A causa di ciò, è fondamentale comprendere le differenze tra la spiegabilità e l’interpretabilità del modello e sapere quando preferire l’una all’altra.