Ridurre la distanza tra la comprensione umana e l’apprendimento automatico l’IA esplicabile come soluzione.

IA esplicabile soluzione per ridurre la distanza tra comprensione umana e apprendimento automatico.

Questo articolo approfondisce l’importanza dell’AI esplicabile (XAI), le sfide nella costruzione di modelli di intelligenza artificiale interpretabili e fornisce alcune linee guida pratiche per le aziende per costruire modelli XAI.

Introduzione

Hai mai aperto la tua app di shopping preferita e la prima cosa che hai visto è stata una raccomandazione per un prodotto che non sapevi di aver bisogno, ma che hai finito per comprare grazie alla raccomandazione tempestiva? O hai aperto la tua app musicale preferita ed è stato un piacere vedere una gemma dimenticata del tuo artista preferito raccomandata in alto come qualcosa che “potrebbe piacerti”? Consapevolmente o inconsciamente, tutti noi oggi incontriamo decisioni, azioni o esperienze che sono state generate dall’Intelligenza Artificiale (AI). Mentre alcune di queste esperienze sono abbastanza innocue (raccomandazioni musicali perfette, qualcuno?), altre possono a volte causare un certo disagio (“Come ha fatto questa app a sapere che stavo pensando di fare un programma di perdita di peso?”). Questo disagio si trasforma in preoccupazione e diffidenza quando si tratta di questioni di privacy su se stessi e sui propri cari. Tuttavia, sapere come o perché ti è stata raccomandata qualcosa può aiutare a ridurre un po’ di quel disagio.

Ecco dove entra in gioco l’AI esplicabile, o XAI. Con l’aumentare della diffusione dei sistemi abilitati dall’AI, cresce la necessità di capire come questi sistemi prendono decisioni. In questo articolo, esploreremo l’XAI, discuteremo le sfide nei modelli di AI interpretabili, i progressi nel rendere questi modelli più interpretabili e forniremo linee guida per le aziende e i singoli individui per implementare l’XAI nei loro prodotti per favorire la fiducia degli utenti nell’AI.

Cos’è l’AI esplicabile?

L’AI esplicabile (XAI) è la capacità dei sistemi di AI di fornire spiegazioni per le loro decisioni o azioni. L’XAI colma l’importante divario tra un sistema di AI che decide e l’utente finale che capisce perché quella decisione è stata presa. Prima dell’avvento dell’AI, i sistemi erano spesso basati su regole (ad esempio, se un cliente acquista pantaloni, raccomandare cinture. O se una persona accende il suo “Smart TV”, mantenere la rotazione della raccomandazione n. 1 tra 3 opzioni fisse). Queste esperienze fornivano un senso di prevedibilità. Tuttavia, con l’AI diventata mainstream, collegare i punti all’indietro da cui qualcosa viene mostrato o perché viene presa una certa decisione da un prodotto non è semplice. L’AI esplicabile può aiutare in questi casi.

L’AI esplicabile (XAI) consente agli utenti di capire perché un sistema di AI ha deciso qualcosa e quali fattori sono entrati in gioco nella decisione. Ad esempio, quando apri la tua app musicale, potresti vedere un widget chiamato “Perché ti piace Taylor Swift” seguito da raccomandazioni che sono musica pop e simili alle canzoni di Taylor Swift. O potresti aprire un’app di shopping e vedere “Raccomandazioni basate sulla tua cronologia recente di acquisti” seguita da raccomandazioni di prodotti per bambini perché hai comprato alcuni giocattoli e vestiti per bambini nei giorni scorsi.

L’XAI è particolarmente importante in aree in cui le decisioni ad alto rischio sono prese dall’AI. Ad esempio, il trading algoritmico e altre raccomandazioni finanziarie, la sanità, i veicoli autonomi e altro. Essere in grado di fornire una spiegazione per le decisioni può aiutare gli utenti a capire la razionalità, identificare eventuali pregiudizi introdotti nella decisione del modello a causa dei dati su cui è stato addestrato, correggere gli errori nelle decisioni, e aiutare a costruire la fiducia tra gli esseri umani e l’AI. Inoltre, con l’aumento delle linee guida regolamentari e dei requisiti legali che stanno emergendo, l’importanza dell’XAI sta solo aumentando.

Sfide nell’XAI

Se l’XAI fornisce trasparenza agli utenti, perché non rendere tutti i modelli di AI interpretabili? Ci sono diverse sfide che impediscono che ciò accada.

I modelli di AI avanzati come le reti neurali profonde hanno molteplici strati nascosti tra gli input e l’output. Ogni strato prende in input quello del precedente, effettua il calcolo su di esso e lo passa come input al successivo. Le complesse interazioni tra gli strati rendono difficile tracciare il processo decisionale per renderlo esplicabile. Questo è il motivo per cui questi modelli sono spesso definiti come “scatole nere”.

Questi modelli elaborano anche dati ad alta dimensionalità come immagini, audio, testo e altro ancora. Essere in grado di interpretare l’influenza di ogni singola caratteristica al fine di determinare quale caratteristica ha contribuito maggiormente a una decisione è una sfida. Semplificare questi modelli per renderli più interpretabili comporta una diminuzione delle prestazioni. Ad esempio, modelli più semplici e più “comprensibili” come gli alberi decisionali potrebbero sacrificare le prestazioni predittive. Di conseguenza, il compromesso tra prestazioni e accuratezza per il bene della prevedibilità non è accettabile.

Progressi nell’XAI

Con la crescente necessità di XAI per continuare a costruire la fiducia umana nell’AI, ci sono stati progressi in questo campo negli ultimi tempi. Ad esempio, ci sono alcuni modelli come gli alberi decisionali o i modelli lineari che rendono l’interpretabilità abbastanza ovvia. Ci sono anche modelli di AI simbolici o basati su regole che si concentrano sulla rappresentazione esplicita di informazioni e conoscenze. Questi modelli spesso hanno bisogno che gli esseri umani definiscano le regole e forniscano informazioni di dominio ai modelli. Con lo sviluppo attivo che sta avvenendo in questo campo, ci sono anche modelli ibridi che combinano il deep learning con l’interpretabilità, minimizzando il sacrificio fatto sulle prestazioni.

Linee Guida per Implementare XAI nei Prodotti

Permettere agli utenti di comprendere sempre di più perché i modelli di intelligenza artificiale prendono le decisioni che prendono può contribuire a creare fiducia e trasparenza sui modelli stessi. Ciò può portare a una collaborazione migliorata e simbiotica tra esseri umani e macchine, dove il modello di intelligenza artificiale aiuta gli esseri umani nelle decisioni con trasparenza e gli esseri umani aiutano a tarare il modello di intelligenza artificiale per rimuovere pregiudizi, imprecisioni ed errori.

Ecco alcuni modi in cui le aziende e gli individui possono implementare XAI nei loro prodotti:

  1. Selezionare un Modello Interpretativo dove possibile – Dove sono sufficienti e funzionano bene, dovrebbero essere selezionati modelli di intelligenza artificiale interpretativi rispetto a quelli che non lo sono facilmente. Ad esempio, nell’ambito sanitario, modelli più semplici come gli alberi decisionali possono aiutare i medici a capire perché un modello di intelligenza artificiale ha raccomandato una determinata diagnosi, il che può contribuire a creare fiducia tra il medico e il modello di intelligenza artificiale. Dovrebbero essere utilizzate tecniche di ingegneria delle caratteristiche come la codifica a caldo o la ridimensionamento delle caratteristiche che migliorano l’interpretabilità.
  2. Utilizzare Spiegazioni Post-hoc – Utilizzare tecniche come l’importanza delle caratteristiche e i meccanismi di attenzione per generare spiegazioni post-hoc. Ad esempio, LIME (Local Interpretable Model-agnostic Explanations) è una tecnica che spiega le previsioni dei modelli. Genera punteggi di importanza delle caratteristiche per evidenziare il contributo di ogni caratteristica alla decisione di un modello. Ad esempio, se si finisce per “piacere” una determinata raccomandazione di playlist, il metodo LIME cercherebbe di aggiungere e rimuovere determinate canzoni dalla playlist e prevedere la probabilità del proprio gradimento della playlist e concludere che gli artisti le cui canzoni sono nella playlist giocano un ruolo importante nel proprio gradimento o non gradimento della playlist.
  3. Comunicazione con gli Utenti – Tecniche come LIME o SHAP (SHapley Additive exPlanations) possono essere utilizzate per fornire una spiegazione utile su decisioni o previsioni specifiche senza necessariamente dover spiegare tutte le complessità del modello nel complesso. Anche segnali visivi come le mappe di attivazione o le mappe di attenzione possono essere utilizzati per evidenziare quali input sono più rilevanti per l’output generato da un modello. Le tecnologie recenti come Chat GPT possono essere utilizzate per semplificare spiegazioni complesse in un linguaggio semplice comprensibile dagli utenti. Infine, dare agli utenti un certo controllo in modo che possano interagire con il modello può contribuire a creare fiducia. Ad esempio, gli utenti potrebbero provare a modificare gli input in modi diversi per vedere come cambia l’output.
  4. Monitoraggio Continuo – Le aziende dovrebbero implementare meccanismi per monitorare le prestazioni dei modelli e rilevare e segnalare automaticamente quando vengono rilevati pregiudizi o deriva. Dovrebbe essere regolarmente aggiornato e tarato il modello, nonché audit e valutazioni per garantire che i modelli siano conformi alle leggi regolamentari e rispettino gli standard etici. Infine, anche se di rado, dovrebbero esserci esseri umani nel loop per fornire feedback e correzioni se necessario.

Conclusione

In sintesi, poiché l’IA continua a crescere, diventa imprescindibile costruire XAI al fine di mantenere la fiducia degli utenti nell’IA. Adottando le linee guida sopra descritte, le aziende e gli individui possono costruire un’IA più trasparente, comprensibile e semplice. Più le aziende adottano XAI, migliore sarà la comunicazione tra gli utenti e i sistemi di IA e più gli utenti si sentiranno sicuri di lasciare che l’IA migliori le loro vite.

Ashlesha Kadam guida un team di prodotto globale presso Amazon Music che sviluppa esperienze musicali su Alexa e sulle app di Amazon Music (web, iOS, Android) per milioni di clienti in oltre 45 paesi. È anche un’appassionata sostenitrice delle donne nella tecnologia, servendo come co-presidente per la traccia di Human Computer Interaction (HCI) per Grace Hopper Celebration (la più grande conferenza tecnologica per donne nella tecnologia con oltre 30.000 partecipanti in 115 paesi). Nel suo tempo libero, Ashlesha ama leggere romanzi, ascoltare podcast sul business e la tecnologia (il preferito attuale è Acquired), fare escursioni nel bellissimo Pacific Northwest e trascorrere del tempo con suo marito, suo figlio e il suo Golden Retriever di 5 anni.