Spiegazione dell’IA Esplicabile Utilizzando Formule Booleane Espressive

Spiegazione dell'IA Esplicabile mediante Formule Booleane Espressive.

L’esplosione nelle applicazioni di intelligenza artificiale (AI) e di apprendimento automatico sta permeando quasi ogni settore e aspetto della vita.

Ma la sua crescita non arriva senza ironia. Mentre l’AI esiste per semplificare e/o accelerare la presa di decisioni o i flussi di lavoro, la metodologia per farlo è spesso estremamente complessa. Infatti, alcuni algoritmi di apprendimento automatico “black box” sono così intricati e complessi che possono sfidare una spiegazione semplice, anche da parte degli scienziati informatici che li hanno creati.

Ciò può essere piuttosto problematico quando alcuni casi d’uso – come nei settori della finanza e della medicina – sono definiti dalle migliori pratiche del settore o da normative governative che richiedono spiegazioni trasparenti sul funzionamento interno delle soluzioni AI. E se queste applicazioni non sono sufficientemente espressive per soddisfare i requisiti di spiegabilità, potrebbero essere rese inutilizzabili indipendentemente dalla loro efficacia complessiva.

Per affrontare questo dilemma, il nostro team presso il Fidelity Center for Applied Technology (FCAT) – in collaborazione con l’Amazon Quantum Solutions Lab – ha proposto e implementato un modello interpretabile di apprendimento automatico per l’AI Esplicabile (XAI) basato su formule booleane espressive. Tale approccio può includere qualsiasi operatore che può essere applicato a una o più variabili booleane, fornendo così una maggiore espressività rispetto a approcci basati su regole rigide o basati su alberi.

Puoi leggere il paper completo qui per dettagli completi su questo progetto.

La nostra ipotesi era che, poiché i modelli – come gli alberi decisionali – possono diventare complessi e difficili da interpretare, la necessità di trovare una regola espressiva con bassa complessità ma alta accuratezza fosse un problema di ottimizzazione inestricabile che doveva essere risolto. Inoltre, semplificando il modello attraverso questo avanzato approccio XAI, potevamo ottenere benefici aggiuntivi, come l’esposizione di pregiudizi che sono importanti nel contesto di un uso etico e responsabile di ML; mentre allo stesso tempo rendeva più facile mantenere e migliorare il modello.

Abbiamo proposto un approccio basato su formule booleane espressive perché definiscono regole con complessità regolabile (o interpretabilità) in base alle quali vengono classificati i dati in ingresso. Una formula del genere può includere qualsiasi operatore che può essere applicato a una o più variabili booleane (come And o AtLeast), fornendo così una maggiore espressività rispetto a metodologie basate su regole rigide o basate su alberi.

In questo problema abbiamo due obiettivi contrastanti: massimizzare le prestazioni dell’algoritmo, minimizzando allo stesso tempo la sua complessità. Pertanto, anziché adottare l’approccio tipico di applicare uno dei due metodi di ottimizzazione – combinare più obiettivi in uno o vincolare uno degli obiettivi – abbiamo scelto di includere entrambi nella nostra formulazione. Così facendo, e senza perdita di generalità, utilizziamo principalmente l’accuratezza bilanciata come metrica di prestazioni generale.

Inoltre, includendo operatori come AtLeast, siamo stati motivati dall’idea di affrontare la necessità di elenchi altamente interpretabili, come una lista di sintomi medici che indicano una particolare condizione. È concepibile che una decisione venga presa utilizzando un tale elenco di sintomi in modo che un numero minimo debba essere presente per una diagnosi positiva. Allo stesso modo, nel settore finanziario, una banca può decidere se fornire o meno credito a un cliente in base alla presenza di un certo numero di fattori da un elenco più ampio.

Abbiamo implementato con successo il nostro modello XAI e lo abbiamo testato su alcuni dataset pubblici per il credito, il comportamento dei clienti e le condizioni mediche. Abbiamo scoperto che il nostro modello è generalmente competitivo con altre alternative ben note. Abbiamo anche scoperto che il nostro modello XAI può potenzialmente essere alimentato da hardware a scopo speciale o dispositivi quantistici per risolvere rapidamente la Programmazione Lineare Intera (ILP) o l’Ottimizzazione Binaria Quadratica Non Vincolata (QUBO). L’aggiunta di risolutori QUBO riduce il numero di iterazioni, portando così a un aumento di velocità grazie a una rapida proposta di mosse non locali.

Come accennato, i modelli di intelligenza artificiale esplicabili che utilizzano formule booleane possono avere molte applicazioni nel settore sanitario e nel campo della finanza di Fidelity (come la valutazione del credito o per valutare perché alcuni clienti possono aver selezionato un prodotto mentre altri no). Creando queste regole interpretabili, possiamo ottenere livelli più elevati di conoscenza che possono portare a futuri miglioramenti nello sviluppo o nel perfezionamento del prodotto, nonché all’ottimizzazione delle campagne di marketing.

Sulla base delle nostre conclusioni, abbiamo stabilito che l’IA esplicabile utilizzando formule booleane espressive sia appropriata e desiderabile per quei casi d’uso che richiedono una maggiore spiegabilità. Inoltre, con lo sviluppo continuo dei computer quantistici, prevediamo l’opportunità di ottenere miglioramenti di velocità potenziali utilizzandoli e altri acceleratori hardware a scopo speciale.

Il lavoro futuro potrebbe riguardare l’applicazione di questi classificatori ad altri dataset, l’introduzione di nuovi operatori o l’applicazione di questi concetti ad altri casi d’uso.