La necessità di un gradiente di spiegabilità nell’IA

Il gradiente di spiegabilità nell'IA

Troppi dettagli possono essere opprimenti, ma pochi dettagli possono essere ingannevoli.

Foto di No Revisions su Unsplash

“Ogni tecnologia sufficientemente avanzata è indistinguibile dalla magia” – Arthur C. Clarke

Con i progressi nelle auto a guida autonoma, nella visione computazionale e, più di recente, nei modelli linguistici di grandi dimensioni, la scienza può sembrare a volte magia! I modelli stanno diventando sempre più complessi ogni giorno e può essere tentante agitare le mani in aria e mormorare qualcosa riguardo alla retropropagazione e alle reti neurali quando si cerca di spiegare modelli complessi a un nuovo pubblico. Tuttavia, è necessario descrivere un modello di intelligenza artificiale, il suo impatto previsto e i potenziali pregiudizi, ed è qui che entra in gioco l’AI Esplicabile.

Con l’esplosione dei metodi di intelligenza artificiale nell’ultimo decennio, gli utenti hanno accettato le risposte che vengono date loro senza fare domande. L’intero processo di algoritmo viene spesso descritto come una scatola nera e non è sempre semplice o addirittura possibile capire come il modello sia arrivato a un risultato specifico, anche per i ricercatori che lo hanno sviluppato. Per instillare fiducia e sicurezza nei propri utenti, le aziende devono caratterizzare l’equità, la trasparenza e i processi decisionali sottostanti dei diversi sistemi che impiegano. Questo approccio non solo porta a un approccio responsabile verso i sistemi di intelligenza artificiale, ma aumenta anche l’adozione della tecnologia (https://www.mckinsey.com/capabilities/quantumblack/our-insights/global-survey-the-state-of-ai-in-2020).

Una delle parti più difficili dell’esplicabilità nell’intelligenza artificiale è definire chiaramente i confini di ciò che viene spiegato. Un dirigente e un ricercatore di intelligenza artificiale non richiederanno e accetteranno la stessa quantità di informazioni. Trovare il giusto livello di informazioni tra spiegazioni semplici e tutti i diversi percorsi possibili richiede molto addestramento e feedback. Contrariamente al pensiero comune, rimuovere la matematica e la complessità di una spiegazione non la rende priva di significato. È vero che c’è il rischio di semplificare e ingannare la persona facendole pensare di avere una profonda comprensione del modello e di cosa può farci. Tuttavia, l’uso delle tecniche giuste può fornire spiegazioni chiare al giusto livello che porterebbero la persona a fare domande a qualcun altro, come un data scientist, per approfondire…