Sp explainableAI (XAI)

Sp XAI

Ora gli algoritmi sanno cosa stanno facendo e perché!

INTRODUZIONE:

Ciao, appassionati di tecnologia e menti curiose. Benvenuti al prossimo capitolo del libro sull’Intelligenza Artificiale. Andiamo oltre gli enigmi dell’Intelligenza Artificiale, dove l’IA sta facendo onde come mai prima d’ora! L’Intelligenza Artificiale ha catturato con successo l’attenzione di tutte le generazioni, dalla Generazione Alpha alla Generazione Z, e persino i Baby Boomer. È come radunare una generazione per farla vivere il suo fantastico universo mentre rivoluziona le aziende da ogni lato. È come una scarica di adrenalina di cui non si può avere abbastanza.

FONTE: https://giphy.com/

Vi siete mai annoiati di sentire o supporre che Instagram capisca di cosa stavamo parlando e inizi a mostrarti le foto o il tipo preciso di cose di cui stavate discutendo con un amico? Ma non c’è una risposta specifica a questo argomento ogni volta che si solleva. Forse Internet può dire questo e quello, ma cosa è vero? E, anche se crediamo a Internet, dov’è la spiegazione? Siamo umani e, a differenza del nostro sistema legale, abbiamo bisogno di prove per credere a qualsiasi cosa. Quindi, non preoccupatevi, è qui che entra in gioco l’IA Esplicabile, anche conosciuta come XAI.

In questo blog, approfondiremo la teoria della XAI, esporremo i suoi meccanismi, esamineremo diverse metodologie e, naturalmente, offriremo una serie di esempi interessanti e pertinenti che renderanno evidente la magia della XAI! Quindi preparatevi, perché stiamo per intraprendere un viaggio emozionante che è allo stesso tempo tecnicamente solido e molto divertente! Portiamo chiarezza nel campo dell’intelligenza artificiale, una spiegazione alla volta! 🌐🧩

FONTE: https://media.makeameme.org/created/lets-get-started-rh01o6.jpg

A. DEFINIZIONE E IMPORTANZA DELL’INTELLIGENZA ARTIFICIALE ESPLICABILE (XAI):

PRESTITI CON L’IA:

FONTE: https://www.istockphoto.com/

Considerate il seguente scenario: desiderate richiedere un prestito (sia esso un mutuo per la casa, un finanziamento per un veicolo, un prestito per l’istruzione o altro) e state interagendo con un sistema di intelligenza artificiale per il processo di richiesta. Perché è ciò che accadrà nei prossimi cinque anni. Vi è stato rifiutato un prestito senza spiegazioni. Esattamente! Anche a me sembra pazzesco, ma è qui che entra in gioco la XAI, in quanto può aiutarvi a capire perché siete stati rifiutati e a esporre le ragioni specifiche, evitando di farvi sentire come se steste parlando con un impiegato bancario impassibile e dal cuore freddo.

ASSISTENZA SANITARIA CON L’IA:

FONTE: https://giphy.com/

Facciamo alcuni esempi per aiutarvi a capire perché l’Intelligenza Artificiale Esplicabile è così importante: immaginate un sistema sanitario in cui, invece di parlare con un medico, interagite con un sistema di intelligenza artificiale per assistervi nella diagnosi. Pazzesco, lo so che nessuno si fiderebbe dell’IA, nemmeno io! Motivo: non ci sarebbe una spiegazione per i farmaci raccomandati, il che è sospetto. Tuttavia, con la XAI, quell’ansia può essere sostituita dalla comprensione! Il sistema fornirà i dati medici e l’esplicazione dietro le sue raccomandazioni, in modo da non essere lasciati nel buio, chiedendovi se vi trovate in uno degli episodi di Black Mirror!

BINGE WATCHING CON L’IA:

FONTE: https://giphy.com/

Parliamo di qualcosa che ogni individuo del pianeta ha sperimentato almeno una volta nella vita. Hai mai visto una serie su Netflix o su un altro servizio di streaming e hai ricevuto strane proposte per una serie che nemmeno avevi considerato di guardare? Sembra che i nostri dispositivi elettronici ci stiano spiando? L’AI comprensibile può unirsi alla festa e aiutarti a capire perché l’algoritmo pensa che tu possa apprezzare quel thriller criminale o quella commedia romantica di cui non hai mai sentito parlare. Quindi niente più algoritmi misteriosi che giocano sporco e forniscono raccomandazioni non desiderate.

Investire e Negoziare CON AI:

FONTE: https://giphy.com/

L’ultimo esempio è rivolto a trader e investitori. Considera qualcuno che è un investitore intelligente che cerca di gestire il mercato azionario. Poiché quella persona è già esperta, sta già utilizzando un sistema di trading basato sull’IA, ma sembra più un gioco di freccette al buio. Non sai se dovresti fidarti di quel sistema alimentato dall’IA o no. Ma, non temere, miei colleghi investitori e trader, l’AI comprensibile è qui e può spiegare veramente le cause dietro le previsioni, quindi non stai semplicemente seguendo ciecamente i suoi capricci.

Come tutti sappiamo, ogni storia ha lati positivi e negativi, e l’IA non fa eccezione. Tuttavia, abbiamo la capacità di trasformare il negativo in positivo, il che renderà alla fine l’IA meno distante e inavvicinabile in cui le persone non hanno fiducia, e più probabilmente un’IA veramente comprensibile che ci aiuterà a trovare soluzioni ai nostri problemi. In sostanza un clone umano, ma sotto forma di un’IA.

CAPIRE XAI: SVELANDO LA SCATOLA NERA

FONTE: By Author

A. Cosa è una scatola nera nel modello di AI?

Ok, in termini molto semplici, immagina una macchina in cui inserisci un input e ricevi un output (risultato corretto), ma non sai cosa sta succedendo all’interno dell’algoritmo perché è tutto nero, o pensa a una scatola di Pandora digitale dove accade la magia! Questo nascondimento è intrigante, ma non va lontano quando si tratta di affrontare i problemi significativi che abbiamo discusso in precedenza. Ti darò un esempio: immagina di fare una domanda seria a un assistente AI sull’assistenza sanitaria o qualsiasi altra cosa e ottenere solo un emoji strano e felice! Non è strano? Di questo sto parlando.

B. Limitazioni dei modelli scatola nera e la necessità di comprensibilità

I modelli SCATOLA NERA possono essere efficaci nel fare previsioni o conclusioni senza fornire alcuna conoscenza interna, causando perplessità su come siano arrivati a quella conclusione.

Ti darò alcuni esempi per farti capire di cosa sto parlando

Reti neurali profonde (DNN): sicuramente hai sentito parlare di queste che stanno facendo molto scalpore tra gli appassionati di tecnologia. In generale, le reti neurali profonde sono strutture incredibilmente complesse con migliaia, se non milioni, di nodi collegati, che sono difficili da capire a causa del loro enorme numero di parametri e trasformazioni non lineari.

Fondamentalmente, determinare quale input specifico porta a quali nodi collegati tra milioni di nodi interconnessi per produrre quell’output specifico può essere impegnativo, il che lo rende un classico esempio di Modello Scatola Nera.

Quindi, quando si tratta di questi modelli e dei loro comportamenti complicati, che coinvolgono formule matematiche e trasformazioni complesse che sono quasi impossibili da comprendere per il cervello umano, ma allo stesso tempo sono i modelli più potenti e accurati nella storia dell’IA. Tuttavia, non possiamo fidarci di loro quando si tratta dell’integrità e della comprensibilità dei numerosi compiti evidenziati in precedenza. Ecco perché abbiamo bisogno di comprensibilità in ogni AI che implementiamo per mantenere la fiducia, l’integrità e l’autenticità dei consumatori.

C. Concetti chiave in XAI

FONTE: https://giphy.com/

Bene, il principio chiave da ricordare quando si tratta di Explainable AI è che si concentra nello sviluppare modelli di apprendimento automatico, specificamente algoritmi che possono fornirci motivazioni e spiegare il perché e il come abbiamo ottenuto il risultato. I concetti chiave sono i seguenti:

  1. INTERPRETABILITÀ: Considera questo concetto come qualcosa che le menti umane possono comprendere. Ciò implica che l’interpretabilità sia principalmente legata alla capacità dell’algoritmo di descrivere come funziona con spiegazioni chiare come il cristallo. Aiuta anche gli utenti a ottenere una comprensione delle tecniche del modello per prevedere i risultati.
  2. TRASPARENZA: La trasparenza si riferisce semplicemente alla parola stessa, il che implica che il funzionamento interno del modello di intelligenza artificiale dovrebbe essere facilmente accessibile e trasparente per gli utenti.
  3. SPIEGHI LOCALI VS SPIEGHI GLOBALI: Permettimi di spiegare in termini più semplici come questi due concetti vanno di pari passo. Lo spiegamento locale si riferisce al comportamento di previsione del modello, che è l’ultimo componente, mentre lo spiegamento globale si riferisce all’intero comportamento del modello, che include tutto dall’inizio alla conclusione.
  4. INTERAZIONE UOMO-COMPUTER: La comunicazione è essenziale, che si tratti di comunicazione tra esseri umani o tra esseri umani e computer, o viceversa. Fondamentalmente, ciò significa che l’interfaccia utente dovrebbe essere comprensibile e facile da usare per coloro che non hanno esperienza precedente con le app o addirittura con i computer.

TECNICHE PER L’INTELLIGENZA ARTIFICIALE ESPONIBILE:

Esploriamo alcune delle potenti approccio decisionale dell’intelligenza artificiale, come LIME, SHAP e DeepLIFT, che sono principalmente e solo mirati a far luce sul funzionamento misterioso dei modelli di intelligenza artificiale.

FONTE: https://giphy.com/
  • IMPORTANZA DELLE CARATTERISTICHE: Questa strategia ci aiuta semplicemente a determinare quale attributo ha maggiore influenza sulle previsioni del modello. La maggior parte delle strategie di variazione enfatizza SHAP (SHAPLEY ADDITIVE EXPLANATIONS) e LIME (LOCAL INTERPRETATBLE).
  • LIME (LOCAL INTERPRETATBLE MODEL-AGNOSTIC EXPLANATION): Considera questa strategia come l’agente segreto definitivo che sa tutto ciò che sta accadendo là fuori. Su ampia scala, questa strategia ci consente di decodificare il modello di scatola nera utilizzando un modello molto più semplice (ad esempio, regressione lineare). Causa interruzioni in presenza di determinati tipi di dati, quindi si siede e osserva i cambiamenti apportati alle previsioni, li annota e quindi fornisce tutte le informazioni e le intuizioni sul comportamento del modello.
  • VALORI SHAP (SHAPLEY ADDITIVE EXPLANATION): È un concetto derivato dalla teoria dei giochi che semplicemente implica che esamina ogni caratteristica del modello e prende nota delle caratteristiche che contribuiscono di più alla previsione. Calcola il contributo marginale medio di una caratteristica su tutti i sottoinsiemi di caratteristiche disponibili.
  • METODI BASATI SU REGOLE: Gli alberi decisionali e i modelli basati su regole sono comprensibili per definizione. Possono fornire percorsi di scelta chiari che contribuiscono a una determinata previsione.
  • Tecniche di visualizzazione: I grafici, le mappe di calore e le mappe di salienza possono essere utilizzati per mostrare come diverse caratteristiche influenzano le previsioni, rendendo così più facile per le persone comprendere il comportamento del modello.
  • Spiegazioni controfattuali: Queste strategie forniscono circostanze di input alternative, che portano a previsioni di modelli diverse, consentendo alle persone di comprendere scenari “cosa succederebbe se”.
  • Spiegazioni basate su concetti: Questo implica la conversione delle previsioni del modello in concetti che gli esseri umani sono in grado di comprendere. Nell’analisi delle immagini, ad esempio, potrebbe mettere in evidenza oggetti o regioni interessanti che hanno contribuito a una determinata previsione.
  • Propagation della rilevanza strato per strato (LRP): LRP è un approccio di spiegazione delle reti neurali profonde. Fornisce una classifica di rilevanza per l’output generato da ogni neurone, riflettendo il suo impatto sull’accuratezza della previsione finale.
  • Mecanismi di attenzione: I processi di attenzione possono essere visualizzati in modelli come i convertitori per comprendere quali elementi dell’input sono più cruciali per creare un risultato specifico.
  • Distillazione del modello: Questo comporta l’addestramento di un modello più semplice (come la regressione lineare o gli alberi decisionali) per imitare il comportamento di un modello più complesso. Il modello raffinato può quindi essere utilizzato per fornire spiegazioni.

AFFRONTARE IL BIAS E L’EQUITÀ NELL’INTELLIGENZA ARTIFICIALE:

FONTE: https://giphy.com/

Iniziamo discutendo perché è fondamentale affrontare il bias e l’equità nell’Intelligenza Artificiale. Guardiamo a un recente caso studio per capire cosa comporti questa problematica: sono sicuro che hai sentito parlare del preoccupante caso dello STRUMENTO DI ASSUNZIONE AI DI AMAZON, che è stato scoperto essere bias contro le candidate femminili. Un altro caso studio riguarda il bias razziale negli ALGORITMI sanitari, che ha influenzato molti pazienti di colore, portando infine al razzismo nei dipartimenti sanitari.

Ora sappiamo che ogni azione ha una conseguenza e l’IA non fa eccezione; risolvere tali conseguenze dovrebbe essere la nostra massima preoccupazione. Perché, alla fine, l’IA dovrebbe aiutarci a semplificare la vita anziché dividerci l’uno contro l’altro attraverso i suoi meccanismi di bias. Ora vediamo perché è fondamentale affrontare il bias del sistema. Ora, vediamo i vari tipi di bias nell’IA, nonché l’equità nella presa di decisioni e gli approcci utilizzati per combattere il pregiudizio.

FONTE: https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G
FONTE: https://www.scientificamerican.com/article/racial-bias-found-in-a-major-health-care-risk-algorithm/

A. Comprendere il bias nei sistemi di IA:

Nel campo dell’intelligenza artificiale, è fondamentale affrontare l’elefante nella stanza: il pregiudizio. I sistemi di IA sono buoni solo quanto i dati forniti loro e, purtroppo, dati sbilanciati possono infiltrarsi ed influenzare le loro scelte. Il bias può portare a discriminazioni ingiuste e contribuire alla perpetuazione delle disuguaglianze sociali. Comprendere la presenza e l’impatto del bias nei sistemi di IA è il primo passo per sviluppare modelli equi, trasparenti ed etici. È giunto il momento di indagare sul funzionamento sottostante dell’intelligenza artificiale per garantire giustizia e responsabilità in ogni byte di codice.

Affrontiamo alcuni dei tipi di bias più comuni che sono più probabili che si verifichino e spesso sono correlati tra loro:

  1. BIAS ALGORITMICO: Questo tipo di pregiudizio si verifica quando l’algoritmo è intenzionalmente o accidentalmente bias. Ad esempio, un algoritmo addestrato su un dataset sbilanciato verso gli uomini è più incline a produrre previsioni distorte sugli uomini.
  2. BIAS DEI DATI: Questo tipo di bias si verifica quando i dati utilizzati per addestrare l’algoritmo sono sbilanciati. Se un dataset è sbilanciato verso individui di razza bianca, ad esempio, l’algoritmo è più incline a produrre previsioni sbilanciate sulle persone bianche.
  3. BIAS SOCIALE: Questo tipo di pregiudizio si verifica quando l’algoritmo riflette i pregiudizi sociali. Se c’è un pregiudizio sociale nei confronti delle donne nelle discipline STEM, ad esempio, un sistema appreso da dati di laureati in STEM è probabilmente più incline a produrre giudizi distorti nei confronti delle donne.

B. L’importanza dell’equità nella presa di decisioni:

L’equità è essenziale nella presa di decisioni dell’IA. Indicatori di equità come l’accesso equo al lavoro, la stessa affidabilità e l’uguaglianza etnica possono aiutare a individuare un potenziale bias. Per assicurare risultati equi e evitare i bias, possono essere utilizzati algoritmi e approcci di regolarizzazione consapevoli dell’equità.

CASE STUDY:

XAI nei social media: comprendere gli algoritmi di IA dietro le raccomandazioni del feed di notizie:

In questo mondo frenetico in cui tutti amano i social media, non possiamo negare il fatto che sia anche un luogo oscuro in cui condividiamo le nostre informazioni personali, così come informazioni su famiglia e amici, e la tendenza più folle di questi giorni è l’intelligenza artificiale. . algoritmi. Possiamo capire il loro processo decisionale ed esplorare come l’IA esplicabile porta trasparenza a questo caso per noi:

Cominciamo con la comprensione dell’algoritmo dietro i social media prima di tutto:

  1. RACCOLTA DATI: La raccolta dati: le reti sociali accumulano enormi quantità di dati degli utenti, come conversazioni, preferenze e metriche di coinvolgimento. Queste informazioni servono come base per l’algoritmo di intelligenza artificiale.
  2. PREELABORAZIONE DEI DATI: La preparazione dei dati comporta la pulizia e la modifica dei dati grezzi per renderli adatti all’analisi. Questa fase riduce il rumore e migliora la capacità dell’algoritmo di rilevare modelli.
  3. ESTRAZIONE DELLE CARATTERISTICHE: Gli algoritmi di intelligenza artificiale estraggono informazioni come le preferenze degli utenti, la rilevanza delle informazioni e le interazioni passate dai dati estratti. Queste caratteristiche vengono alimentate nell’algoritmo di raccomandazione.
  4. PROGETTAZIONE DEL MODELLO DI APPRENDIMENTO AUTOMATICO: Il sistema di intelligenza artificiale utilizza metodi avanzati di apprendimento automatico, come il filtraggio collaborativo, il filtraggio basato sul contenuto e tecniche ibride. Per individuare informazioni rilevanti, questi algoritmi analizzano le caratteristiche dell’utente e le confrontano con profili simili.

Abbiamo capito come viene progettato l’algoritmo per i social media, ora come funziona effettivamente questo algoritmo? Andiamo con l’Intelligenza Artificiale Spiegabile 👍

XAI SVELANDO LA BLACK BOX:

  • Approcci XAI possono creare spiegazioni basate su regole, rivelando requisiti specifici che l’algoritmo utilizza per proporre contenuti. Ad esempio, “I post vengono consigliati in base alle interazioni degli utenti simili e alla rilevanza del contenuto.”
  • Attribuzione delle caratteristiche come abbiamo visto sopra — XAI supporta l’attribuzione delle caratteristiche, evidenziando le caratteristiche che hanno un effetto significativo sulle raccomandazioni. “I post di amici con alte percentuali di interazione, ad esempio, ricevono la priorità.”
  • Spiegazioni a livello di utente: XAI spiega perché determinati contenuti appaiono nel feed di un singolo individuo offrendo spiegazioni a livello di utente. Ad esempio, “Questo post ti è stato consigliato a causa del tuo interesse per la tecnologia e del tuo recente coinvolgimento con contenuti simili.”

CONCLUSIONE:

FONTI: https://giphy.com/

L’XAI è cruciale per colmare il divario tra gli algoritmi di intelligenza artificiale e i consumatori. Crea fiducia e consente agli utenti di prendere decisioni informate offrendo descrizioni dettagliate del motivo per cui vengono suggerite informazioni sui feed di notizie dei social media. Con l’evoluzione dei social media, l’apertura dell’XAI offre un approccio più personalizzato e orientato all’utente, proteggendo da eventuali pregiudizi e sostenendo una comunità di intelligenza artificiale responsabile.

RACCOMANDAZIONI PER INIZIARE A IMPARARE L’AI:

Quando ci si addentra nel mondo di argomenti complessi come l’Intelligenza Artificiale Spiegabile, la conoscenza teorica da sola può portare solo fino a un certo punto. La vera comprensione e padronanza dell’Intelligenza Artificiale Spiegabile derivano dall’esperienza preziosa di progetti concreti. Questi progetti sono la chiave per acquisire una comprensione pratica che i libri di testo e le lezioni spesso non riescono a trasmettere. ProjectPro – una piattaforma di apprendimento rivoluzionaria progettata per portare la tua conoscenza dal livello teorico a quello pratico. ProjectPro non è la solita piattaforma di apprendimento online; va oltre le lezioni e le valutazioni per offrire un’esperienza pratica e coinvolgente attraverso una selezione attentamente curata di progetti in vari settori.

ProjectPro offre una vasta gamma di progetti del mondo reale che sfidano gli studenti ad applicare concetti di intelligenza artificiale e apprendimento automatico a scenari tangibili. Partecipando attivamente a questi progetti, gli studenti sviluppano capacità di risoluzione dei problemi e acquisiscono la fiducia per affrontare sfide reali.

[Visita il sito web per saperne di più su di loro- https://bit.ly/3OlIGoF ]

Inizia a conoscere i metodi dell’Intelligenza Artificiale Spiegabile. Non importa chi tu sia. Ecco alcune raccomandazioni per iniziare:

EXPLAINABLE AI (XAI) – CORSO UDEMY: Copre tutto, dalle basi al livello avanzato delle tecniche utilizzate nell’Intelligenza Artificiale Spiegabile. Contiene anche studi di caso reali per ottenere una corretta comprensione dello stesso.

[link: https://www.udemy.com/course/xai-with-python/ ]

INTERPRETABLE MACHINE LEARNING CLASS – HARVARD UNIVERSITY SU EDX:

Copre una vasta gamma di argomenti legati all’IA esplicabile, comprese le diverse tecniche per i modelli di IA esplicabili, le implicazioni etiche e legali e casi di studio reali

[link: https://blog.ml.cmu.edu/2020/08/31/6-interpretability/ ]

EXPLAINABLE AI CON PYTHON: DI IBM SU COURSERA: Questo corso insegna agli studenti come utilizzare Python per spiegare i modelli di IA su argomenti come l’estrazione delle caratteristiche, le spiegazioni per controfattuali e l’ispezione del modello.

[link: https://www.coursera.org/projects/scene-classification-gradcam ]

CORSO DI EXPLAINABLE AI (XAI) – DI DATANIGHTS IN COLLABORAZIONE CON MICROSOFT REACTOR: Questo corso copre sia la teoria che la pratica e i casi d’uso dell’IA esplicabile. Imparerai non solo a generare le spiegazioni dell’IA, ma anche a comunicare efficacemente tali spiegazioni agli stakeholder. Un corso da non perdere secondo me.

[link: https://learn.microsoft.com/en-us/events/learn-events/reactor-explainableaicourse/ ]

Non dimenticare di seguirci sui social media e condividere le tue opinioni. Unisciti alla nostra comunità di appassionati di IA e continuiamo a spingere i limiti dell’IA generativa insieme. Insieme possiamo ottenere grandi cose!🔐❤️

Unisciti al nostro gruppo LinkedIn per la scienza dei dati e la sicurezza informatica! Troverai gli ultimi blog, contenuti esclusivi e altri appassionati.🔥

LINK PER IL GRUPPO: https://www.linkedin.com/groups/9378874/

FONTE: https://giphy.com/

SEGUICI PER LO STESSO DIVERTIMENTO NELLE BLOG E ARTICOLI SULLA SCIENCE DEI DATI: 💙

INDIRIZZO E-MAIL: [email protected]

LINKEDIN: https://www.linkedin.com/company/dsmcs/

INSTAGRAM: https://www.instagram.com/datasciencemeetscybersecurity/?hl=en

GITHUB: https://github.com/Vidhi1290

TWITTER: https://twitter.com/VidhiWaghela

VoAGI: https://medium.com/@datasciencemeetscybersecurity-

SITO WEB: https://www.datasciencemeetscybersecurity.com/

— TEAM DATA SCIENCE MEETS CYBER SECURITY 💙❤️