Debugga i modelli di rilevamento degli oggetti con il pannello di controllo di AI Responsabile

Debug object detection models with AI Responsible control panel.

Al Microsoft Build 2023, abbiamo annunciato il supporto per i dati di testo e immagini nel pannello di controllo di responsabilità AI di Azure Machine Learning in anteprima. Questo blog si concentrerà sulle nuove funzionalità di visione del pannello di controllo, supportando le funzionalità di debug per i modelli di rilevamento degli oggetti. Approfondiremo uno scenario basato sul testo in un post futuro. Nel frattempo, puoi guardare la nostra sessione di approfondimento di Build per una demo di uno scenario basato sul testo e altre notizie che supportano le applicazioni di responsabilità AI.

Introduzione

Oggi, il rilevamento degli oggetti viene utilizzato per alimentare vari casi d’uso critici e sensibili (ad esempio, rilevamento del viso, rilevamento della fauna selvatica, analisi delle immagini mediche e analisi degli scaffali di vendita al dettaglio). Il rilevamento degli oggetti localizza e identifica la classe di più oggetti in un’immagine, dove un oggetto è definito con una bounding box. Questo si distingue dalla classificazione delle immagini, che classifica ciò che è contenuto in un’immagine, e dalla segmentazione delle istanze, che identifica le forme di diversi oggetti in un’immagine.

Le mancate rilevazioni degli oggetti all’interno di sottogruppi di dati possono causare danni involontari, riducendo l’affidabilità, la sicurezza, l’equità e la fiducia nei sistemi di apprendimento automatico (ML). Ad esempio, uno strumento di moderazione dei contenuti delle immagini potrebbe avere un’alta precisione complessiva ma potrebbe comunque non funzionare bene in determinate condizioni di illuminazione o censurare erroneamente determinati gruppi etnici. Questi fallimenti spesso rimangono nascosti, poiché la maggior parte dei team di ML si affida solo a metriche di prestazione aggregate che non illustrano le singole caratteristiche. I team di ML mancano anche di visibilità nei comportamenti dei modelli a scatola nera che portano a distribuzioni di errori variabili. Queste sfide impediscono ai team di ML di ottimizzare la qualità del servizio mitigando le discrepanze del modello, considerando l’equità nella selezione del miglior modello e garantendo che i modelli che vengono aggiornati/ri-deployati a causa della disponibilità di nuovi progressi in ML o nuovi dati non introducano nuovi danni.

Il percorso per affrontare questi problemi è spesso noioso e richiede molto tempo, poiché i team di ML devono navigare tra strumenti di debug frammentati, creare infrastrutture personalizzate o analizzare manualmente i dati. I risultati delle valutazioni sono difficili da confrontare e condividere per ottenere contributi e consenso da parte di stakeholder tecnici e non tecnici. Tuttavia, combinare competenze tecniche con considerazioni etiche, legali, economiche e/o sociali è fondamentale per valutare in modo olistico e distribuire in modo sicuro i modelli.

Per accelerare lo sviluppo responsabile di modelli di rilevamento degli oggetti, questo blog approfondirà come valutare e debuggare i modelli con il pannello di controllo di responsabilità AI di Azure Machine Learning per il rilevamento degli oggetti. Utilizzando l’esplorazione attiva dei dati e le tecniche di interpretazione del modello, questo pannello di controllo aiuta gli esperti di ML a identificare errori di equità nei loro modelli e dati, diagnosticare le cause di tali problemi e informare le mitigazioni appropriate.

Il pannello di controllo di responsabilità AI per il rilevamento degli oggetti è disponibile tramite Azure Machine Learning Studio, Python SDK v2 e CLI v2 e supporta già modelli tabulari e di linguaggio. Il pannello di controllo è anche integrato nel repository Responsible AI Toolbox, fornendo una suite più ampia di strumenti per consentire agli esperti di ML e alla comunità open-source di sviluppare e monitorare l’IA in modo più responsabile. Per altri scenari di visione artificiale, puoi apprendere da questi documenti tecnici come generare e analizzare informazioni di responsabilità AI per la classificazione delle immagini e la classificazione multi-classe delle immagini.

In questa esplorazione approfondita, esploreremo come gli esperti di ML possono utilizzare il pannello di controllo di responsabilità AI per valutare i modelli di rilevamento degli oggetti identificando e diagnosticando errori nelle previsioni di un modello di rilevamento degli oggetti sul dataset MS COCO. Per fare ciò, impareremo come creare gruppi di dati per indagare sulle discrepanze delle prestazioni del modello, diagnosticare gli errori durante l’esplorazione dei dati e ottenere informazioni dagli strumenti di interpretazione del modello.

Prerequisiti per la configurazione del pannello di controllo

Questo tutorial si basa su post di blog precedenti per configurare i componenti di responsabilità AI in Azure Machine Learning. Completa i passaggi precedenti:

– Accedi o registrati per un account Azure GRATUITO

– Parte 1: Iniziare con i componenti di responsabilità AI di Azure Machine Learning

– Parte 2: Come addestrare un modello di apprendimento automatico per l’analisi dei problemi con la responsabilità AI

– NOTA: Utilizzeremo il dataset MS COCO per questo tutorial.

– Questo tutorial richiede il componente Vision Insights del pannello di controllo di responsabilità AI di Azure Machine Learning. Scopri come iniziare con questo componente e i requisiti tecnici (ad esempio, il formato dei dati e del modello) nella documentazione tecnica.

– Gli esempi di notebook relativi alle attività di rilevamento degli oggetti supportate da AutoML e non-AutoML possono essere trovati nel repository azureml-examples.

1. Identificazione degli errori con la panoramica del modello

Come punto di partenza per la tua analisi, il componente Panoramica del modello nel pannello di controllo di responsabilità AI fornisce un set completo di metriche di prestazione per valutare il tuo modello di rilevamento degli oggetti su gruppi di dati o gruppi di caratteristiche. Ciò consente di esplorare gli errori per identificare gruppi di dati con un tasso di errore più elevato rispetto al benchmark complessivo, o sottorappresentazione/sovrarappresentazione nel tuo dataset.

In questo componente, puoi indagare sul tuo modello creando nuove coorti basate su questioni di indagine o pattern osservati e confrontare le prestazioni del modello per tali coorti. A titolo di esempio, con uno studio di caso utilizzando i dati MSCOCO, potremmo essere interessati a valutare le prestazioni del nostro modello di rilevamento oggetti quando rileva una persona in un’immagine, in particolare analizzando l’impatto della co-occorrenza con altre classi. Nel rilevare una persona, quanto si basa il nostro modello sui pixel dell’oggetto rispetto alla deduzione dai pixel delle classi di oggetti co-occorrenti nella stessa immagine?

Per iniziare, possiamo creare coorti per confrontare le prestazioni delle immagini con persone che co-occorrono con vari oggetti. Queste coorti di dataset possono essere create nel componente Data Explorer, che tratteremo nella sezione seguente.

  • Coorte n. 1: Immagini di persone + sci o skateboard
  • Coorte n. 2: Immagini di persone + mazze da baseball o racchette da tennis

Nella sezione Coorti di dataset, la tabella delle metriche mostra la dimensione del campione di ogni coorte di dataset e il valore delle metriche di prestazione selezionate per i modelli di rilevamento oggetti. Le metriche sono aggregate in base al metodo selezionato: Mean Average Precision (mAP) per l’intera coorte, nonché Average Precision (AP) e Average Recall (AR) per la classe di oggetti selezionata. La visualizzazione delle metriche fornisce anche un confronto visivo delle metriche di prestazione tra le coorti di dataset.

Figura 1: Per valutare come Average Precision e Average Recall per la rilevazione di una classe di persone si confrontano nelle coorti “sci o surfboard” rispetto alla coorte “mazze da baseball o racchette da tennis”, così come le prestazioni complessive su tutte le immagini, selezioniamo la classe “persona” dal menu a tendina.

Per valutare la fiducia nelle previsioni del tuo modello di rilevamento oggetti, puoi impostare il valore della soglia di IoU (Intersezione sull’Unione tra ground truth e bounding box di previsione) che definisce l’errore e influisce sul calcolo delle metriche di prestazione del modello. Ad esempio, impostando un IoU superiore al 70% significa che una previsione con una sovrapposizione superiore al 70% con il ground truth è True. Di solito, aumentare la soglia di IoU farà diminuire mAP, AP e AR. Questa funzionalità è disabilitata per impostazione predefinita e può essere abilitata collegandosi a una risorsa di calcolo.

Figura 2: Curiosamente qui, l’Average Precision e l’Average Recall della classe persona nella coorte “Sci e surfboard” non sono diminuiti quando la soglia di IoU è stata aumentata dal 70% all’80%. Ciò mostra che il nostro modello rileva la classe “persona” nelle immagini in cui una persona co-occorre con sci e surfboard con maggiore fedeltà, rispetto alla coorte con persone e mazze da baseball o racchette da tennis.

Un altro modo per valutare le prestazioni del tuo modello è utilizzare coorti basate su caratteristiche sensibili e non sensibili. Ciò ti consente di identificare problemi di equità, come tassi di errore più alti per determinati generi, etnie o colori della pelle quando si rileva una persona in un’immagine. Nella sezione Coorti di caratteristiche, puoi creare automaticamente una quantità predefinita di tre coorti e suddividerle in base ai valori delle caratteristiche specificate.

Figura 3: Abbiamo creato tre coorti separate in base al valore medio dei pixel di un’immagine e abbiamo confrontato le prestazioni del modello nel rilevare una persona tra le coorti. Qui, le immagini con un valore medio dei pixel superiore a 151,31 hanno un punteggio di precisione media inferiore rispetto alle altre coorti.

Successivamente, selezioniamo “Aiutami a scegliere le caratteristiche” accanto al menu a tendina Feature(s). Qui puoi regolare quali caratteristiche utilizzare per valutare l’equità del tuo modello, nonché determinare il numero di suddivisioni delle caratteristiche per i confronti delle prestazioni.

Figura 4: In “Aiutami a scegliere le caratteristiche”, abbiamo regolato il numero di coorti da tre coorti predefinite a cinque coorti.

Una maggiore precisione nelle suddivisioni delle caratteristiche può consentire un’identificazione più precisa delle coorti errate. Nella sezione successiva, possiamo ispezionare visivamente il contenuto di ogni coorte nel Data Explorer.

Figura 5: Qui, osserviamo che punteggi di precisione media più bassi per le immagini con un valore medio di pixel superiore a 151,31 (concluso dalla precedente divisione in tre gruppi) possono essere attribuiti a una minore performance per le immagini con un valore medio di pixel superiore a 171,18, invece che alle immagini con un intervallo di valori medi di pixel compreso tra 151 e 171.

2. Diagnosi degli errori

Debugging dei dati con Data Explorer

Dopo aver identificato i gruppi di dati e le caratteristiche con tassi di errore più elevati con Model Overview, utilizzeremo il componente Data Explorer per ulteriori debug e esplorazione di quei gruppi attraverso varie prospettive: visivamente in una griglia di immagini, in forma tabellare con metadati, attraverso l’insieme di classi presenti nei dati di riferimento e ingrandendo singole immagini. Oltre alle statistiche, l’osservazione delle istanze di previsione può portare all’individuazione di problemi legati a caratteristiche mancanti o rumore nei label. Nel dataset MS COCO, le osservazioni in Data Explorer aiutano a identificare incongruenze nelle prestazioni a livello di classe nonostante caratteristiche simili degli oggetti (ad esempio, skateboards vs. surfboards e skis) e avviano un’indagine più approfondita sui fattori che contribuiscono.

Ispezionare visivamente errori e successi in una griglia di immagini

Con il pannello Image explorer, è possibile esplorare le bounding box degli oggetti nelle istanze delle immagini per le previsioni del tuo modello, categorizzate automaticamente in previsioni corrette e non corrette. Questa visualizzazione aiuta a identificare rapidamente modelli ad alto livello di errori nei dati e selezionare quali istanze indagare più approfonditamente.

Figura 6: Sulla base delle precedenti osservazioni delle prestazioni del modello nei gruppi di caratteristiche, potremmo essere interessati ad analizzare visivamente le istanze delle immagini in cui il valore medio di pixel è la metà in meno del valore massimo. Qui creiamo un nuovo gruppo con quel criterio di caratteristica e filtriamo le istanze delle immagini visualizzate secondo quel criterio.

Oltre ai valori delle caratteristiche dei metadati, è anche possibile filtrare il dataset per indice e risultato di classificazione, nonché impilare più filtri. Di conseguenza, possiamo visualizzare le istanze di successo e di errore di tutte le istanze delle immagini corrispondenti ai nostri criteri di filtraggio.

Figura 7: Dopo la filtrazione e la creazione di un nuovo gruppo, questa visualizzazione mostra istanze di successo e di errore per tutte le immagini in cui il valore medio dei pixel è la metà in meno del valore massimo.

Esplorare le previsioni in forma tabellare e suddividere i dati in gruppi per il confronto

Oltre all’esplorazione visuale, la visualizzazione tabellare consente agli sviluppatori di sfogliare le previsioni del modello in forma tabellare, identificando verità di riferimento, etichette di classe previste e caratteristiche di metadati per ogni istanza di immagine.

Figura 8: Per ogni istanza di immagine, è possibile visualizzare l’indice dell’immagine, le etichette True Y, le etichette Predicted Y e le colonne di metadati in una visualizzazione tabellare.

Questa visualizzazione offre anche un metodo più dettagliato per creare gruppi di dataset: è possibile selezionare manualmente ogni riga immagine da includere in un nuovo gruppo per esplorazioni ulteriori. Per raggruppare immagini di persone con sci e snowboard che abbiamo utilizzato all’inizio della nostra analisi, possiamo selezionare immagini con una persona e etichette ski o snowboard nella colonna True Y. Possiamo chiamare questo gruppo “Persone sugli sci o sulle surfboard” e salvarlo per analisi in tutti i componenti del dashboard.

Figura 9: Qui selezioniamo manualmente ogni istanza di immagine con una persona e etichette ski o snowboard nella colonna True Y per salvare queste immagini come un nuovo gruppo.

Dal momento che la dashboard mostra tutti i dati di default, possiamo filtrare per la nostra nuova coorte per vedere i suoi contenuti.

Figura 10: Dopo aver filtrato per una nuova coorte di “Persone sugli sci o sulla tavola da surf”, vediamo che ci sono 6 previsioni di successo per le persone sugli sci o sulla tavola da surf nel nostro dataset.

Diagnosticare problemi di equità nei modelli di errore a livello di classe

Per diagnosticare problemi di equità presenti nei modelli di errore per classe, il pannello Vista classe suddivide le previsioni del modello in base alle classi selezionate. Qui, le istanze di errore sono quelle in cui l’insieme di classi previste non corrisponde esattamente all’insieme di classi nei dati di verità fondamentale. Questo potrebbe richiedere un’indagine delle singole istanze per identificare i modelli sottostanti nel comportamento del modello, portando a strategie potenziali di mitigazione che esploreremo alla fine di questa guida.

Figura 11: Selezionando le immagini in cui viene rilevata una persona insieme a uno skateboard, degli sci o una tavola da surf, possiamo vedere che in questo dataset di 44 immagini totali, ci sono 3 immagini con una persona e degli sci o una tavola da surf – tutte istanze di successo in cui la persona e l’oggetto sci/surfboard sono rilevati correttamente. Tuttavia, l’immagine con una persona e uno skateboard è un’istanza di errore, che possiamo esaminare ulteriormente.

Scoprire le cause degli errori attraverso un’analisi visiva dettagliata delle singole immagini

Dal momento che le caselle delimitatrici sulle carte delle immagini potrebbero non essere sufficienti per diagnosticare le cause delle specifiche istanze di errore, è possibile fare clic su ciascuna carta dell’immagine per accedere a un riquadro emergente per visualizzare informazioni dettagliate, come etichette di classe previste e di verità fondamentale, metadati dell’immagine e spiegazioni visive per l’interpretabilità del modello. Per diagnosticare ulteriormente il comportamento del modello nell’effettuare previsioni errate, possiamo analizzare le spiegazioni per ogni oggetto in un’immagine, che verranno trattate nella sezione seguente.

Figura 12: Esaminando l’istanza di errore dell’immagine con una persona e uno skateboard, si scopre che la persona e lo skateboard sono stati rilevati correttamente, ma è stata rilevata anche una panchina quando non fa parte dell’insieme di classi di verità fondamentale (persona, skateboard). Possiamo diagnosticare le cause di ciò con l’interpretabilità del modello.

Debug del modello con informazioni sull’interpretabilità

Le informazioni sull’interpretabilità del modello forniscono chiarezza sul comportamento del modello che porta alla rilevazione di un determinato oggetto. Questo aiuta i professionisti del machine learning a spiegare l’impatto previsto e i potenziali pregiudizi dei loro modelli di rilevamento degli oggetti agli stakeholder di tutti i background tecnici. Nella dashboard di AI responsabile, è possibile visualizzare spiegazioni visive, alimentate da Vision Explanation Methods, il pacchetto open-source di Microsoft Research che implementa D-RISE (Detector Randomized Input Sampling for Explanations).

D-RISE è un metodo indipendente dal modello per creare spiegazioni visive per le previsioni dei modelli di rilevamento degli oggetti. Tenendo conto sia degli aspetti di localizzazione che di categorizzazione del rilevamento degli oggetti, D-RISE può produrre mappe di salienza che evidenziano le parti di un’immagine che contribuiscono maggiormente alla previsione del rilevatore. A differenza dei metodi basati sul gradiente, D-RISE è più generale e non ha bisogno di accedere al funzionamento interno del rilevatore di oggetti; richiede solo l’accesso agli input e agli output del modello. Il metodo può essere applicato a rilevatori monostadio (ad es. YOLOv3), rilevatori a due stadi (ad es. Faster-RCNN), nonché a Vision Transformers (ad es. DETR, OWL-ViT). Poiché ci sono vantaggi nei metodi di interpretabilità basati sul modello, Microsoft continuerà a lavorare e collaborare per estendere l’insieme di metodi disponibili per l’interpretabilità.

D-Rise fornisce una mappa di salienza creando maschere casuali dell’immagine di input e la invierà al rilevatore di oggetti con le maschere casuali dell’immagine di input. Valutando la variazione del punteggio del rilevatore di oggetti, aggrega tutte le rilevazioni con ciascuna maschera e produce una mappa di salienza finale.

Interpretazione delle mappe di salienza D-RISE per vari scenari di successo e errore

Nella dashboard di AI responsabile, le mappe di salienza alimentate da D-RISE sono disponibili nelle finestre pop-up per le istanze di immagini selezionate in Data Explorer. Per ogni oggetto rilevato in un’immagine, visualizza la sua spiegazione visiva corrispondente selezionando l’oggetto dal menu a discesa (il numero dell’oggetto corrisponde alla sequenza delle etichette di classe). Gli esempi seguenti mostreranno come le mappe di salienza forniscono preziose informazioni per comprendere il comportamento del modello dietro la corretta rilevazione degli oggetti, i potenziali pregiudizi dovuti alla co-occorrenza degli oggetti e le rilevazioni errate.

Per indagare sulla rilevazione di una persona nelle seguenti immagini, cerca colori caldi più intensi come il rosso e il magenta. Questi sono fondamentali per l’interpretazione, in quanto indicano che la maggior parte dei pixel di salienza elevata è focalizzata sulla persona, come ci si aspetterebbe nella rilevazione della classe persona. Ciò mostra anche che gli oggetti intorno alla persona non contribuiscono in modo significativo alla previsione come la persona stessa.

Figura 13: Per la persona sugli sci, si osserva che non ci sono pixel di salienza elevata verso la maggior parte degli sci e per la persona che gioca a tennis, i pixel intensamente colorati sono rivolti alla persona e a parte della racchetta, ma i pixel più intensamente colorati (magenta) si concentrano sulla persona piuttosto che sulla racchetta da tennis. Si osserva un concetto inverso quando si guarda la mappa di salienza per la racchetta da tennis nella Figura 15 (immagine più a destra), dove i pixel magenta più salienti si concentrano intorno alla racchetta anziché sulla persona.

Nelle stesse immagini, sono state rilevate correttamente anche altre persone accanto alla persona, come gli sci, la racchetta da tennis o la tavola da surf. Tuttavia, i pixel di salienza possono rivelare fattori confondenti dovuti alla co-occorrenza di vari oggetti in quelle immagini, portando a pregiudizi in quelle previsioni corrette.

Figura 14: Si osservano pixel di salienza che si concentrano sulle gambe della persona nella rilevazione degli sci, salienza verso l’acqua nella rilevazione della tavola da surf e sulla persona nella rilevazione della racchetta da tennis. Ciò potrebbe implicare che la co-occorrenza di vari oggetti potrebbe formare un pregiudizio nelle previsioni.

Immagina se ci fosse un’immagine di un paio di sci sulla parete; gli sci verrebbero ancora rilevati con successo senza una persona? Se ci fosse un’immagine di una tavola da surf senza una persona o acqua, la tavola da surf verrebbe ancora rilevata con successo? Quali altri modelli spurii emergono con altre classi? Puoi leggere di più su questo scenario e sulle strategie di mitigazione in “Finding and Fixing Spurious Patterns with Explanations” di Microsoft Research.

Figura 15: In questa immagine di un paio di sci sulla parete, un modello di rilevamento degli oggetti identifica erroneamente una tavola da surf come rilevazione principale. La mappa di salienza D-Rise per la previsione della tavola da surf mostra che i pixel di salienza più salienti si trovavano solo su uno degli sci e non si concentravano sull’intero oggetto, quindi la previsione errata.

Le mappe di salienza D-RISE forniscono anche informazioni sulle rilevazioni errate, dove la co-occorrenza e il posizionamento di vari oggetti possono essere fattori contribuenti. Ciò incoraggia le mitigazioni per migliorare i dati di addestramento, come includere immagini con posizioni diverse degli oggetti e co-occorrenze con altri oggetti.

Figura 16: Qui, il modello non riesce a rilevare il guanto da baseball, oltre alle classi di persona e palla sportiva. Osservando la mappa di salienza per la rilevazione del guanto da baseball (oggetto 3), i pixel di salienza elevata sono focalizzati sulla palla, il che potrebbe portare a una rilevazione errata come una palla sportiva, invece di un guanto da baseball, data la vicinanza tra entrambi gli oggetti.

Tradurre le intuizioni sull’interpretabilità del modello in strategie di mitigazione

Le spiegazioni visive possono rivelare modelli nelle previsioni del modello che possono sollevare preoccupazioni di equità, ad esempio se le previsioni di classe fossero basate su attributi di genere o colore della pelle (ad esempio, utensili da cucina associati alle donne o computer agli uomini). Questo può informare le mitigazioni (ad esempio, annotazione dei dati, miglioramento delle pratiche di raccolta dati) per impedire ai modelli di rilevamento degli oggetti di apprendere correlazioni spurie tra oggetti che possono riflettere pregiudizi. In riferimento all’esempio precedente, l’incapacità del modello di rilevare gli sci senza una persona presente suggerisce che il modello trarrà beneficio da più immagini con solo gli sci e nessuna persona presente nei dati di addestramento. Le intuizioni relative agli errori di rilevamento degli oggetti incoraggiano anche le mitigazioni per migliorare i dati di addestramento, ad esempio includendo immagini con posizioni diverse degli oggetti e co-occorrenze con altri oggetti.

Conclusioni

Come abbiamo visto utilizzando il dashboard di Azure Machine Learning per la responsabilità dell’IA per il rilevamento degli oggetti sul nostro modello di rilevamento degli oggetti su MSCOCO, il dashboard fornisce vari strumenti preziosi per aiutare i professionisti dell’IA con l’indagine degli errori, nei seguenti modi:

  • Sfrutta Panoramica del modello per confrontare le prestazioni del modello in tutto il dataset e le coorti di caratteristiche
  • Esplora i modelli di errore in Esploratore dei dati per indagare potenziali problemi di equità come l’impatto della co-occorrenza degli oggetti sulle previsioni di classe
  • Scopri i pregiudizi nel comportamento del modello attraverso le mappe di rilevanza D-RISE per l’interpretabilità del modello.

Con queste intuizioni, gli utenti sono in grado di eseguire mitigazioni ben informate per ridurre al minimo gli stereotipi/pregiudizi sociali nei dataset visivi (immagini, annotazioni, metadati) che possono influenzare involontariamente i modelli di rilevamento degli oggetti. Gli utenti possono anche condividere le loro scoperte con le parti interessate per condurre processi di audit del modello e costruire fiducia. La visione artificiale è ben integrata nella nostra vita quotidiana, ma c’è ancora molto da fare per i developer di machine learning per garantire che i modelli implementati siano trasparenti, equi, responsabili, inclusivi e sicuri per tutti, e il dashboard di responsabilità dell’IA per il rilevamento degli oggetti è un primo passo prezioso in questa direzione.

Il nostro team

Il dashboard di responsabilità dell’IA per il rilevamento degli oggetti è il risultato della collaborazione tra Microsoft Research, AI Platform e MAIDAP (Microsoft AI Development Acceleration Program).

Bezmira Nushi e Jimmy Hall di Microsoft Research hanno guidato le indagini di ricerca su nuove tecniche per ottenere una comprensione approfondita ed una spiegazione dei fallimenti di ML, in collaborazione con il team di strumenti RAI di AI Platform. Il team di strumenti RAI è composto da Ilya Matiach, Wenxin Wei, Jingya Chen, Ke Xu, Tong Yu, Lan Tang, Steve Sweetman e Mehrnoosh Sameki. Sono appassionati di democratizzare l’IA responsabile e hanno diversi anni di esperienza nella distribuzione di tali strumenti per la comunità, che sono anche open source come parte dell’ecosistema di Azure Machine Learning, con esempi precedenti come FairLearn, InterpretML Dashboard, ecc. La produzione del dashboard RAI per scenari di rilevamento degli oggetti è stata guidata anche da un team presso MAIDAP, composto da Jacqueline Maureen, Natalie Isak, Kabir Walia, CJ Barberan e Advitya Gemawat. MAIDAP è un programma di rotazione per laureati universitari recenti, che sviluppa varie funzionalità di machine learning su larga scala in collaborazione con diversi team di Microsoft.

Articolo originariamente pubblicato qui. Ripubblicato con il permesso.

Riguardo all’autore

Wenxin Wei è un responsabile prodotto di IA responsabile presso Microsoft Azure AI. Con competenze nella gestione degli strumenti RAI per modelli di testo, immagini e generativi, Wenxin si impegna a fornire soluzioni AI innovative ed etiche. Collaborando con team interfunzionali, Wenxin garantisce lo sviluppo di sistemi AI trasparenti, spiegabili e orientati alla privacy. La sua formazione in statistica e IA, combinata con un approccio basato sui dati, le consente di colmare efficacemente il divario tra tecnologia e esigenze degli utenti.