Dr. Eva-Marie Muller-Stuler sull’importanza di adottare pratiche etiche di Intelligenza Artificiale e Data Science

Dr. Eva-Marie Muller-Stuler on the importance of adopting ethical practices in Artificial Intelligence and Data Science.

Ringraziamo la dott.ssa Eva-Marie Muller-Stuler di EY MENA per aver condiviso il suo notevole percorso come pioniera dei dati e dell’IA, vari spunti sulle pratiche etiche dell’IA e della scienza dei dati e preziosi consigli per i professionisti in erba. L’intervista illumina l’importanza della trasparenza, della collaborazione interdisciplinare e dei potenziali rischi derivanti dalla non adozione di pratiche etiche dell’IA e della scienza dei dati. I professionisti in erba che cercano di incorporare l’etica nel loro lavoro troveranno preziosi consigli e orientamenti da questa leader visionaria. Continua a leggere per scoprire la sua esperienza e la sua visione per il futuro dell’IA etica.

Indice

  • Percorso come pioniere dei dati e dell’IA: Esplorazione del cammino per plasmare il futuro dei dati e dell’IA
    • Puoi raccontarci del tuo percorso come pioniera dei dati e dell’IA e di come hai sviluppato interesse in questo campo?
    • Cosa ti ha motivato a focalizzarti sull’importanza delle pratiche etiche dell’IA e della scienza dei dati?
  • Guida iniziative di Data Science e AI: Rivelazione delle principali responsabilità presso EY MENA
    • Quali sono le tue principali responsabilità nello sviluppo e nell’implementazione di progetti e trasformazioni complesse di data science e AI presso EY MENA?
    • Come possono le organizzazioni garantire di adottare pratiche etiche dell’IA e della scienza dei dati in tutte le loro operazioni?
  • Spunti sulla promozione di pratiche etiche nel settore
    • Puoi condividere alcuni esempi specifici in cui le considerazioni etiche hanno svolto un ruolo significativo nell’implementazione di progetti di IA o di scienza dei dati?
    • Come possono le organizzazioni trovare un equilibrio tra sfruttare i benefici dell’IA e della scienza dei dati e mantenere standard etici?
    • Quale ruolo svolge la trasparenza nel garantire pratiche etiche dell’IA e della scienza dei dati e come possono le organizzazioni ottenere trasparenza nei loro sistemi di IA?
    • Quali sono i potenziali rischi o conseguenze della non adozione di pratiche etiche dell’IA e della scienza dei dati?
    • Quanto è importante la collaborazione interdisciplinare, coinvolgendo esperti provenienti da vari campi, nel garantire pratiche etiche dell’IA e della scienza dei dati?
  • Spunti futuri e consigli
    • Come vedi l’evoluzione futura dell’IA etica e della scienza dei dati e quali passi possono compiere le organizzazioni per rimanere al passo in questo panorama in rapida evoluzione?
    • Quali consigli daresti ai professionisti in erba dei dati e dell’IA interessati a incorporare l’etica nel loro lavoro?

Percorso come pioniere dei dati e dell’IA: Esplorazione del cammino per plasmare il futuro dei dati e dell’IA

Puoi raccontarci del tuo percorso come pioniera dei dati e dell’IA e di come hai sviluppato interesse in questo campo?

Ho studiato Matematica perché ho sempre amato il ragionamento logico, scoprire i modelli e come tantissimi problemi del mondo reale possono essere risolti trasformandoli in problemi matematici. Ma all’epoca non c’erano molti posti di lavoro per i matematici, quindi ho aggiunto economia e informatica per avere più opzioni di lavoro una volta finita l’università.

Ho iniziato la mia carriera nella riorganizzazione aziendale e nella modellazione finanziaria, dove si prevede l’impatto finanziario delle decisioni aziendali sulle performance finanziarie delle aziende. Questo ha plasmato il mio modo di pensare alla Data Science e all’IA per le aziende: ci sono due campi separati:

a) La Data Science viene utilizzata per migliorare l’azienda (aumentare il fatturato, ridurre i costi o gestire il rischio), o

b) è ricerca con obiettivi di investimento a lungo termine? Quando le aziende creano team di data science e AI, devono definire chiaramente l’impatto che vogliono generare fin dall’inizio. Troppi team di Data e AI sono centri di costo e non influiscono positivamente sull’azienda.

Mentre lavoravo come direttore di un fondo di investimento a Londra, ho notato quanto fossero semplici le assunzioni e i dati di input quando venivano inseriti nei modelli finanziari. Quindi, ho iniziato a cercare più driver e spunti per prendere decisioni migliori e ad aggiungere più dati e informazioni ai modelli. Ho portato questa esperienza in KPMG, dove abbiamo creato il primo team di Data & AI in Europa che ha creato “Always-on Machines” per prendere decisioni aziendali migliori.

@media(min-width:0px){#div-gpt-ad-aitimejournal_com-banner-1-0-asloaded{max-width:728px;max-height:400px;}}

Ciò che ha guidato la mia carriera è stato il fatto che mi sono circondato delle persone più brillanti del pianeta e ho scoperto di poter collegare i domini che avevo studiato ai progetti di data science.

Non c’è altro lavoro in cui si possa combinare la bellissima logica della matematica con lo sviluppo di tecnologie all’avanguardia e applicarle a ogni campo, come il comportamento umano e la psicologia, il miglioramento della qualità della vita o l’utilizzo più efficiente delle risorse nel settore del commercio al dettaglio, della salute, dell’energia, ecc.

Cosa ti ha spinto a concentrarti sull’importanza delle pratiche etiche nell’IA e nella data science?

Nel 2013, ci siamo davvero impegnati nella costruzione di modelli di big data. Poiché c’era poca comprensione dell’accesso ai dati e delle restrizioni, siamo riusciti ad ottenere molti dati (come informazioni personalmente identificabili sui telefoni, così come dati commerciali e sanitari) gratuitamente. Abbiamo collegato i dati che abbiamo raccolto per costruire un ecosistema connesso per migliorare i nostri modelli. L’impatto di collegare tutte le informazioni è stato così potente da lasciarci a bocca aperta.

@media(min-width:0px){#div-gpt-ad-aitimejournal_com-large-leaderboard-2-0-asloaded{max-width:728px;max-height:400px;}}

Ci siamo anche resi conto di quanto i nostri modelli potessero essere influenzati da pregiudizi e di come potessimo spiegare il rischio. C’erano molte potenziali problematiche in cui i modelli potevano sbagliare, ma non c’era consapevolezza di questo perché la Data Science e l’IA erano ancora campi molto piccoli e principalmente ancorati alla ricerca. Alcuni anni dopo, sempre più voci stavano mettendo in guardia sul punto di singolarità o sul fatto che l’IA potesse rivoltarsi contro gli esseri umani. Ma io non ho mai visto questo come il rischio più pressante. Costruire un’IA scadente è molto semplice e ogni studente delle superiori può farlo. Ma costruire un’IA affidabile, equa, trasparente e sicura è una storia molto diversa. Troppa IA che entrava nel mercato non aveva la qualità per essere rilasciata al pubblico. Ad esempio, la maggior parte dei dati disponibili proviene da una demografia di maschi bianchi, quindi i modelli costruiti su questi dati sono automaticamente influenzati a loro favore.

Pertanto, ho deciso di sensibilizzare i responsabili delle decisioni politiche su questo rischio che dobbiamo tenere d’occhio per garantire che l’adozione della Data Science e dell’IA non influisca negativamente sulle nostre vite. Da allora ho iniziato a lavorare con organizzazioni governative e ONG per sensibilizzare sulla necessità di regole e regolamenti.

Guidare le iniziative di Data Science e AI: Svelare le principali responsabilità presso EY MENA

Quali sono le tue principali responsabilità nello sviluppo ed implementazione di progetti e trasformazioni complesse di Data Science e AI presso EY MENA?

Il ruolo ha due focus: innanzitutto, la pratica e la strategia interne, dove devo decidere le nostre offerte, come entrare nel mercato e lo sviluppo delle competenze interne. Ho strutturato la pratica attorno ai principali pilastri: Governance e strategia dei dati, tecnologia e architettura e sviluppo di casi d’uso. Mi assicuro anche di avere la composizione del team giusta e le competenze adeguate.

In secondo luogo, l’attenzione è rivolta a comprendere le esigenze del cliente e a capire in che punto si trovano nel processo di trasformazione dei dati e poi unire il meglio di EY per farli progredire. Indipendentemente dal livello in cui si opera, è necessario essere operativi e coinvolti nella consegna per garantire la qualità del lavoro e mediare in caso di problemi.

Come possono le organizzazioni assicurarsi di adottare pratiche etiche di IA e Data Science in tutte le loro operazioni?

All’inizio della creazione di un team di data science o di IA, è necessaria una chiara comprensione dei diversi ruoli e responsabilità del team. Con ogni progetto, il team deve riunirsi e decidere, non solo pianificare se è etico, ma anche come implementarlo in modo responsabile. L’IA etica e affidabile non riguarda solo fare la cosa giusta, ma anche farla nel modo giusto.

La mancanza di fiducia e le preoccupazioni etiche sono i maggiori ostacoli che vediamo nell’adozione dell’IA. Ci sono molti framework diversi che sono tutti molto simili alla base. I principi fondamentali nello sviluppo sono simili in ogni framework e si concentrano sulla responsabilità umana e sulla supervisione, sulla robustezza tecnica e sulla sicurezza, sulla privacy e sulla governance dei dati, sulla trasparenza, sull’equità, sulla responsabilità, sull’esplicabilità e sulla sostenibilità. E in ogni progetto, questi principi devono essere garantiti e monitorati fin dall’inizio e durante la messa in opera dei modelli. Ed è proprio questo che rende il processo di IA affidabile complesso. Inizia fin dall’inizio della creazione del team, quando è essenziale garantire che il team abbia le giuste competenze, ruoli chiari, responsabilità, un codice di condotta e procedure di escalation.

Molte aziende oggi sono ancora incerte su chi sia responsabile della conformità etica o legale. Spesso non ci sono processi in atto su come avviare progetti in modo responsabile, come distribuirli e come monitorarli nel tempo. Ma quando parliamo di IA di impatto, l’impatto può essere sempre bilaterale: ogni azione che ti fa guadagnare può anche costarti se è sbagliata. Pertanto, la costruzione di IA affidabili deve passare attraverso l’intero processo end-to-end: dalla governance dei dati all’infrastruttura tecnica al monitoraggio e al ritraining dei modelli. I risultati dei modelli e delle raccomandazioni possono essere considerati affidabili solo se ogni singolo passaggio del processo può essere considerato affidabile.

Riflessioni sulla promozione di pratiche etiche nel settore

Potresti condividere qualche esempio specifico in cui le considerazioni etiche hanno svolto un ruolo significativo nell’implementazione di progetti di intelligenza artificiale o di data science?

Ogni azienda che si prende sul serio la trasformazione dei dati deve affrontare le sfide etiche e dell’IA affidabile. La regola generale è che più persone sono coinvolte, maggiore è l’impatto e di conseguenza solitamente maggiore è il rischio. Le soluzioni di IA vengono sempre più utilizzate per decisioni di alto rischio e quando vengono completamente implementate, possono prendere molte decisioni errate a velocità molto elevate. Le aree considerate solitamente ad alto rischio sono le informazioni personalmente identificabili (PII) o i dati biometrici, le infrastrutture critiche, l’istruzione, l’occupazione, l’applicazione della legge, ecc.

Per lo sviluppo di soluzioni di IA in queste aree, è essenziale valutare il rischio e il danno potenziali che le soluzioni possono causare e come mitigare tale rischio. Se non è possibile garantirne lo sviluppo etico e affidabile, allora le soluzioni non dovrebbero essere messe sul mercato. Si tratta solitamente di casi che riguardano la previsione dei crimini, l’ammissione al college o la selezione del personale, le strutture salariali o l’assistenza sanitaria. Le entità interessate a utilizzare soluzioni di IA in questo campo dovrebbero anche essere consapevoli che soluzioni di IA tendenziose o inesatte potrebbero comportare rischi finanziari, legali o reputazionali molto elevati.

Come possono le organizzazioni trovare un equilibrio tra sfruttare i vantaggi dell’IA e della data science e mantenere standard etici?

In realtà non si tratta di un equilibrio. Ogni soluzione che non è etica e affidabile è un disastro e comporta rischi per l’azienda. Potrebbe essere più economico creare rapidamente un modello nel breve termine, ma nel lungo periodo i modelli falliranno e i loro problemi diventeranno così grandi che le aziende spenderanno più soldi per nascondere i problemi che per il loro investimento iniziale in AI. Vediamo sempre più casi in cui la mitigazione dei problemi diventa estremamente costosa.

Quale ruolo svolge la trasparenza nel garantire pratiche etiche di IA e data science e come possono le organizzazioni ottenere trasparenza nei loro sistemi di IA?

La trasparenza si concentra sull’avere il giusto livello di apertura riguardo lo scopo, il design e l’impatto dei sistemi di IA. Ciò include sia che le persone siano consapevoli che le soluzioni di IA prendono decisioni, ma anche che ci siano documentazione chiara e schede informative su quali dati sono stati utilizzati per l’addestramento del modello, lo scopo e i rischi potenziali. La descrizione del modello o la scheda informativa devono essere memorizzate insieme al modello in modo che, se viene aggiornato, modificato o riutilizzato per scopi diversi, lo scopo originale, i dati di addestramento e i problemi potenziali siano ancora disponibili. Un buon esempio è un modello sanitario costruito per il mercato statunitense, che potrebbe non essere addestrato su dati relativi a donne oltre i 60 anni in Medio Oriente o in Africa. Deve essere chiaro che potrebbe non funzionare in diverse regioni quando quel modello viene venduto e distribuito sul mercato.

@media(min-width:0px){#div-gpt-ad-aitimejournal_com-leader-3-0-asloaded{max-width:728px;max-height:400px;}}

Il modo migliore per individuare bias e problemi di equità è avere un team diversificato. L’errore collettivo dei team diversificati è inferiore a quello dei team omogenei. Un team diversificato è più propenso a individuare potenziali problemi nello sviluppo delle soluzioni o nei dati fin dall’inizio del progetto. Nello sviluppo del prototipo, i dati di addestramento devono essere controllati per individuare eventuali bias al fine di rilevare problemi potenziali. Esistono molti strumenti e tecniche per testare i modelli sui loro bias e questi test devono essere implementati in modo continuo fin dall’inizio, durante tutto lo sviluppo e l’implementazione dei modelli. È essenziale monitorare tutti i modelli durante l’implementazione, il ritraining o l’aggiornamento.

Quali sono i potenziali rischi o conseguenze nel non adottare pratiche etiche nell’IA e nella scienza dei dati?

I rischi o le conseguenze potenziali per un’IA non etica o non affidabile possono essere molto gravi. Quando diciamo che l’IA dovrebbe avere un impatto, dovremmo ricordare che tutto ciò che può avere un impatto positivo può anche avere un impatto negativo. Non appena l’IA non è etica e non è affidabile, non sappiamo davvero cosa stiano facendo i sistemi. Quindi, le conseguenze possono essere varie, dal rischio reputazionale alla perdita finanziaria, al rischio legale, alla perdita di proprietà intellettuale o al rischio per la vita umana, a seconda di come viene utilizzata la soluzione.

L’azienda sta essenzialmente volando alla cieca. Ad esempio, un’azienda automobilistica che utilizza l’IA e il riconoscimento delle immagini per comprendere il limite di velocità sulle autostrade deve assicurarsi che il sistema sia robusto e inviolabile, ad esempio, cambiando i segnali stradali. Devono essere presenti misurazioni e salvaguardie affinché l’auto non acceleri improvvisamente a 130 in una zona a 30. Anche in ambienti di prova sicuri, ogni volta che sono state pubblicate notizie negative sui veicoli autonomi, si è danneggiata la reputazione dell’azienda automobilistica. E lo stesso vale per ogni singola industria. I governi che hanno utilizzato soluzioni di IA per decidere l’ammissione universitaria degli studenti durante il COVID, le banche che avevano processi di approvazione delle carte di credito o dei prestiti con pregiudizi e molti altri casi hanno portato a danni finanziari o reputazionali.

Quanto è importante la collaborazione interdisciplinare, coinvolgendo esperti di vari settori, nel garantire pratiche etiche nell’IA e nella scienza dei dati?

Lo sviluppo di quadri etici e affidabili per l’IA è sempre stato un campo molto interdisciplinare. Molti dei quadri sono stati sviluppati insieme in diversi campi, dalle professioni politiche, legali ed etiche; stavamo tutti cercando di lavorare insieme per decidere sui requisiti minimi. Purtroppo, la comunità tecnica è spesso stata poco rappresentata nei gruppi di lavoro, quindi c’è un accordo su ciò che deve essere raggiunto, ma spesso mancano l’interpretazione tecnica, le linee guida e le procedure su come garantire la conformità alla legge. Le aziende non sono sicure dei passi da compiere per assicurare la conformità, ad esempio, all’IA trasparente o spiegabile.

Prospettive future e consigli

Come vedi l’evoluzione futura dell’IA etica e della scienza dei dati e quali passi possono compiere le organizzazioni per rimanere avanti in questo paesaggio in rapida evoluzione?

Lo sviluppo recente in GenAI e il rilascio di soluzioni di IA più sofisticate hanno accelerato notevolmente la consapevolezza e la richiesta di IA etica e responsabile, regole governative e quadri. Con un numero maggiore di persone in grado di accedere, sperimentare ed esplorare strumenti di IA, iniziano a vedere i rischi associati alle caratteristiche probabilistiche. Ciò ha portato l’IA etica in cima all’agenda di molte aziende e governi. Il collegamento diretto tra soluzioni di IA etiche e affidabili, conformità ai requisiti legali e l’impatto sui risultati finanziari e sulla reputazione dell’azienda è diventato più evidente nell’ultimo semestre. Pertanto, non considero i quadri e i requisiti legali come un ostacolo o un costo per le aziende. Al contrario, la loro implementazione ridurrà il rischio e consentirà il successo di una trasformazione dei dati e dell’IA.

Quale consiglio daresti ai professionisti dei dati e dell’IA che desiderano incorporare l’etica nel loro lavoro?

Inizierei leggendo i quadri etici e i requisiti legali che sono importanti per il mio settore e per il paese in cui lavoro. I messaggi principali dei quadri sono molto simili; si concentrano sulla comprensione del rischio, su ciò che può andare storto e su come mitigarlo. Il primo passo è capire la differenza tra soluzioni di IA probabilistiche e modelli deterministici tradizionali. Molte informazioni o formazioni sono disponibili da organizzazioni governative e non governative, ad esempio organizzazioni di settore come l’IEEE. Una volta compreso l’intento e i requisiti dei quadri, raccomanderei di lavorare insieme a mentori esperti per effettuare una valutazione dello stato attuale dei progetti, iniziare a classificare il rischio, redigere e attuare un quadro e un processo per garantire che tutti i progetti siano sempre conformi all’IA etica durante tutto il loro ciclo di vita.

@media(min-width:0px){#div-gpt-ad-aitimejournal_com-leader-2-0-asloaded{max-width:728px;max-height:400px;}}