Juliette Powell e Art Kleiner, autori della serie di interviste ‘Il dilemma dell’IA

Juliette Powell and Art Kleiner, authors of the interview series 'The AI Dilemma

L'”AI Dilemma” è scritto da Juliette Powell e Art Kleiner.

Juliette Powell è un’autrice, una creatrice televisiva con 9.000 spettacoli dal vivo alle spalle e una tecnologa e sociologa. È anche un commentatrice su Bloomberg TV / Business News Networks e una relatrice in conferenze organizzate da The Economist e l’International Finance Corporation. Il suo discorso TED ha 130.000 visualizzazioni su YouTube. Juliette identifica i modelli e le pratiche dei leader aziendali di successo che puntano sull’IA etica e sui dati per vincere. È docente presso l’ITP della NYU, dove tiene quattro corsi, tra cui “Design Skills for Responsible Media”, un corso basato sul suo libro.

Art Kleiner è uno scrittore, editore e futurista. I suoi libri includono “The Age of Heretics”, “Chi conta davvero”, “Privilegio e successo” e “Il saggio”. È stato editore di strategy+business, la premiata rivista pubblicata da PwC. Art è anche un docente di lunga data presso l’ITP e l’IMA della NYU, dove i suoi corsi includono la co-insegnamento della “Tecnologia Responsabile e il Futuro dei Media”.

“The AI Dilemma” è un libro che si concentra sui pericoli della tecnologia AI nelle mani sbagliate, pur riconoscendo i benefici che l’IA offre alla società.

I problemi sorgono perché la tecnologia sottostante è così complessa che diventa impossibile per l’utente finale capire veramente il funzionamento interno di un sistema a scatola chiusa.

Uno dei problemi più significativi evidenziati è come la definizione di un’IA responsabile sia sempre in evoluzione, poiché i valori della società spesso non rimangono consistenti nel tempo.

Mi è piaciuto molto leggere “The AI Dilemma”. È un libro che non enfatizza in modo sensazionalistico i pericoli dell’IA o approfondisce profondamente le potenziali insidie dell’Intelligenza Artificiale Generale (AGI). Invece, i lettori apprendono i modi sorprendenti in cui i nostri dati personali vengono utilizzati senza il nostro consenso, nonché alcune delle limitazioni attuali dell’IA e le ragioni di preoccupazione.

Di seguito sono riportate alcune domande che sono progettate per mostrare ai nostri lettori cosa si possono aspettare da questo libro innovativo.

Cosa ti ha ispirato inizialmente a scrivere “The AI Dilemma”?

Juliette è andata a Columbia in parte per studiare i limiti e le possibilità della regolamentazione dell’IA. Ha sentito di persona da amici che lavorano su progetti di IA la tensione implicata in quei progetti. È giunta alla conclusione che c’era un dilemma legato all’IA, un problema molto più grande della semplice autoregolamentazione. Ha sviluppato il modello di benchmark Apex, un modello di come le decisioni sull’IA tendessero verso una bassa responsabilità a causa delle interazioni tra aziende e gruppi all’interno delle aziende. Questo ha portato alla sua tesi di dottorato.

Art aveva già lavorato con Juliette su diversi progetti di scrittura. Ha letto la sua tesi di dottorato e ha detto: “Qui hai un libro”. Juliette lo ha invitato a coautore. Lavorando insieme, hanno scoperto di avere prospettive molto diverse ma condividono la forte convinzione che questo fenomeno complesso e ad alto rischio dell’IA debba essere compreso meglio in modo che le persone che lo utilizzano possano agire in modo più responsabile ed efficace.

Uno dei problemi fondamentali evidenziati in “The AI Dilemma” è che attualmente è impossibile capire se un sistema AI è responsabile o se perpetua l’ineguaglianza sociale semplicemente studiando il suo codice sorgente. Quanto è grande questo problema?

Il problema non sta principalmente nel codice sorgente. Come sottolinea Cathy O’Neil, quando c’è un sistema a scatola chiusa, non è solo il codice. È il sistema sociotecnico, le forze umane e tecnologiche che si plasmano reciprocamente, che devono essere esplorate. La logica che ha costruito e rilasciato il sistema AI ha coinvolto l’identificazione di uno scopo, l’identificazione dei dati, la definizione delle priorità, la creazione di modelli, l’istituzione di linee guida e protezioni per il machine learning e la decisione di quando e come un umano dovrebbe intervenire. Questa è la parte che deve essere resa trasparente, almeno agli osservatori e agli auditor. Il rischio di disuguaglianza sociale e altri rischi sono molto maggiori quando queste parti del processo sono nascoste. Non è possibile riconfigurare la logica di progettazione dal codice sorgente.

Focalizzarsi sull’Explainable AI (XAI) può risolvere questo problema?

Per gli ingegneri, l’Explainable AI è attualmente considerata un insieme di vincoli e pratiche tecnologiche, mirati a rendere i modelli più trasparenti alle persone che ci lavorano. Per chi viene falsamente accusato, l’explicability ha un significato e un’urgenza completamente diversi. Hanno bisogno di spiegazioni per poter reagire nella loro difesa. Abbiamo tutti bisogno di spiegazioni nel senso di rendere chiare le decisioni aziendali o governative alla base dei modelli. Almeno negli Stati Uniti, ci sarà sempre una tensione tra l’explicability – il diritto dell’umanità di sapere – e il diritto di un’organizzazione di competere e innovare. Gli auditor e i regolatori hanno bisogno di un livello diverso di spiegazione. Questo viene approfondito in dettaglio in “The AI Dilemma”.

Puoi condividere brevemente il tuo punto di vista sull’importanza di rendere responsabili gli stakeholder (aziende di intelligenza artificiale) per il codice che rilasciano nel mondo?

Fino ad ora, ad esempio nell’incidente di Tempe, in Arizona, in cui una vettura a guida autonoma ha investito e ucciso un pedone, l’operatore è stato ritenuto responsabile. Una persona è finita in prigione. Tuttavia, in ultima analisi, si è trattato di un fallimento organizzativo.

Quando un ponte crolla, l’ingegnere meccanico viene ritenuto responsabile. Questo perché gli ingegneri meccanici sono addestrati, continuamente aggiornati e responsabili della loro professione. Gli ingegneri informatici no.

Dovrebbero gli stakeholder, inclusi le aziende di intelligenza artificiale, essere addestrati e continuamente aggiornati per prendere decisioni migliori e avere maggiori responsabilità?

Il Dilemma dell’IA si è concentrato molto su come aziende come Google e Meta possono raccogliere e monetizzare i nostri dati personali. Potresti condividere un esempio di uso improprio significativo dei nostri dati che dovrebbe essere di interesse per tutti?

Dal Dilemma dell’IA, pagina 67 e seguenti:

Emergono continuamente nuovi casi di uso sistematico improprio dei dati personali, molti dei quali coinvolgono l’uso nascosto del riconoscimento facciale. Nel dicembre 2022, il MIT Technology Review ha pubblicato resoconti su una pratica di lunga data della iRobot. I robot domestici Roomba registrano immagini e video presi nelle case dei beta tester volontari, il che inevitabilmente comporta la raccolta di immagini intime personali e legate alla famiglia. Queste vengono condivise, senza che i tester ne siano consapevoli, con gruppi al di fuori del paese. In almeno un caso, è stata pubblicata su Facebook un’immagine di una persona sul water. Nel frattempo, in Iran, le autorità hanno iniziato a utilizzare i dati dei sistemi di riconoscimento facciale per monitorare e arrestare le donne che non indossano l’hijab.16

Non c’è bisogno di insistere ulteriormente su queste storie. Ce ne sono così tante. È importante, tuttavia, identificare l’effetto cumulativo di vivere in questo modo. Perdiamo il senso di avere il controllo sulla nostra vita quando sentiamo che le nostre informazioni private potrebbero essere usate contro di noi, in qualsiasi momento, senza preavviso.

Un concetto pericoloso che è stato sollevato è come tutto il nostro mondo sia progettato per essere privo di attrito, con la definizione di attrito che è “qualsiasi punto nel percorso del cliente con un’azienda in cui si verifica un intoppo che rallenta o causa insoddisfazione”. In che modo la nostra aspettativa di un’esperienza priva di attrito può portare a un’intelligenza artificiale pericolosa?

In Nuova Zelanda, un assistente virtuale per pasti di Pak’n’Save ha suggerito una ricetta che avrebbe creato gas cloro se utilizzata. Questo è stato promosso come un modo per i clienti di utilizzare gli avanzi e risparmiare soldi.

La mancanza di attrito crea un’illusione di controllo. È più veloce e più facile ascoltare l’applicazione piuttosto che cercare la ricetta della nonna. Le persone seguono il percorso di minor resistenza e non si rendono conto di dove li stia portando.

L’attrito, al contrario, è creativo. Ti coinvolge. Questo porta a un controllo effettivo. Il controllo effettivo richiede attenzione e lavoro e, nel caso dell’IA, un’analisi dei costi e dei benefici estesa.

Con l’illusione di controllo sembra che viviamo in un mondo in cui i sistemi di intelligenza artificiale spingono gli esseri umani, invece che gli esseri umani rimanere pienamente al controllo. Quali sono alcuni esempi che puoi fornire di esseri umani che credono collettivamente di avere il controllo, quando in realtà non ne hanno?

Attualmente a San Francisco, con i robotaxi. L’idea dei taxi a guida autonoma suscita due emozioni contrastanti: eccitazione (“taxi a un costo molto inferiore!”) e paura (“mi investiranno?”) Pertanto, molti regolatori suggeriscono che le auto vengano testate con persone a bordo, in grado di gestire i comandi. Purtroppo, avere esseri umani all’erta, pronti a sovrascrivere i sistemi in tempo reale, potrebbe non essere un buon test per la sicurezza pubblica. L’eccesso di fiducia è una dinamica frequente con i sistemi di intelligenza artificiale. Più autonomo è il sistema, più gli operatori umani tendono a fidarsi e a non prestare piena attenzione. Ci annoiamo a sorvegliare queste tecnologie. Quando un incidente sta per accadere, non ce lo aspettiamo e spesso non reagiamo in tempo.

È stato dedicato molto tempo alla ricerca per questo libro, c’è qualcosa che ti ha sorpreso?

Una cosa che ci ha davvero sorpreso è che le persone in tutto il mondo non sono riuscite a concordare su chi dovrebbe vivere e chi dovrebbe morire nella simulazione di un’auto a guida autonoma del Moral Machine. Se non riusciamo a concordare su questo, è difficile immaginare che potremmo avere una governance globale unificata o standard universali per i sistemi di intelligenza artificiale.

Voi vi definite entrambi imprenditori, in che modo ciò che avete imparato e riportato influenzerà i vostri futuri sforzi?

La nostra pratica consulenziale sull’IA è orientata ad aiutare le organizzazioni a crescere in modo responsabile con la tecnologia. Avvocati, ingegneri, scienziati sociali e pensatori aziendali sono tutti stakeholder nel futuro dell’IA. Nel nostro lavoro, uniamo tutte queste prospettive e pratichiamo l’attrito creativo per trovare soluzioni migliori. Abbiamo sviluppato framework come il calcolo del rischio intenzionale per aiutare a navigare in queste questioni.

Grazie per le ottime risposte, i lettori che desiderano saperne di più dovrebbero visitare The AI Dilemma.