Il problema di percezione pubblica del Machine Learning

Percezione pubblica del Machine Learning

Perché l’alfabetizzazione del machine learning per il pubblico deve essere una priorità per la scienza dei dati, e cosa possiamo fare a riguardo.

Foto di Andrew Seaman su Unsplash

Recentemente ho ascoltato un podcast con un gruppo di persone intelligenti e riflessive (le cui nomi non dirò, per essere gentile) che parlavano di come l’IA possa essere utilizzata nel settore sanitario. Avevo già dei dubbi, perché usavano il termine “IA”, che spesso significa tutto e niente allo stesso tempo. Ma ho continuato ad ascoltare e hanno discusso idee su come incorporare strumenti di intelligenza artificiale (in realtà solo machine learning) nella pratica medica. Questi strumenti includevano suggerimenti di diagnosi basati sui sintomi e regolazione delle dosi dei farmaci in base ai parametri vitali e alle condizioni del paziente, il che sembrava promettente e pratico.

Tuttavia, nel momento successivo sono rimasto un po’ sorpreso, perché uno dei relatori (un medico) ha detto (parafraso) “sembra che l’IA sia diventata peggiore in matematica”. Questo mi è rimasto impresso non solo per il resto del podcast, ma per tutto il weekend.

Quando persone intelligenti e istruite sono così confuse e disinformate su cosa sia il machine learning, abbiamo un problema. (Eviterò di usare il termine “IA” perché credo davvero che confonda più che chiarire il nostro significato. In questo contesto, queste persone stavano discutendo di machine learning e prodotti che lo utilizzano, anche se non ne erano consapevoli.)

Nel caso del medico, probabilmente si riferiva ai Large Language Models (LLM) quando ha fatto il commento sulla matematica. In qualche modo era arrivato a credere che un modello addestrato per organizzare le parole in modo sofisticato in risposta a una richiesta dovesse anche essere in grado di svolgere calcoli matematici. Non è bravo in questo (non è stato addestrato per farlo!) e la sua immagine di tutte le aree del machine learning è stata offuscata da questa realtà.

Contrariamente a questa idea sbagliata, gli scienziati dei dati sanno che i LLM rappresentano solo una piccola parte del panorama più ampio del machine learning. Molti altri algoritmi e modelli eccellono nei calcoli matematici perché è questo il loro scopo specifico. (Come ha detto un amico quando gli ho raccontato questa storia, “i modelli di machine learning Sono matematica!”) Il problema, tuttavia, è che gli scienziati dei dati lo sanno, ma il pubblico in generale no.

…gli scienziati dei dati sanno che i LLM rappresentano solo una piccola parte del panorama più ampio del machine learning.

Potrei dedicare un intero articolo a parlare della differenza tra modelli di linguaggio e altre forme di machine learning, ma non è quello che mi interessa oggi. Voglio invece spiegare perché è importante che le persone non esperte abbiano queste informazioni e quali possono essere le implicazioni.

Perché dovremmo preoccuparci se le persone non sanno nulla del machine learning?

Come sociologo diventato scienziato dei dati, mi interessa molto come le persone interagiscono con la scienza dei dati e il machine learning. Ho una filosofia personale in merito: se il tuo machine learning non beneficia le persone o il mondo intorno a noi in qualche modo, non ha importanza. Penso che lo scopo dell’impegno umano debba essere quello di migliorare la vita degli altri, e questo vale anche per il machine learning.

Tuttavia, anche se non condividi questa filosofia, sostengo che dovresti comunque preoccuparti che il pubblico generale comprenda gli elementi essenziali del machine learning. Se le persone non hanno questa comprensione, l’adozione di strumenti preziosi e affidabili può stagnare.

Il mio argomento è il seguente:

  1. Le persone non sono naturalmente preparate per comprendere e interagire con il machine learning.
  2. Senza una comprensione di questi strumenti, alcune persone potrebbero evitarli o diffidare di essi.
  3. Peggio ancora, alcune persone potrebbero utilizzare erroneamente questi strumenti a causa di disinformazione, con conseguenze dannose.
  4. Dopo aver sperimentato le conseguenze negative dell’abuso, le persone potrebbero essere riluttanti ad adottare futuri strumenti di machine learning che potrebbero migliorare la loro vita e le loro comunità.

Il machine learning funziona solo nella misura in cui le persone che lo utilizzano riescono a massimizzarne il funzionamento. Spesso vedo e sento esempi come l’aneddoto con cui ho iniziato nella mia vita quotidiana, in cui le persone partono da preconcetti estremamente errati su cosa sia o possa essere il ML e costruiscono su questa base sbagliata. Questo porta alla loro completa errata comprensione di cosa sia il ML.

Ciò che questo significa per il campo della scienza dei dati è che tutto il nostro lavoro al servizio della costruzione di machine learning sempre più avanzato è limitato nella sua possibilità non dal numero di GPU che possiamo ottenere, ma dalla nostra capacità di spiegare ciò che costruiamo ed educare il pubblico su ciò che significa e come utilizzarlo.

…il nostro lavoro al servizio della costruzione di machine learning più avanzato è limitato nella sua possibilità non dal numero di GPU che possiamo ottenere, ma dalla nostra capacità di spiegare ciò che costruiamo.

Le persone non sono innate per capire il machine learning

Recentemente ho letto un articolo intitolato “Perché Johnny non può promuovere” (Zamfirescu-Pereira, Wong, Hartmann e Yang, aprile 2023). Questo mi ha fatto riflettere su come le persone non esperte di dati pensano e affrontano l’IA generativa in particolare, ma anche sul machine learning in generale.

Potrei scrivere altro separatamente su questo articolo in seguito, ma per questo argomento, il punto importante è questo: le persone tendono ad applicare i loro quadri di riferimento consolidati per interagire con altre persone alle loro interazioni con i sistemi di machine learning, portando a risultati mediocri e frustrazione degli utenti.

Le persone tendono ad applicare i loro quadri di riferimento consolidati per interagire con altre persone alle loro interazioni con i sistemi di machine learning, portando a risultati mediocri e frustrazione degli utenti.

Ora, non penso che ciò sia irrimediabile. Credo che gli esseri umani abbiano sempre bisogno di imparare come utilizzare nuovi strumenti e che possiamo sicuramente farcela. Pensate a come abbiamo imparato gradualmente ad utilizzare i computer e poi gli smartphone. Non era immediatamente ovvio cosa fare o come farci “capire” dai dispositivi di fronte a noi.

Questo è stato in gran parte risolto da una combinazione di tempo, miglioramenti nel design dei dispositivi per renderli più intuitivi (ad esempio, la tecnologia che viene incontro a noi), ed educazione. Quando ero giovane, le persone anziane o meno esperte di tecnologia avevano accesso a corsi di informatica gratuiti o a basso costo presso i college comunitari locali, ad esempio. L’obiettivo non era imparare a programmare, ma solo imparare ad utilizzare i computer in modo efficace, perché erano strumenti incredibilmente utili.

Credo che questo processo possa funzionare anche per il machine learning, ma ci sono alcune differenze. Innanzitutto, gran parte del machine learning è astratto da noi, o è avvolto in un’interfaccia antropomorfa (nel caso dei chatbot LLM, ad esempio). Molte delle risultati dei modelli di machine learning entrano nella nostra vita senza che ci accorgiamo che sono lì, come la personalizzazione dei risultati di ricerca o gli avvisi nelle app basati su previsioni su ciò che vorremo o avremo bisogno, solo per citarne alcuni. Nel caso dell’IA generativa, gran parte del machine learning si trova sotto la superficie di un chatbot conversazionale, e siamo naturalmente inclini ad interagire con esso come potremmo fare con un partner di conversazione umano. Tuttavia, questo è un errore, come gli autori descrivono nell’articolo che ho menzionato sopra. In questo momento, i migliori risultati da un LLM non si ottengono solo parlando con esso “come una persona”.

Alcune persone non utilizzeranno cose che non capiscono

Questa realtà crea alcune condizioni di cui dobbiamo essere consapevoli. Innanzitutto, molte persone non accetteranno il fatto che il machine learning sia completamente vantaggioso e facile. Molte persone guardano alla nuova era dell’IA generativa con allarme invece che entusiasmo. Questa è una reazione ragionevole per molti. Per una cosa, abbiamo molti riferimenti culturali ed esperienze che ci hanno insegnato che i computer “troppo intelligenti” sono pericolosi e che dovremmo diffidarne.

Le persone si sentivano così anche riguardo ai personal computer. Alcune erano preoccupate per la capacità e la potenza che potrebbero avere, o erano nervose per la propria effettiva capacità di capirli e utilizzarli. Quei corsi di informatica presso i college comunitari hanno aiutato le persone esitanti a instaurare una relazione confortevole con l’idea di computer. Purtroppo, non vedo il campo della scienza dei dati che adotta lo stesso tipo di attenzione nei confronti dei membri incerti del pubblico oggi.

Adottare nuove tecnologie è sempre una sfida, non perché le persone siano poco intelligenti o poco curiose, ma a causa di preoccupazioni genuine riguardo ai potenziali rischi. Riconoscere queste preoccupazioni e dimostrare un impegno per prevenire esiti negativi può migliorare la credibilità del machine learning presso il pubblico.

Altre persone useranno e abuseranno di cose che non capiscono

D’altra parte, ci sono molte persone che si sono buttate a capofitto nell’interazione con l’apprendimento automatico, in particolare LLM, con entusiasmo. Le persone lo stanno usando per una serie di cose, incluso il lavoro in vari settori e l’intrattenimento. L’entusiasmo e la copertura mediatica hanno aumentato la consapevolezza della tecnologia LLM e del suo potenziale, e praticamente ogni azienda che possiede un computer sta cercando di far diventare l’IA parte della propria strategia aziendale.

Tuttavia, c’è anche un lato negativo a tutta questa eccitazione. Quando le persone iniziano a utilizzare l’apprendimento automatico, come ad esempio LLM, iniziano a notare i problemi e i modi in cui la tecnologia non soddisfa le aspettative esagerate. Forse il chatbot non capisce la tua domanda, o le previsioni del modello non sono sempre perfette, ma l’utente finale si aspetta che la macchina non commetta errori. Perché si aspettano questo? Perché ciò che sanno sull’apprendimento automatico proviene dalla cultura popolare e dall’entusiasmo. Noi scienziati dei dati non ci siamo presi il tempo di spiegare quali aspettative sono ragionevoli e quali sono ancora materiale di fantascienza.

Dopo aver usato in modo errato strumenti che non capiscono, le persone temeranno di utilizzare nuovi strumenti in futuro

Quindi, cosa succede quando promettiamo troppo e non riusciamo a soddisfare le aspettative per quanto riguarda le soluzioni di apprendimento automatico per gli utenti comuni? In molti, moltissimi casi, avremo persone deluse e disilluse che avrebbero potuto essere grandi sostenitori delle nuove tecnologie. Saranno meno propensi a provare la prossima versione o a utilizzare l’apprendimento automatico in futuro, perché gli hanno dato una possibilità e sono rimasti delusi.

Pensa a questo esempio: l’avvocato che ha utilizzato ChatGPT per ottenere citazioni per un breve. Quando questa storia è emersa, la comunità della scienza dei dati ha criticato duramente l’avvocato. “Chi farebbe una cosa del genere? Non sapevano che non ci si può affidare a ChatGPT per l’accuratezza di cose del genere?”

In realtà, provo una certa compassione per questo avvocato, anche se queste conseguenze sono il risultato di una certa superficialità. La promessa di ChatGPT sembra quasi magica per molte persone, e le rappresentazioni mediatiche sulle cose quasi miracolose che può fare hanno alimentato questa idea. Molte persone hanno imparato per la prima volta che ChatGPT “ti mente” leggendo di questo caso.

Queste percezioni errate derivano dall’antropomorfizzazione degli LLM, assumendo che abbiano ragionamenti simili a quelli umani e capacità di discernimento della verità. In realtà, ChatGPT è un modello molto sofisticato che mette le parole in ordine in reazione a un prompt che gli viene dato. È addestrato a produrre un linguaggio molto intelligibile. Ma ChatGPT non ha concetto di “verità” o “menzogna”. Non ha embedding interni per rappresentare se qualcosa è accurato. Quindi, quando si parla di ChatGPT che mente o “allucina”, tutto questo è un po’ fuorviante.

Tuttavia, il punto importante è che ora abbiamo un gruppo di persone che ha visto questa notizia, per non parlare dell’avvocato coinvolto, che ora è al meglio ansioso sul fatto che si possa fare affidamento su qualunque cosa si ottenga da ChatGPT. Tutto questo scenario non li ha aiutati a capire l’idea degli LLM e certamente non ha aiutato l’obiettivo più ampio di applicare l’apprendimento automatico dove può essere utile. Qualcuno è stato bruciato dalla mancanza di informazioni su come funziona il modello, altre persone ci hanno riso su, e ora abbiamo creato molti più scettici che si terranno lontani dall’utilizzare almeno alcune forme di apprendimento automatico in futuro.

Tutto ciò porta allo stesso posto e al solito problema: quando non c’è una corretta educazione pubblica su una tecnologia, stiamo lasciando il compito di educare il pubblico a fonti non affidabili e di parte che hanno altre priorità oltre al bene comune. Basta chiedere a qualsiasi professionista della sanità pubblica che cerca di aumentare l’adozione dei vaccini in questi giorni. L’apprendimento automatico potrebbe seguire facilmente la stessa strada sfortunata se non ci mettiamo in prima linea nell’educazione del pubblico.

Cosa possiamo fare per risolvere questo problema?

Come possiamo, noi che siamo professionisti della scienza dei dati, colmare questa lacuna tra la nostra competenza tecnica e la consapevolezza del pubblico? Da ex educatore, mi interessa molto questo aspetto. È importante che il pubblico capisca davvero cosa può fare l’apprendimento automatico per noi, perché abbiamo la possibilità di fare molto bene con esso.

Una cosa che penso possiamo fare è investire più tempo ed energia nell’educazione del pubblico. Non sto dicendo che ogni persona per strada abbia bisogno di un tutorial su backpropagation o architettura degli encoder. (È come dire che le persone devono studiare i microchip per essere utenti di computer efficaci.) Ma penso che ci siano alcuni elementi essenziali che le persone devono capire sull’apprendimento automatico in modo da poter essere utenti informati della tecnologia, inclusi l’etica, i rischi e i limiti di ciò che è possibile al momento. Come campo, la scienza dei dati deve avere un’idea di quali informazioni una persona ha bisogno per essere un utente di successo ed efficace dell’apprendimento automatico e come possiamo condividerle.

Se non stessimo assistendo a un così drammatico cambiamento con LLM che sono a portata di mano del pubblico, potremmo aspettare su questo. I risultati dei modelli predittivi di base sono di solito intermediati da un professionista della scienza dei dati, nel senso che gli input del modello sono attentamente progettati e i risultati vengono presentati in modo ponderato. Nel caso dei chatbot LLM, però, questo non è vero. Le persone possono inserire qualsiasi cosa desiderino e nessuno controlla ciò che viene restituito. Gli utenti hanno bisogno di molte più conoscenze per produrre e consumare queste informazioni in modo responsabile.

In secondo luogo, penso che la scienza dei dati come campo debba essere molto più vocale e insistere nel dissentire dall’eccessiva enfasi e dalle esagerazioni su ciò che l’apprendimento automatico può davvero fare e su ciò di cui è capace. La maggior parte di ciò che trovo in questo senso proviene da media che cercano solo di attirare clic, o persino alcuni giornali teoricamente affidabili. Non fraintendetemi, l’apprendimento automatico è assolutamente sorprendente e può fare cose incredibili! Tuttavia, non è perfetto e non dovremmo permettere a nessuno di fingere che lo sia senza reagire.

Ignorando questo problema, rischiamo di far regredire il progresso dell’apprendimento automatico, non necessariamente nel suo progresso tecnologico (sebbene il fallimento del Congresso nel comprendere l’apprendimento automatico potrebbe avere tale effetto), ma nel progresso delle sue applicazioni effettive nella vita pratica. Non voglio che il potenziale incredibile di questa tecnologia venga marginalizzato o ridotto al minimo perché non abbiamo aiutato il pubblico a prepararsi.

Per vedere altri dei miei lavori, visita www.stephaniekirmer.com.