Come il pregiudizio umano mina le soluzioni abilitate dall’IA

Come i pregiudizi umani minano le soluzioni abilitate dall'IA

Lo scorso settembre, leader mondiali come Elon Musk, Mark Zuckerberg e Sam Altman, CEO di OpenAI, si sono riuniti a Washington D.C. con lo scopo di discutere, da un lato, come il settore pubblico e privato possano collaborare per sfruttare questa tecnologia per il bene comune, e dall’altro, per affrontare la regolamentazione, un problema che è rimasto al centro della conversazione sull’IA.

Entrambe le conversazioni, spesso, portano allo stesso punto. C’è un crescente enfasi sulla possibilità di rendere l’IA più etica, valutando l’IA come se fosse un altro essere umano la cui moralità fosse in questione. Ma cosa significa IA etica? DeepMind, un laboratorio di ricerca di proprietà di Google che si concentra sull’IA, ha recentemente pubblicato uno studio in cui hanno proposto una struttura a tre livelli per valutare i rischi dell’IA, compresi i rischi sociali ed etici. Questo framework includeva la capacità, l’interazione umana e l’impatto sistemico, e ha concluso che il contesto era fondamentale per determinare se un sistema di IA fosse sicuro.

Uno di questi sistemi che è stato criticato è ChatGPT, che è stato bandito in ben 15 paesi, anche se alcuni di questi divieti sono stati revocati. Con oltre 100 milioni di utenti, ChatGPT è uno dei LLM di maggior successo ed è spesso stato accusato di parzialità. Prendendo in considerazione lo studio di DeepMind, incorporiamo qui il contesto. La parzialità, in questo contesto, significa l’esistenza di prospettive ingiuste, pregiudiziali o distorte nel testo generato da modelli come ChatGPT. Questo può accadere in vari modi – parzialità razziale, parzialità di genere, parzialità politica e molto altro.

Queste parzialità possono essere, in definitiva, dannose per l’IA stessa, ostacolando le possibilità di sfruttare appieno il potenziale di questa tecnologia. Ricerche recenti dell’Università di Stanford hanno confermato che i LLM come ChatGPT stanno mostrando segni di declino in termini della loro capacità di fornire risposte affidabili, imparziali e accurate, il che alla fine rappresenta un ostacolo per il nostro uso efficace dell’IA.

Un problema che si trova al centro di questo problema è come i pregiudizi umani vengano tradotti nell’IA, poiché sono profondamente radicati nei dati utilizzati per sviluppare i modelli. Tuttavia, questo è un problema più profondo di quanto sembri.

Cause di parzialità

È facile identificare la prima causa di questa parzialità. I dati da cui il modello apprende sono spesso pieni di stereotipi o pregiudizi preesistenti che hanno contribuito a plasmare quei dati in primo luogo, quindi l’IA, involontariamente, finisce per perpetuare quei pregiudizi perché è quello che sa fare.

Tuttavia, la seconda causa è molto più complessa e controintuitiva, e mette a dura prova alcuni degli sforzi che vengono fatti per rendere l’IA presumibilmente più etica e sicura. Ci sono, ovviamente, alcuni casi evidenti in cui l’IA può essere involontariamente dannosa. Ad esempio, se qualcuno chiede all’IA: “Come posso fare una bomba?” e il modello fornisce la risposta, sta contribuendo a generare un danno. Il rovescio della medaglia è che quando l’IA è limitata, anche se la causa è giustificabile, le impediamo di imparare. I vincoli imposti dagli esseri umani limitano la capacità dell’IA di imparare da una gamma più ampia di dati, il che impedisce ulteriormente di fornire informazioni utili in contesti non dannosi.

Inoltre, teniamo presente che molti di questi vincoli sono anche parziali, perché originano dagli esseri umani. Quindi, mentre possiamo concordare tutti sul fatto che “Come posso fare una bomba?” può portare a un esito potenzialmente fatale, altre domande che potrebbero essere considerate sensibili sono molto più soggettive. Di conseguenza, se limitiamo lo sviluppo dell’IA su quelle verticali, stiamo limitando progresso e stiamo promuovendo l’utilizzo dell’IA solo per scopi che sono considerati accettabili da coloro che stabiliscono le normative riguardanti i modelli LLM.

Incapacità di prevedere le conseguenze

Non abbiamo compreso completamente le conseguenze dell’introduzione di restrizioni nei LLM (Large Language Models). Pertanto, potremmo causare più danni agli algoritmi di quanto non ci rendiamo conto. Dato l’incredibilmente alto numero di parametri coinvolti in modelli come GPT, è, con gli strumenti che abbiamo ora, impossibile prevedere l’impatto e, dal mio punto di vista, ci vorrà più tempo per capire quale sia l’impatto rispetto al tempo impiegato per addestrare la rete neurale stessa.

Pertanto, imponendo queste restrizioni, potremmo, involontariamente, portare il modello a sviluppare comportamenti o pregiudizi imprevisti. Questo avviene anche perché i modelli di intelligenza artificiale sono spesso sistemi complessi a molti parametri, il che significa che se modifichiamo un parametro, ad esempio, introducendo una restrizione, stiamo provocando un effetto a catena che si ripercuote sull’intero modello in modi che non possiamo prevedere.

Difficoltà nell’valutare l’ “etica” dell’Intelligenza Artificiale

Non è praticamente fattibile valutare se l’IA sia etica o meno, perché l’IA non è una persona che agisce con una specifica intenzione. L’IA è un Large Language Model che, per sua natura, non può essere più o meno etica. Come ha rivelato lo studio di DeepMind, ciò che conta è il contesto in cui viene utilizzata, e questo misura l’etica dell’essere umano dietro l’IA, non dell’IA stessa. È un’illusione pensare che possiamo giudicare l’IA come se avesse una bussola morale.

Una soluzione potenziale che viene proposta è un modello che possa aiutare l’IA a prendere decisioni etiche. Tuttavia, la realtà è che non abbiamo idea di come potrebbe funzionare questo modello matematico dell’etica. Quindi, se non lo capiamo, come potremmo costruirlo? L’etica è molto soggettiva, il che rende molto complesso quantificarla.

Come risolvere questo problema?

Sulla base dei punti sopra menzionati, non possiamo realmente parlare di eticità dell’IA, perché ogni presunzione che viene considerata non etica è una variazione di pregiudizi umani contenuti nei dati e uno strumento che gli esseri umani usano per i propri fini. Inoltre, ci sono ancora molte incognite scientifiche, come l’impatto e il potenziale danno che potremmo causare agli algoritmi di intelligenza artificiale ponendo loro restrizioni.

Pertanto, si può dire che limitare lo sviluppo dell’IA non è una soluzione praticabile. Come hanno mostrato alcuni studi che ho menzionato, queste restrizioni sono in parte la causa del deterioramento dei LLM (Large Language Models).

Detto ciò, cosa possiamo fare al riguardo?

Dal mio punto di vista, la soluzione risiede nella trasparenza. Credo che se ripristiniamo il modello open-source che era prevalente nello sviluppo dell’IA, possiamo lavorare insieme per costruire migliori LLMs che potrebbero essere in grado di alleviare le nostre preoccupazioni etiche. Altrimenti, sarà molto difficile verificare correttamente ciò che viene fatto dietro porte chiuse.

Un’iniziativa eccellente in questo ambito è l’Indice di Trasparenza del Modello di Base, recentemente presentato dal Stanford HAI (Human-Centered Artificial Intelligence), che valuta se gli sviluppatori dei dieci modelli di IA più utilizzati divulgano informazioni sufficienti sul loro lavoro e il modo in cui i loro sistemi vengono utilizzati. Ciò include la divulgazione delle partnership e degli sviluppatori di terze parti, nonché il modo in cui vengono utilizzati i dati personali. È importante sottolineare che nessuno dei modelli valutati ha ricevuto un punteggio elevato, il che sottolinea un vero problema.

Alla fine, l’IA non è altro che un Large Language Model, e il fatto che sia aperta e che possa essere sperimentata, invece di essere guidata in una determinata direzione, è ciò che ci permetterà di fare nuove scoperte rivoluzionarie in ogni campo scientifico. Tuttavia, senza trasparenza, sarà molto difficile progettare modelli che funzionino davvero a vantaggio dell’umanità e conoscere l’entità dei danni che questi modelli potrebbero causare se non adeguatamente controllati.