Prevenire il pregiudizio dell’IA e gli stereotipi culturali Effetti, Limitazioni e Mitigazione

Combattere il pregiudizio e gli stereotipi culturali nell'IA Effetti, Limitazioni e Strategie di Mitigazione

L’intelligenza artificiale (AI), in particolare l’AI generativo, continua a superare le aspettative con la sua capacità di comprendere e imitare la cognizione e l’intelligenza umana. Tuttavia, in molti casi, i risultati o le previsioni dei sistemi di AI possono riflettere vari tipi di pregiudizi dell’AI, come quelli culturali e razziali.

Il blog “Barbie del Mondo” di Buzzfeed (ora cancellato) manifestava chiaramente questi pregiudizi culturali e inesattezze. Queste ‘barbie’ sono state create utilizzando Midjourney, un generatore di immagini AI di punta, per scoprire come sarebbero state le barbie in ogni parte del mondo. Ne parleremo più avanti.

Ma questa non è la prima volta che l’AI è stata “razzista” o ha prodotto risultati inesatti. Ad esempio, nel 2022 Apple è stata citata in giudizio per le accuse che il sensore di ossigeno nel sangue dell’Apple Watch era pregiudicato contro le persone di colore. In un altro caso segnalato, gli utenti di Twitter hanno scoperto che l’AI di ritaglio automatico delle immagini di Twitter aveva preferenze per i volti delle persone bianche rispetto agli individui neri e alle donne rispetto agli uomini. Queste sono sfide critiche e affrontarle è molto difficile.

In questo articolo, esamineremo cosa sia il pregiudizio dell’AI, come influisca sulla nostra società e discuteremo brevemente come i professionisti possano mitigarlo per affrontare le sfide legate agli stereotipi culturali.

Cosa è il pregiudizio dell’AI?

Il pregiudizio dell’AI si verifica quando i modelli di AI producono risultati discriminatori nei confronti di determinate categorie demografiche. Diversi tipi di pregiudizi possono influire sui sistemi di AI e generare risultati errati. Alcuni di questi pregiudizi dell’AI includono:

  • Pregiudizio stereotipato: Il pregiudizio stereotipato si riferisce al fenomeno in cui i risultati di un modello di AI consistono in stereotipi o convinzioni percepite su una determinata categoria demografica.
  • Pregiudizio razziale: Il pregiudizio razziale nell’AI si verifica quando il risultato di un modello di AI è discriminatorio e ingiusto nei confronti di un individuo o di un gruppo in base alla loro etnia o razza.
  • Pregiudizio culturale: Il pregiudizio culturale entra in gioco quando i risultati di un modello di AI favoriscono una determinata cultura rispetto a un’altra.

Oltre ai pregiudizi, altri problemi possono influire sui risultati di un sistema di AI, come:

  • Inesattezze: Le inesattezze si verificano quando i risultati prodotti da un modello di AI sono errati a causa di dati di addestramento non consistenti.
  • Allucinazioni: Le allucinazioni si verificano quando i modelli di AI producono risultati immaginari e falsi che non si basano su dati fattuali.

L’Impatto del Pregiudizio dell’AI sulla Società

L’impatto del pregiudizio dell’AI sulla società può essere dannoso. I sistemi di AI pregiudicati possono generare risultati errati che amplificano i pregiudizi già esistenti nella società. Questi risultati possono aumentare la discriminazione e le violazioni dei diritti, influenzare i processi di selezione e ridurre la fiducia nella tecnologia AI.

Inoltre, i risultati distorti dell’AI portano spesso a previsioni inesatte che possono avere conseguenze gravi per individui innocenti. Ad esempio, nell’agosto 2020, Robert McDaniel è diventato il bersaglio di un atto criminale a causa dell’algoritmo di prevenzione criminale della Polizia di Chicago che lo ha etichettato come “persona di interesse”.

In modo simile, i sistemi di AI sanitaria pregiudicati possono influire sulle condizioni dei pazienti. Nel 2019, Science ha scoperto che un ampio utilizzato algoritmo medico negli Stati Uniti era pregiudicato razzialmente contro le persone di colore, il che ha portato a una minore gestione delle cure ad alto rischio per i pazienti neri.

Barbie del Mondo

Nel luglio 2023, Buzzfeed ha pubblicato un blog che comprendeva 194 barbie generate dall’intelligenza artificiale provenienti da tutto il mondo. Il post è diventato virale su Twitter. Nonostante Buzzfeed abbia scritto una dichiarazione di avvertenza, ciò non ha impedito agli utenti di rilevare le inesattezze razziali e culturali. Ad esempio, l’immagine generata dall’AI della Barbie tedesca indossava l’uniforme di un generale nazista delle SS.

Barbies del Mondo-immagine5

Allo stesso modo, è stata mostrata un’immagine generata dall’IA di una Barbie del Sud Sudan che teneva una pistola al suo fianco, riflettendo il pregiudizio profondamente radicato negli algoritmi dell’IA.

Barbies del Mondo-immagine4

Oltre a ciò, diverse altre immagini mostravano inesattezze culturali, come la Barbie del Qatar che indossava un Ghutra, un copricapo tradizionale indossato dagli uomini arabi.

Barbies del Mondo-immagine3

Questo articolo ha ricevuto un’enorme reazione negativa per gli stereotipi culturali e il pregiudizio. La London Interdisciplinary School (LIS) ha definito questo danno rappresentativo che deve essere tenuto sotto controllo imponendo standard di qualità e istituendo organi di supervisione dell’IA.

Limitazioni dei Modelli di AI

L’IA ha il potenziale per rivoluzionare molte industrie. Ma se scenari come quelli sopra menzionati si diffondono, può portare a una diminuzione dell’adozione generale dell’IA, con conseguenti opportunità perse. Tali casi si verificano tipicamente a causa di significative limitazioni nei sistemi di IA, come ad esempio:

  • Mancanza di Creatività: Dato che l’IA può prendere decisioni solo in base ai dati di addestramento forniti, manca della creatività per pensare in modo innovativo, il che ostacola la risoluzione creativa dei problemi.
  • Mancanza di Comprensione Contestuale: I sistemi di IA incontrano difficoltà nel comprendere sfumature contestuali o espressioni linguistiche di una determinata regione, il che spesso porta a errori nei risultati.
  • Prevenire il Pregiudizio nell’Addestramento: L’IA si basa su dati storici che possono contenere tutti i tipi di campioni discriminatori. Durante l’addestramento, il modello può facilmente imparare pattern discriminatori per produrre risultati ingiusti e di parte.

Come Ridurre il Pregiudizio nei Modelli di AI

Gli esperti stimano che entro il 2026, il 90% dei contenuti online potrebbe essere generato sinteticamente. Pertanto, è fondamentale ridurre rapidamente i problemi presenti nelle tecnologie di AI generative.

Può essere implementata una serie di strategie chiave per ridurre il pregiudizio nei modelli di AI. Alcune di queste sono:

  • Garantire la Qualità dei Dati: L’ingestione di dati completi, accurati e puliti in un modello di AI può contribuire a ridurre il pregiudizio e produrre risultati più accurati.
  • Dataset Diversi: L’introduzione di dataset diversi in un sistema di AI può contribuire a mitigare il pregiudizio poiché il sistema di AI diventa sempre più inclusivo nel tempo.
  • Aumento delle Regolamentazioni: Le regolamentazioni globali sull’IA sono cruciali per mantenere la qualità dei sistemi di AI tra le diverse regioni. Pertanto, le organizzazioni internazionali devono lavorare insieme per garantire la standardizzazione dell’IA.
  • Aumento dell’Adozione della IA Responsabile: Le strategie di IA responsabile contribuiscono in modo positivo alla mitigazione del pregiudizio dell’AI, coltivando equità e accuratezza nei sistemi di AI e assicurando che servano una base utenti diversificata mentre si sforzano di miglioramento continuo.

Integrando dataset diversi, responsabilità etica e comunicazione aperta, possiamo garantire che l’IA sia una fonte di cambiamento positivo a livello mondiale.

Se desideri saperne di più sul pregiudizio e sul ruolo dell’Intelligenza Artificiale nella nostra società, leggi i seguenti articoli.