L’AI discrimina i non madrelingua inglesi

L'AI discrimina i non madrelingua inglesi - AI discrimina non madrelingua inglesi

Uno studio recente ha scoperto una verità preoccupante sull’intelligenza artificiale (IA): gli algoritmi utilizzati per rilevare saggi, domande di lavoro e altre forme di lavoro possono discriminare involontariamente i non madrelingua inglesi. Le implicazioni di questo pregiudizio sono estese, influenzando studenti, accademici e candidati al lavoro allo stesso modo. Lo studio, condotto da James Zou, professore associato di scienze dei dati biomedici presso l’Università di Stanford, mette in luce le preoccupanti disparità causate dai rilevatori di testo dell’IA. Con l’aumentare dei programmi di IA generativi come ChatGPT, diventa cruciale esaminare con attenzione l’accuratezza e l’equità di questi sistemi di rilevamento.

Leggi anche: Non più imbroglio! Sapia.ai coglie risposte generate dall’IA in tempo reale!

Le Conseguenze Non Volute dei Rilevatori di Testo dell’IA

In un’era in cui l’integrità accademica è fondamentale, molti educatori considerano il rilevamento dell’IA come uno strumento vitale per combattere le forme moderne di frode. Tuttavia, lo studio avverte che le affermazioni dell’accuratezza del 99%, spesso propagate da questi sistemi di rilevamento, sono al massimo fuorvianti. I ricercatori invitano a un esame più approfondito dei rilevatori di IA per prevenire discriminazioni involontarie contro i non madrelingua inglesi.

Leggi anche: Massive Stack Exchange Network in sciopero a causa della segnalazione di contenuti generati dall’IA

I Test Rivelano Discriminazioni contro i Non Madrelingua Inglesi

Per valutare le prestazioni dei popolari rilevatori di testo dell’IA, Zou e il suo team hanno condotto un rigoroso esperimento. Hanno sottoposto 91 saggi in inglese scritti da non madrelingua per la valutazione di sette rilevatori GPT di spicco. I risultati sono stati allarmanti. Più della metà degli saggi progettati per il Test di Inglese come Lingua Straniera (TOEFL) sono stati erroneamente etichettati come generati dall’IA. Un programma ha classificato sorprendentemente il 98% degli saggi come generati da macchine. In netto contrasto, quando gli saggi scritti da studenti di ottava elementare madrelingua inglese negli Stati Uniti sono stati sottoposti alla stessa valutazione, i rilevatori hanno identificato correttamente oltre il 90% come scritti da esseri umani.

Affermazioni Ingannevoli: Il Mito dell’Accuratezza del 99%

Le conseguenze discriminatorie osservate nello studio derivano dal modo in cui i rilevatori di IA valutano la distinzione tra testo umano e generato dall’IA. Questi programmi si basano su una metrica chiamata “perplessità del testo” per valutare quanto sorpreso o confuso diventa un modello di linguaggio nel predire la parola successiva in una frase. Tuttavia, questo approccio porta a un pregiudizio contro i non madrelingua che spesso utilizzano scelte di parole più semplici e schemi familiari. Grandi modelli di linguaggio come ChatGPT, addestrati a produrre testi a bassa perplessità, aumentano involontariamente il rischio che i non madrelingua inglesi vengano erroneamente identificati come generati dall’IA.

Leggi anche: AI-Detector segnala la Costituzione degli Stati Uniti come generata dall’IA

Riscrivere la Narrazione: Una Soluzione Paradossale

Riconoscendo il pregiudizio intrinseco nei rilevatori di IA, i ricercatori hanno deciso di testare ulteriormente le capacità di ChatGPT. Hanno chiesto al programma di riscrivere gli saggi del TOEFL, utilizzando un linguaggio più sofisticato. Sorprendentemente, quando questi saggi modificati sono stati valutati dai rilevatori di IA, sono stati tutti correttamente etichettati come scritti da esseri umani. Questa scoperta paradossale rivela che gli scrittori non madrelingua possono utilizzare in modo più estensivo l’IA generativa per sfuggire alla rilevazione.

Leggi anche: Gli sceneggiatori di Hollywood vanno in sciopero contro gli strumenti di IA, lo definiscono una “macchina del plagio”

Le Implicazioni su Vasta Scala per gli Scrittori Non Madrelingua

Gli autori dello studio sottolineano le gravi conseguenze che i rilevatori di IA pongono agli scrittori non madrelingua. Le domande di college e lavoro potrebbero essere erroneamente etichettate come generate dall’IA, marginalizzando i non madrelingua online. I motori di ricerca come Google, che declassano i contenuti generati dall’IA, aggravano ulteriormente questo problema. Nell’ambito dell’istruzione, dove i rilevatori GPT trovano la maggiore applicazione, gli studenti non madrelingua affrontano un rischio maggiore di essere falsamente accusati di frode. Ciò è dannoso per la loro carriera accademica e il loro benessere psicologico.

Leggi anche: L’UE chiede misure per identificare deepfake e contenuti generati dall’IA

Guardare Oltre l’IA: Coltivare l’Utilizzo Etico dell’IA Generativa

Jahna Otterbacher, del Cyprus Center for Algorithmic Transparency presso l’Open University di Cipro, suggerisce un approccio diverso per contrastare le possibili insidie dell’IA. Piuttosto che affidarsi esclusivamente all’IA per combattere problemi legati all’IA, sostiene la necessità di una cultura accademica che favorisca l’utilizzo etico e creativo dell’IA generativa. Otterbacher sottolinea che, poiché ChatGPT continua a imparare e adattarsi in base ai dati pubblici, potrebbe alla fine superare qualsiasi sistema di rilevamento.

Leggi anche: OpenAI presenta Super Alignment: aprendo la strada per l’AI sicura e allineata

La nostra opinione

Le conclusioni dello studio mettono in luce una realtà preoccupante: i rilevatori di testo dell’IA possono discriminare le persone che non parlano inglese come lingua madre. È fondamentale esaminare criticamente e affrontare i pregiudizi presenti in questi sistemi di rilevamento per garantire equità e precisione. Con l’avvento dell’IA generativa come ChatGPT, bilanciare l’integrità accademica e un ambiente di supporto per gli scrittori non madrelingua diventa imperativo. Nutrendo un approccio etico all’IA generativa, possiamo aspirare a un futuro in cui la tecnologia sia uno strumento di inclusione anziché una fonte di discriminazione.