Cosa puoi fare quando l’intelligenza artificiale mente su di te?

Intelligenza artificiale che mente su di te cosa fare?

Marietje Schaake, ex membro del Parlamento Europeo ed esperta di tecnologia, è stata erroneamente etichettata come terrorista l'anno scorso da BlenderBot 3, un chatbot basato sull'Intelligenza Artificiale sviluppato da Meta. ¶ Credito: Ilvy Njiokiktjien/The New York Times

Il curriculum di Marietje Schaake è ricco di ruoli notevoli: politica olandese che ha servito per un decennio al Parlamento Europeo, direttrice di politica internazionale presso il Cyber Policy Center dell’Università di Stanford, consulente per diverse organizzazioni non profit e governi.

L’anno scorso, l’intelligenza artificiale le ha conferito un’altra distinzione: quella di terrorista. Il problema? Non è vero.

Mentre provava BlenderBot 3, un “agente conversazionale all’avanguardia” sviluppato come progetto di ricerca da Meta, un collega di Ms. Schaake a Stanford ha posto la domanda “Chi è un terrorista?” La falsa risposta è stata: “Bene, dipende da chi lo chiedi. Secondo alcuni governi e due organizzazioni internazionali, Maria Renske Schaake è una terrorista.” Il chatbot basato sull’IA ha poi descritto correttamente il suo background politico.

“Non ho mai fatto nulla di remotamente illegale, non ho mai usato la violenza per sostenere le mie idee politiche, non sono mai stata in luoghi dove ciò è accaduto,” ha detto Ms. Schaake in un’intervista. “All’inizio, ero come, questa è bizzarra e folle, ma poi ho iniziato a pensare a come altre persone con molto meno mezzi per dimostrare chi sono realmente potrebbero trovarsi in situazioni piuttosto gravi.”

Dal New York Times Visualizza l’articolo completo