Ricercatori trovano falle nei controlli di sicurezza di ChatGPT e altri chatbot

Ricercatori trovano falle nei controlli di sicurezza di ChatGPT e altri chatbot' can be condensed to 'Ricercatori scoprono falle di sicurezza in ChatGPT e altri chatbot

Zico Kolter e Andy Zou della Carnegie Mellon University hanno trovato un modo per aggirare le misure di sicurezza su tutte le principali piattaforme di chatbot. ¶ Credit: Marco Garcia / The New York Times

Quando le aziende di intelligenza artificiale sviluppano chatbot online, come ChatGPT, Claude e Google Bard, impiegano mesi ad aggiungere misure di sicurezza che dovrebbero impedire ai loro sistemi di generare discorsi d’odio, disinformazione e altri contenuti tossici.

Ora c’è un modo per bucare facilmente questi sistemi di sicurezza.

In un rapporto pubblicato giovedì, i ricercatori della Carnegie Mellon University di Pittsburgh e del Center for A.I. Safety di San Francisco hanno mostrato come chiunque potesse aggirare le misure di sicurezza dell’intelligenza artificiale e utilizzare uno qualsiasi dei principali chatbot per generare quantità quasi illimitate di informazioni dannose.

La loro ricerca ha sottolineato la crescente preoccupazione che i nuovi chatbot potrebbero invadere Internet con informazioni false e pericolose nonostante i tentativi dei loro creatori di evitare che ciò accada. Ha anche mostrato come le divergenze tra le principali aziende di intelligenza artificiale stiano creando un ambiente sempre più imprevedibile per la tecnologia.

Dal The New York Times Visualizza l’articolo completo