Come i ricercatori hanno violato ChatGPT e cosa potrebbe significare per lo sviluppo futuro dell’IA

Violated ChatGPT Implications for Future AI Development

Ricercatori presso l'Università Carnegie Mellon e il Centro per la sicurezza dell'IA hanno trovato vulnerabilità nei chatbot dell'IA come ChatGPT, Google Bard e Claude. ¶ Credito: Getty Images

Mentre molti di noi si abituano ad utilizzare quotidianamente strumenti di intelligenza artificiale, vale la pena ricordare di mantenere il nostro spirito critico. Nulla è completamente sicuro e privo di vulnerabilità di sicurezza. Tuttavia, le aziende che si trovano dietro molti dei più popolari strumenti di IA generativa stanno costantemente aggiornando le loro misure di sicurezza per prevenire la generazione e la diffusione di contenuti inesatti e dannosi.

Ricercatori presso l’Università Carnegie Mellon e il Centro per la sicurezza dell’IA si sono uniti per trovare vulnerabilità nei chatbot dell’IA come ChatGPT, Google Bard e Claude – e ci sono riusciti.

In un paper di ricerca per esaminare la vulnerabilità di grandi modelli di linguaggio (LLM) ad attacchi avversari automatizzati, gli autori hanno dimostrato che anche se un modello è dichiarato resistente agli attacchi, può ancora essere ingannato nell’eludere i filtri dei contenuti e fornire informazioni dannose, disinformazione e discorsi di odio. Questo rende questi modelli vulnerabili, potenzialmente portando all’abuso dell’IA.

“Questo mostra – in modo molto chiaro – la fragilità delle difese che stiamo integrando in questi sistemi”, ha detto Aviv Ovadya, un ricercatore presso il Berkman Klein Center for Internet & Society di Harvard, al The New York Times.

Da ZDNet Visualizza l’articolo completo