Ricercatori trovano falle nei controlli di sicurezza di ChatGPT e altri chatbot
Ricercatori trovano falle nei controlli di sicurezza di ChatGPT e altri chatbot' can be condensed to 'Ricercatori scoprono falle di sicurezza in ChatGPT e altri chatbot

Quando le aziende di intelligenza artificiale sviluppano chatbot online, come ChatGPT, Claude e Google Bard, impiegano mesi ad aggiungere misure di sicurezza che dovrebbero impedire ai loro sistemi di generare discorsi d’odio, disinformazione e altri contenuti tossici.
Ora c’è un modo per bucare facilmente questi sistemi di sicurezza.
In un rapporto pubblicato giovedì, i ricercatori della Carnegie Mellon University di Pittsburgh e del Center for A.I. Safety di San Francisco hanno mostrato come chiunque potesse aggirare le misure di sicurezza dell’intelligenza artificiale e utilizzare uno qualsiasi dei principali chatbot per generare quantità quasi illimitate di informazioni dannose.
La loro ricerca ha sottolineato la crescente preoccupazione che i nuovi chatbot potrebbero invadere Internet con informazioni false e pericolose nonostante i tentativi dei loro creatori di evitare che ciò accada. Ha anche mostrato come le divergenze tra le principali aziende di intelligenza artificiale stiano creando un ambiente sempre più imprevedibile per la tecnologia.
- Una nuova alba nella robotica la rotazione degli oggetti basata sul tatto
- Avanzamento del riconoscimento dell’azione umana nella realtà virtuale questo documento AI introduce LKA-GCN con attenzione al kernel grande dello scheletro per prestazioni senza pari.
- Introduzione all’Apprendimento Statistico, Edizione Python Libro gratuito
Dal The New York Times Visualizza l’articolo completo