Un nuovo software sviluppato dai ricercatori dell’Università di Surrey può verificare quanto effettivamente sa l’Intelligenza Artificiale.

Nuovo software universitario verifica conoscenza Intelligenza Artificiale.

Negli ultimi anni si sono verificati numerosi progressi tecnologici nel campo dell’Intelligenza Artificiale (AI), che hanno avuto un profondo impatto su diverse industrie e settori. L’AI ha un potenziale significativo quando si tratta di rivoluzionare completamente l’industria sanitaria, trasformando il modo in cui le aziende operano e come gli individui interagiscono con la tecnologia. Tuttavia, anche con l’ampia adozione della tecnologia AI, è necessario garantire determinate cose, che aumenteranno solo nei prossimi anni. Questo è il motivo per cui diventa sempre più importante garantire misure di sicurezza per proteggere il sistema AI e il tipo di dati su cui si basa. I sistemi AI si basano pesantemente sui dati per l’addestramento, che potrebbero contenere informazioni sensibili e personali. Di conseguenza, è estremamente cruciale che i ricercatori e gli sviluppatori ideino misure di sicurezza robuste che possano prevenire attacchi a tali sistemi AI e garantire che le informazioni sensibili non vengano rubate.

In questo contesto, la sicurezza delle applicazioni AI è diventata un argomento caldo tra ricercatori e sviluppatori, poiché influisce direttamente su diverse istituzioni come il governo, le aziende, ecc. Contribuendo a questa ondata di ricerca, un team di ricercatori del Dipartimento di Cybersecurity dell’Università di Surrey ha creato un software in grado di verificare quante informazioni un sistema AI ha raccolto dal database di un’organizzazione. Il software può anche determinare se un sistema AI ha scoperto eventuali difetti potenziali nel codice del software che potrebbero essere utilizzati per operazioni maliziose. Ad esempio, il software può determinare se un giocatore di scacchi AI è diventato imbattibile a causa di un bug potenziale nel codice. Uno dei principali casi d’uso che i ricercatori di Surrey stanno esaminando per il loro software è utilizzarlo come parte del protocollo di sicurezza online di un’azienda. Un’azienda può quindi determinare meglio se l’AI può accedere ai dati sensibili dell’azienda. Il software di verifica di Surrey ha anche vinto un premio per il miglior articolo presso il prestigioso 25° Simposio Internazionale sui Metodi Formali.

Con l’ampia adozione dell’AI nella nostra vita quotidiana, è lecito presumere che questi sistemi debbano interagire con altri sistemi AI o con gli esseri umani in ambienti complessi e dinamici. Ad esempio, le auto a guida autonoma devono interagire con altre fonti, come altri veicoli e sensori, per prendere decisioni durante la navigazione nel traffico. D’altra parte, alcune aziende utilizzano robot per completare determinati compiti per i quali è necessario interagire con altri esseri umani. In queste situazioni, garantire la sicurezza dei sistemi AI può essere particolarmente sfidante, poiché le interazioni tra sistemi e esseri umani possono introdurre nuove vulnerabilità. Pertanto, per sviluppare una soluzione a questo problema, il primo passo è determinare cosa sa effettivamente un sistema AI. Questo è stato un problema di ricerca affascinante per la comunità AI per diversi anni e i ricercatori dell’Università di Surrey hanno scoperto qualcosa di innovativo.

Il software di verifica sviluppato dai ricercatori di Surrey può determinare quanto l’AI può imparare dalle sue interazioni e se sa abbastanza o troppo per compromettere la privacy. Per specificare esattamente cosa sanno i sistemi AI, i ricercatori hanno definito una “logica epistemica del programma”, che include anche il ragionamento sugli eventi futuri. I ricercatori sperano che utilizzando il loro software unico nel suo genere per valutare ciò che un’AI ha imparato, le aziende saranno in grado di adottare l’AI nei loro sistemi in modo più sicuro. La ricerca dell’Università di Surrey rappresenta un passo molto importante per garantire la riservatezza e l’integrità dei set di dati di addestramento. I loro sforzi accelereranno il ritmo della ricerca per creare sistemi AI affidabili e responsabili.