Regole necessarie per l’IA ad alto rischio, afferma l’ACM – ‘È il Far West

Regole per l'IA ad alto rischio è il Far West.

L'adozione dell'IA generativa sta accelerando la discussione sulla regolamentazione dell'intelligenza artificiale. ¶ Credit: khunkornStudio/Shutterstock

La probabilità che l’IA sfugga al controllo e faccia del male alle persone è aumentata considerevolmente grazie all’esplosione dell’uso delle tecnologie di IA generativa, come ChatGPT. Ciò rende necessaria la regolamentazione di determinati casi di uso ad alto rischio dell’IA negli Stati Uniti, hanno affermato gli autori di un nuovo articolo dell’Association of Computing Machinery la scorsa settimana.

Utilizzare una tecnologia come ChatGPT per scrivere una poesia o per scrivere un linguaggio scorrevole quando si conosce bene il contenuto e si possono verificare gli errori personalmente è una cosa, ha affermato Jeanna Matthews, una degli autori del nuovo articolo del Technology Policy Council dell’ACM, intitolato “Principi per lo sviluppo, la distribuzione e l’uso delle tecnologie di IA generativa”.

“È completamente diverso aspettarsi che le informazioni che si trovano lì siano accurate in una situazione in cui non si è in grado di verificare gli errori personalmente”, ha detto Matthews. “Questi sono due casi d’uso molto diversi. E quello che stiamo dicendo è che dovrebbero esserci limiti e linee guida per le distribuzioni e l’uso. ‘È sicuro utilizzarlo per questo scopo. Non è sicuro utilizzarlo per questo scopo'”.

Il nuovo articolo dell’ACM, a cui puoi accedere qui, elenca otto principi che raccomanda agli utenti di seguire nella creazione di sistemi di IA. I primi quattro principi – riguardanti la trasparenza; l’auditabilità e la contestabilità; la limitazione dell’impatto ambientale; e la sicurezza e la politica potenziate – sono stati presi in prestito da un articolo precedente pubblicato nell’ottobre 2022.

Da Datanami Visualizza l’articolo completo