Competenze culturali per la gestione del rischio nell’apprendimento automatico

Cultural skills for risk management in machine learning

La cultura di un’organizzazione è un aspetto essenziale dell’AI responsabile.

Foto di Google DeepMind disponibile gratuitamente su Pexels

Immagina un mondo in cui i sistemi alimentati dall’Intelligenza Artificiale (AI) non possano fare errori, in cui eseguano senza problemi i loro compiti. Sembra un sogno di fantascienza, vero? Benvenuti nel mondo reale dell’AI, dove le cose non vanno sempre come previsto. Una parte fondamentale della pratica dell’AI responsabile consiste nel prevenire e affrontare ciò che definiamo “incidenti AI“. Questo articolo discute delle competenze culturali che possono prevenire e mitigare gli incidenti AI, concentrandosi sul concetto di promuovere pratiche di AI responsabili. Successivamente, esploreremo i processi aziendali correlati in futuri articoli per fornire una prospettiva completa su questo argomento cruciale.

Una nota sulla serie

Mentre ci addentriamo in questa serie, è importante fornire del contesto. Sono uno dei co-autori di “Machine Learning for High-Risk Applications”, insieme a Patrick Hall e James Curtis. Questa serie è stata progettata per offrire un compagno conciso e di facile lettura ai contenuti estesi del libro. In ogni articolo, miriamo a sintetizzare le informazioni critiche, i concetti e le strategie pratiche presentate nel libro in porzioni facilmente comprensibili, rendendo così questa conoscenza accessibile a un pubblico più ampio.

Definizione degli incidenti AI

È fondamentale affrontare gli incidenti AI prima di approfondire la sicurezza dell’Apprendimento Automatico (ML), perché non possiamo mitigare efficacemente ciò che non comprendiamo. Gli incidenti AI comprendono tutti gli esiti derivanti dai sistemi AI che potrebbero potenzialmente causare danni. La gravità di questi incidenti varia naturalmente a seconda dell’entità dei danni che provocano. Questi incidenti possono andare da inconvenienti relativamente minori, come i robot di sicurezza dei centri commerciali che cadono per le scale, a eventi più catastrofici, come le auto a guida autonoma che causano la morte di pedoni e la deviazione su larga scala delle risorse sanitarie da coloro che ne hanno più bisogno.

Gli incidenti AI comprendono tutti gli esiti derivanti dai sistemi AI che potrebbero potenzialmente causare danni.

Possiamo categorizzare gli incidenti AI in tre gruppi principali: