Le aziende di intelligenza artificiale devono essere ritenute responsabili dei danni che causano, dicono i ‘padrini’.

Le aziende di intelligenza artificiale devono assumersi la responsabilità dei danni causati, sostengono gli 'schemi'.

Un gruppo di esperti senior, inclusi due

Un gruppo di esperti, tra cui i “padrini” dell’intelligenza artificiale Geoffrey Hinton e Yoshua Bengio, entrambi vincitori del premio ACM Turing, ha dichiarato che le aziende di intelligenza artificiale devono essere ritenute responsabili dei danni causati dai loro prodotti, in vista di un summit sulla sicurezza dell’IA a Londra.

Stuart Russell dell’Università della California, Berkeley, uno dei 23 esperti che hanno redatto le proposte politiche sull’IA pubblicate martedì, ha definito “assolutamente imprudente” sviluppare sistemi di intelligenza artificiale sempre più potenti prima di capire come renderli sicuri.

Le politiche proposte includono l’impegno dei governi e delle aziende a destinare il 33% delle risorse di ricerca e sviluppo all’uso sicuro ed etico dell’IA.

Le aziende che scoprono capacità pericolose nei loro modelli di IA devono anche adottare misure di sicurezza specifiche. From The Guardian (U.K.) Visualizza l’articolo completo

Abstracts Copyright © 2023 SmithBucklin, Washington, D.C., USA