Il caso contro la regolamentazione dell’IA non ha senso

Contrary to regulating AI doesn't make sense.

Opinione

L’Europa è sulla strada giusta – il resto del mondo dovrebbe seguirla

Creato dall'autore tramite MidJourney

Dal momento in cui OpenAI ha rilasciato ChatGPT nel mondo alla fine del 2022, il mondo è stato in fermento per parlare di Intelligenza Artificiale Generativa e del futuro che potrebbe creare. I fan del capitalismo vedono questa tecnologia come un netto progresso; la continuazione logica del mondo digitale, che ha contribuito alla creazione di ricchezza inimmaginabile… per pochi eletti. Gli scettici, nel frattempo, ricordano il meglio della fantascienza degli anni ’80 e temono che potremmo essere sulla buona strada per creare il nostro HAL / SHODAN / Ultron / SkyNet / GLaDOS.

Queste sono le minoranze rumorose. La maggior parte delle persone, di fronte alle possibilità offerte dall’Intelligenza Artificiale Generativa, comprende che la tecnologia è soltanto uno strumento, senza una propria mente. La responsabilità è degli utenti di “fare del bene” con essa. E se ciò non fosse possibile perché il “bene” è inherentemente soggettivo… allora i governi democratici devono intervenire e regolamentare.

Come (e se) questo debba essere fatto è ancora oggetto di accesi dibattiti. L’Unione Europea è stata la prima a proporre l’AI Act. È una bozza iniziale imperfetta, ma ha il vantaggio di essere un vero tentativo di gestire una tecnologia altamente disruptiva anziché lasciare che siano i miliardari del settore tecnologico a dare il tono. Di seguito è riassunto il contenuto della proposta di legge e i pro e i contro di tali regolamentazioni.

Cosa c’è nell’AI Act dell’UE

L’AI Act pone il rischio al centro della discussione: “Le nuove norme stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio derivante dall’intelligenza artificiale. Molti sistemi di intelligenza artificiale comportano un rischio minimo, ma devono essere valutati”.

  • I sistemi di intelligenza artificiale che comportano livelli di rischio “inaccettabili” (manipolazione comportamentale, biometria in tempo reale e a distanza, punteggio sociale…) saranno proibiti
  • I sistemi di intelligenza artificiale ad alto rischio (relativi all’applicazione della legge, all’istruzione, all’immigrazione…) “saranno valutati prima di essere messi sul mercato e anche durante il loro ciclo di vita”
  • I sistemi di intelligenza artificiale a basso rischio dovranno “rispettare requisiti minimi di trasparenza che consentano agli utenti di prendere decisioni informate.”