EU AI Act Un passo promettente o una scommessa rischiosa per il futuro dell’IA?

EU AI Act Promising or risky for the future of AI?

La legge sull’IA dell’UE sembra avere una grande falla. E ciò potrebbe significare una massiccia elusione delle normative sull’IA da parte dei giganti della tecnologia come OpenAI

Immagine: Bing Image Creator + Canva

I. Il primo salto nella regolamentazione dell’IA è qui

L’UE ha completato la stesura della sua legge sull’IA il 14 giugno di quest’anno.

E questo è un primo passo verso un’IA sicura e migliore. Come forse sapete, la legge sull’IA dell’UE è la prima legge di regolamentazione internazionale sull’Intelligenza Artificiale. Questa legge stabilisce regole e normative per le aziende (chiamate provider) per costruire sistemi di IA etici. I paesi europei, così come le principali aziende di IA come OpenAI, hanno presentato le loro proposte al parlamento.

L’Artificial Intelligence Act (AIA per breve) invita le aziende a seguire determinati requisiti durante il lavoro con i sistemi di IA. Ciò include il fare KYC dei provider, la divulgazione dell’architettura del sistema, i dettagli sulla privacy dei dati, ecc. Questa legge è stata il risultato di tre anni di intensa formulazione delle politiche, sebbene gli sforzi congiunti dell’UE in questo settore risalgano al 2017. Tuttavia, è stato solo di recente che è diventata evidente la necessità di regole ed etica sull’IA.

Le persone si sono rese conto del potere dell’arte dell’IA – con strumenti come ChatGPT e Dalle – che funzionavano in modo terrificante veloce, trasformando tutti in artisti e poeti da un giorno all’altro.

Le persone si sono meravigliate della capacità degli strumenti di IA. E successivamente sono diventate preoccupate per la loro sicurezza. È emerso che queste macchine potevano generare convincenti disinformazioni. La questione della plagio e dei problemi di copyright causati da questi strumenti è un dibattito infinito, in particolare sul fronte creativo.

Mentre da un lato, le persone vendevano corsi su suggerimenti per l’IA e “i migliori X strumenti di IA che devi conoscere prima che il mondo finisca…”, dall’altro lato c’era preoccupazione per l’IA ad alta velocità. Queste preoccupazioni sono state sollevate principalmente dagli esperti di IA. E si preoccupavano della sicurezza derivante da questi strumenti basati su algoritmi.

Fonte: https://www.metaculus.com/questions/8787/passing-of-the-ai-act/

Quando l’UE approverà la legge sull’IA?

La tua sottomissione è ora un abbozzo. Una volta che sarà pronto, invia il tuo abbozzo per la revisione del nostro team di community…

www.metaculus.com

Mentre scrivo questo, la legislazione dell’AIA è ancora in corso. La sua attuazione avverrà probabilmente entro il 2023 o il 2024. Inoltre, ci sarà un periodo di grazia di potenzialmente 24-36 mesi prima che la legge entri in vigore. Presumendo che l’AI Act venga redatto entro la fine dell’anno, non entrerà pienamente in azione fino alla fine dei prossimi due-tre anni.

Ora che la legge è ancora in fase di realizzazione, questo è un ottimo momento per analizzarla e vedere se questa legge può davvero domare questi maghi dell’IA, o se ci sono delle fallacie ombrose sotto il tavolo.

II. Maghi e il loro incantesimo

Le aziende che scommettono sull’IA stanno guidando il futuro e la fortuna allo stesso tempo. Il mercato globale dell’IA generativa vale oltre 13 miliardi di dollari. E ogni volta che si cerca di regolamentare un’industria di tale portata – che supererà i 22 miliardi di dollari entro il 2025 – le regolamentazioni diventano spaventose. Senza considerare che c’è sempre una falla in un progetto di questa portata.

E così è il caso dell’AIA.

L’AIA è importante e nei prossimi anni altre unioni cercheranno di costruire le proprie leggi su questa base, rendendole coerenti a livello globale. Aziende come OpenAI e Anthropic, i grandi giganti della tecnologia nel settore dell’IA, hanno entrambi corteggiato un organo di regolamentazione universale che emana leggi sull’IA.

Pur mantenendo la sicurezza sociale in mente, l’AI Act ha creato regolamentazioni per sostenere le aziende sotto le regole, permettendo loro di prosperare senza aumentare la concorrenza. Questo perché l’AI Act richiede alle aziende di condividere le informazioni del loro sistema con altri fornitori.

L’accountability è una delle principali problematiche nell’uso di queste bestie algoritmiche. Ciò ha creato un vuoto – chi sarà responsabile se questi maghi impazziscono.

L’AIA ha affrontato questo vuoto chiarificando i ruoli e le responsabilità dei fornitori di AI.

Con la crescita delle startup di AI quest'anno, la questione delle risorse computazionali, così come la quantità di dati di addestramento, è cruciale da affrontare. L'AI Act mira a porre un limite all'addestramento di nuovi modelli, garantendo lo sviluppo sicuro di questi sistemi di AI. Fonte: Servilla et al. (2022)

Con la crescita delle startup di AI quest’anno, la questione delle risorse computazionali, così come la quantità di dati di addestramento, è cruciale da affrontare. L’AI Act mira a porre un limite all’addestramento di nuovi modelli, garantendo lo sviluppo sicuro di questi sistemi di AI.

L’AIA tiene conto degli interessi sia dei fornitori (aziende di AI) che dei consumatori (gli utenti). Le innovazioni nell’AI devono continuare, affrontando al contempo i rischi associati. Parte dell’assicurare la sicurezza dell’AI è svilupparla in modo tale che diventi più sicura. È necessario addestrare una bestia per farla socializzare.

L’AIA si è assicurata che la regolamentazione non soffochi le grandi corporation o ponga un ostacolo allo sviluppo tecnologico futuro.

Ovviamente, la bozza dell’AI non può soddisfare tutte le parti. Questo è stato il caso, ovviamente, per le grandi aziende.

Le grandi corporation sostengono che l’UE stia sovra-regolamentando.

Recentemente, diversi dirigenti delle grandi aziende tecnologiche, oltre 150 per essere precisi, hanno firmato una lettera aperta all’UE sostenendo che l’AIA stia sovra-regolamentando l’AI. Questa lettera includeva le firme di importanti leader tecnologici, come i CEO di Renault e Siemens, il direttore esecutivo di Heineken, il capo scienziato dell’AI di Meta, eccetera.

Inoltre, il potente CEO di OpenAI, Sam Altmann, ha espresso la sua preoccupazione affermando che dovrà lasciare l’UE se le regole saranno troppo rigide. In base all’AIA, sia ChatGPT che il suo grande modello linguistico GPT-4 potrebbero essere etichettati come “a rischio elevato”. Ti mostrerò cosa significa “a rischio elevato” tra poco.

Inoltre, secondo Time, il CEO di OpenAI ha detto: “Se possiamo conformarci, lo faremo, e se non possiamo, smetteremo di operare… Ci proveremo. Ma ci sono limiti tecnici a ciò che è possibile.”

In un altro articolo di Time, si è riportato che OpenAI avrebbe cercato di fare pressioni sull’UE per far redigere le regole a suo favore. E sembra che i loro sforzi abbiano avuto successo in qualche modo. Dall’altra parte, un post di Reuters ha riportato che i legislatori dell’UE stavano effettivamente rendendo le regole sull’AI più rigorose.

Dato che l’AI Act è di per sé esaustivo, mi sono riferito all’analisi effettuata da un’organizzazione non profit chiamata Future Life Institute (FLI). Se ricordi, questa è la stessa organizzazione che ha emesso una lettera aperta chiedendo una pausa di 6 mesi nello sviluppo dell’AI, che è stata firmata da 1.125 leader tecnologici ed esperti di AI.

L’altro giorno ho visto che FLI ha la sua newsletter settimanale sull’AI Act dell’UE su Substack mantenuta da Risto Uuk, dove pubblica i punti salienti, gli eventi principali e l’analisi di FLI dell’atto dell’UE.

FLI ha fatto un buon lavoro nell’analisi dell’AIA. FLI ha condotto ricerche nel campo dell’etica dell’AI. FLI ha sviluppato il principio Asilomar AI, che è un insieme di 23 linee guida per lo sviluppo sicuro dell’Intelligenza Artificiale.

Ciao lettori! Spero che stiate apprezzando questo articolo. Questo articolo fa parte della mia newsletter Creative Block – una newsletter settimanale su Tecnologia e AI.

Se vuoi leggere altri contenuti come questo, visita Creative Block

Mentre leggevo una delle loro analisi, ho visto che l’AI Act ha alcuni cambiamenti chiave da apportare. Ha delle falle, piuttosto gravi in realtà, che potrebbero permettere ai giocatori disonesti di abusare di queste bestie di AI non regolamentate.

E allora quali sono queste falle?

III. Sistemi ad alto rischio e eccezioni per evitare

L’AIA è basata su un approccio basato sul rischio.

In base a questo approccio, alcuni utilizzi di intelligenza artificiale – considerati dannosi – sono vietati; alcuni utilizzi devono seguire regole rigorose; e alcuni utilizzi di intelligenza artificiale non dannosi sfuggono all’AIA.

Il secondo, ossia quei sistemi che sono soggetti ai requisiti rigorosi, rientra nella categoria dei sistemi ad “alto rischio”.

Come viene categorizzato il rischio dell'intelligenza artificiale secondo l'UE. Fonte: https://www.ey.com/en_ch/ai/eu-draft-regulation-on-artificial-intelligence

Secondo l’UE, i sistemi ad “alto rischio” sono quei sistemi che avranno un impatto negativo su di te e sui tuoi diritti fondamentali. L’UE classifica i sistemi ad “alto rischio” in due categorie:

1) Prodotti di intelligenza artificiale che rientrano nella legislazione europea sulla sicurezza dei prodotti, ossia i prodotti che sono stati vietati o richiamati dall’UE, o

2) Sistemi di intelligenza artificiale che rientrano in una delle seguenti otto aree specifiche:

  • Identificazione biometrica e categorizzazione di persone naturali
  • Gestione e gestione delle infrastrutture critiche
  • Istruzione e formazione professionale
  • Occupazione, gestione dei lavoratori e accesso all’autonomia professionale
  • Accesso e fruizione di servizi essenziali privati e servizi pubblici e benefici
  • Forze dell’ordine
  • Gestione delle migrazioni, asilo e controllo delle frontiere
  • Assistenza nell’interpretazione legale e nell’applicazione della legge.

Se un sistema di intelligenza artificiale rientra in uno dei punti elencati sopra, viene etichettato come ad alto rischio. E sì, se te lo stavi chiedendo, ChatGPT (specialmente la versione GPT4) sembra rientrare in tutte queste categorie.

E questo ha portato OpenAI a preoccuparsi dell’AI Act. Gli presunti sforzi di lobbying da parte di OpenAI potrebbero essere una delle ragioni per questo. Evidentemente, molte delle sue applicazioni – principalmente ChatGPT e il loro modello GPT4 – verrebbero classificate come ad alto rischio.

Prendiamo questo caso e chiediamoci: ChatGPT e GPT4 possono essere considerati ad alto rischio? E prima di rispondere, lascia che io inquadr il quesito nel modo di OpenAI: Questi strumenti sono intrinsecamente ad alto rischio?

La risposta sembra chiara da quanto abbiamo osservato nei mesi scorsi. Gli strumenti di intelligenza artificiale come ChatGPT sono ad alto rischio.

Ci sono stati casi in cui questi strumenti hanno comportato rischi significativi. La disinformazione generata da questi strumenti è ancora una cosa reale, creano allucinazioni e sparano bugie convincenti, i leader apparentemente mettono fine alle guerre grazie ai deepfake, diffondono i tuoi dati su Internet, innumerevoli casi di violazioni dei diritti di proprietà intellettuale … e molti altri. La lista continua.

Ho cercato di essere imparziale e ho mostrato i vari scenari di questi rischi. Tuttavia, non sono cieco al fatto che queste macchine si sono rivelate dannose a livello individuale.

Non vorrai svegliarti con questo nel tuo News Feed, vero? (fonte: Wion su msn.com)

Come puoi vedere, potrei continuare all’infinito. Quando pubblico questo post, si verificherà un altro incidente in cui le persone avranno problemi. Qualcuno là fuori nel vasto mondo diventa vittima di questi incantesimi del mago dell’intelligenza artificiale. Questo mostra i limiti del danno che queste macchine algoritmiche possono causare. Questi limiti sono virtualmente illimitati.

FLI ha notato che sistemi come ChatGPT possono evitare l’etichetta di alto rischio, grazie all’articolo 4c dell’AIA.

IV. Articolo 4c – La clausola un4seen dell’AIA

L’articolo 4c è l’eccezione dell’articolo 4b dell’AIA.

L’articolo 4b stabilisce le regole per lo sviluppo dei sistemi AI e per i fornitori di tali sistemi. Secondo questo articolo, se si intende creare un sistema ad alto rischio, è necessario fornire dettagli del proprio sistema ad altri fornitori come te.

Questo è sgradito alle aziende AI in quanto dovrebbero divulgare le informazioni sul proprio sistema. Ciò porterebbe anche a una forte concorrenza sul mercato.

Classificazione dell'alto rischio. Fonte: https://ai-regulation.com/guidance-on-high-risk-ai-systems-under-eu-ai-act/

L’eccezione a questa regola si presenta nella definizione dell’articolo 4c. Secondo questo, tu (come fornitore) NON dovresti divulgare informazioni sul tuo sistema SE il tuo sistema non è classificato come ‘alto rischio’. Ciò potrebbe essere fatto affermando di aver rimosso tutti gli elementi ad alto rischio dal proprio sistema.

Questa disposizione consente ai fornitori di evitare le proprie responsabilità. Se riescono a convincere che i loro sistemi non sono ad alto rischio e che non saranno utilizzati impropriamente, non dovranno divulgare il proprio sistema AI.

La divulgazione di come viene realizzato un sistema AI è fondamentale per garantire che i fornitori lo sviluppino in modo etico e sicuro.

Questo diventa il varco di evasione delle responsabilità per i grandi player del mercato AI. Gli esperti di AI e il FLI vogliono che questo articolo venga eliminato, poiché potrebbe consentire ai giganti della tecnologia di evitare le proprie obbligazioni e un gioco leale.

Questo potrebbe essere una grande falla, ma non considero questo come un grande difetto dell’AIA. Ciò che serve ora è una migliore revisione di questo articolo o, meglio ancora, eliminare del tutto questa eccezione.

La buona notizia è che l’AIA è ancora in fase di bozza. Il FLI ha notato questa falla e l’ha inclusa nella sua analisi.

Un aspetto notevole dell’AIA, nonostante le critiche delle grandi aziende preoccupate per l’eccesso di regolamentazione, è che l’atto mira a garantire che le organizzazioni europee possano rimanere competitive. Soprattutto rispetto ad altri grandi player in Paesi come gli Stati Uniti e la Cina.

Ad esempio, OpenAI e Anthropic sono basate negli Stati Uniti, mentre Baidu Ernie è basata in Cina. Tutte loro sono figure di spicco nella corsa all’AI (l’ultima meno). Quindi, dal punto di vista della concorrenza, le aziende europee hanno ancora molta strada da fare per essere al pari della concorrenza.

V. Il futuro veloce, con un pizzico di realtà

Andando dalla tendenza, con un pizzico di ottimismo, l’AI sicuramente plasmerà la tecnologia del futuro. L’AI è già utilizzata in vari settori in una forma o nell’altra. Che si tratti di utilizzare l’AI per risolvere strutture proteiche, utilizzare simulazioni AI in varie parti dell’ingegneria, modernizzare l’istruzione mediante l’AI o persino utilizzare l’AI per lavarsi i denti o per altri usi bizzarri, l’AI diventerà la nuova normalità, proprio come gli smartphone.

Con così tanta dipendenza sotto un’unica entità, la sicurezza e l’etica sono anche caratteristiche importanti che dovrebbero essere affrontate il prima possibile. Potrebbe diventare la nuova normalità uno stile di vita alimentato dall’AI? Probabilmente. Questo è oggetto di dibattito.

È importante che le grandi aziende affrontino questi problemi e svolgano i propri ruoli con impegno congiunto. E sì, i giganti della tecnologia hanno una responsabilità perché sono loro a guidare il mondo verso la nuova era dell’AI.

Affrontare le falle e modificarle durante le prime fasi della bozza è meglio che perdere tempo a correggerle in seguito.

Tuttavia, non tutti i leader tecnologici mostrano arroganza, né il concetto di etica dell’AI è puramente immaginario. Certo, non lo è. Quasi tutte le grandi aziende AI hanno la propria carta della sicurezza. Ma l’industria dell’AI è in gran parte non regolamentata al momento. I modelli di AI portano il rischio intrinseco che uno non può prevedere. Gli sforzi regolatori sono arrivati troppo tardi, mentre l’AI ha prosperato più che mai. Ma meglio tardi che mai, e l’UE, per fortuna, ha compiuto il primo passo importante per mantenere la misura,

Anche se potrebbe sembrare un piccolo passo per un’unione di 28 paesi, rappresenta un significativo balzo per il futuro delle persone online in questa nuova era dell’IA.

Se sei interessato a stare al passo con gli ultimi sviluppi in materia di tecnologia e intelligenza artificiale, non vorrai perderti la mia newsletter settimanale gratuita su Substack, in cui condivido approfondimenti, notizie e analisi su tutto ciò che riguarda la tecnologia, la scienza e l’IA.

Creative Block | Aditya Anil | Substack

La newsletter settimanale sull’IA, la tecnologia e la scienza che conta per te. Clicca per leggere Creative Block, di Aditya…

creativeblock.substack.com