Perché dovresti interessarti all’EU AI Act oggi
Perché interessarsi all'EU AI Act oggi
La maggior parte di noi che lavora nell’industria del Machine Learning e dell’Intelligenza Artificiale vedrà un titolo su una nuova regolamentazione e lo tralascerà. Le nuove regolamentazioni rientrano nella categoria del “Legalese”, un termine che descrive qualsiasi regolamentazione, contratto o altro documento legale come scritto in una lingua straniera. Gli scienziati dei dati di solito non dedicano tempo a capire il legalese, così come la maggior parte dei non scienziati dei dati non ha idea di cosa significhi ottimizzare un Large-Language-Model (LLM). Quindi, quando esce una nuova regola, preferiamo lasciare che il team legale se ne occupi e assumiamo che ci faranno sapere se c’è qualcosa di rilevante.
Questo è in parte vero, il tuo team legale probabilmente si occuperà della questione in qualche momento, ma quando lo faranno, avrai accumulato un debito tecnico enorme, che potrebbe richiederti mesi per risolvere. Invece, una comprensione generale di ciò che arriva dai regolatori ti aiuterà molto a ridurre il debito tecnico e a lavorare in modo da diventare rapidamente conformi una volta che le regole entrano in vigore. Oppure, evitare di costruire capacità problematiche fin dal principio. Ecco esattamente perché ho scritto questo post!

L’Atto sull’Intelligenza Artificiale dell’Unione Europea
L’Atto sull’Intelligenza Artificiale dell’UE è una proposta adottata dalla Commissione Europea nel 2021 – la scorsa settimana è stata approvata dal Parlamento Europeo e si prevede che la versione finale passerà in seguito nel 2023.
La regola si applicherà a chiunque distribuisca sistemi di intelligenza artificiale in uno qualsiasi dei 27 Stati membri dell’Unione Europea.
- Ricercatori di Stanford esplorano l’emergere di abilità linguistiche semplici negli agenti di apprendimento meta-rinforzato senza supervisione diretta Svelando la svolta in un ambiente multi-task personalizzato
- Adatta il tuo LLM in una singola GPU con Gradient Checkpointing, LoRA e Quantizzazione.
- AudioCraft Meta’s Generative AI per Audio e Musica
Motivi e obiettivi della proposta
La Commissione Europea sottolinea giustamente che l’IA può portare enormi benefici a molte delle sfide difficili che l’Unione Europea e il mondo affrontano, come il clima, la salute e la mobilità. Tuttavia, la tecnologia comporta anche certi rischi. Considera un futuro non troppo lontano in cui i deepfake sono così diffusi che il pubblico non è in grado di distinguere tra ciò che è reale e ciò che è falso. Le implicazioni di questa situazione sono di vasta portata, influenzando non solo le preoccupazioni sociali e sulla privacy degli individui, ma rappresentando anche una minaccia per la stessa struttura dei sistemi democratici.
La commissione si impegna per un approccio equilibrato che gestisca efficacemente i rischi pur mantenendo e promuovendo l’UE come leader nello sviluppo di tecnologie IA positive.
Obiettivi dell’Atto sull’IA dell’UE:
- Garantire la sicurezza e rispettare le leggi esistenti – come il GDPR, i diritti d’autore e altre leggi sulla sicurezza
- Garantire la certezza giuridica – l’incertezza sulle future regolamentazioni può scoraggiare gli investitori e gli imprenditori
- Rafforzare la governance e l’applicazione delle leggi sui diritti fondamentali e la sicurezza dei sistemi di IA
- Creare un mercato unico per l’IA in tutta l’UE – evitare una situazione in cui ciascuno dei 27 Stati membri ha regole e regolamenti diversi per l’IA
La proposta cerca di presentare un quadro completo e adattabile al futuro. Include meccanismi flessibili che consentono di adattarsi dinamicamente all’evoluzione della tecnologia.
Categorie di rischio dell’IA
La regola definisce 4 categorie basate sul rischio. L’approccio basato sul rischio significa che i diversi modelli vengono trattati in modo diverso, a differenza di un approccio generale o specifico. Questo è considerato una forma di regolamentazione relativamente orientata al futuro poiché non è prescrittivo per strumenti specifici e generalmente permette l’innovazione.
Capire in quale categoria si inserisce il tuo modello/prodotto è fondamentale per comprendere i requisiti con cui dovrai conformarti.
Categoria 1: Rischio inaccettabile
Questi sono sistemi di IA che:
- Utilizzano tecniche subliminali per distorcere il comportamento di una persona in modo tale da causare danni fisici o psicologici;
- Sfruttano le vulnerabilità di un gruppo specifico di persone a causa dell’età, della disabilità fisica o mentale, per distorcere materialmente il comportamento di una persona in modo tale da causare danni fisici o psicologici;
- Effettuano un punteggio sociale che può portare a un trattamento sfavorevole di individui o gruppi – ciò potrebbe significare un modello di IA che influenza il punteggio di credito o i processi di assunzione in base a un potenziale profilo di razza, genere, religione, ecc.
- Utilizzano l’identificazione biometrica remota in tempo reale in spazi pubblici accessibili a fini di applicazione della legge, ad eccezione di specifiche situazioni estreme.
Restrizioni: Questi sistemi rappresentano un rischio inaccettabile e sono vietati.
Categoria 2: Alto rischio
I sistemi di intelligenza artificiale (AI) sono definiti ad alto rischio se sono uno dei seguenti:
- Componenti di sicurezza di prodotti regolamentati. Ad esempio, prodotti che richiedono il marchio CE (macchinari, giocattoli, apparecchiature radio), aeromobili, veicoli a motore, dispositivi medici, DPI e altro.
- Certain AI Systems per il bio-riconoscimento, la gestione delle infrastrutture critiche, l’istruzione e la formazione, l’applicazione della legge, la migrazione, l’asilo e il controllo delle frontiere, i processi giudiziari e democratici e altro ancora.
Restrizioni e requisiti:
- Richiede un sistema di gestione del rischio con test specifici per identificare le misure di gestione del rischio
- Dati e governance dei dati: i set di dati devono essere soggetti a adeguate pratiche di governance e gestione dei dati riguardanti le scelte di progettazione, la raccolta dei dati, l’annotazione dei dati, l’elaborazione, le proprietà statistiche e i bias e altro ancora.
- Documentazione tecnica dettagliata e aggiornata
- Deve includere capacità di registrazione automatica durante l’utilizzo del sistema
- Requisiti di trasparenza
- Livelli di precisione appropriati e dichiarati
- Registrazione del sistema di intelligenza artificiale in un database dell’UE per i sistemi di intelligenza artificiale ad alto rischio
- Valutazione di conformità di terze parti + marchio CE
Categoria 3: Sistemi di intelligenza artificiale con obblighi di trasparenza
Questi sono sistemi di intelligenza artificiale che interagiscono con gli esseri umani, rilevano emozioni, determinano l’associazione con categorie (sociali) basate su dati biometrici o generano o manipolano contenuti (deep fake).
Restrizioni: Obblighi di informazione/trasparenza come divulgazioni agli utenti finali.
Categoria 4: Basso o minimo rischio
Questi sono tutti gli altri sistemi di intelligenza artificiale
Restrizioni: Nessuna.
Esempi di sistemi di intelligenza artificiale
Esempio 1:
Un’azienda agricola utilizza un modello di visione artificiale per segmentare e identificare le condizioni dei pomodori appena raccolti prima di spedirli alla distribuzione.
Questo modello di intelligenza artificiale svolge un compito di controllo di qualità e non interagisce con gli esseri umani. Pertanto, il modello è considerato a basso rischio o rischio minimo e non ha requisiti normativi.
Esempio 2:
Un’azienda ferroviaria nazionale ha deciso di utilizzare l’intelligenza artificiale per monitorare e verificare che le rotaie siano prive di detriti o ostacoli. Essendo un componente di sicurezza importante delle operazioni ferroviarie e considerando che i prodotti relativi alle ferrovie sono già regolamentati nell’UE, questo sistema di intelligenza artificiale rientrerebbe nella categoria ad alto rischio e dovrebbe essere conforme ai requisiti sopra indicati.
Esempio 3:
Al fine di generare più traffico virale su un social network, viene utilizzato un Large-Language Model (LLM) come chat-bot che incoraggia i minori a intraprendere comportamenti pericolosi sotto forma di sfide o giochi divertenti o cool. Questo tipo di utilizzo di un sistema di intelligenza artificiale è contrario ai valori dell’UE ed è strettamente vietato.
Esempio 4:
Un programma televisivo satirico utilizza deep fake di politici e celebrità come parte dei suoi contenuti umoristici. Questo tipo di contenuto dovrebbe includere una dichiarazione che il contenuto è generato tramite mezzi automatizzati e non è reale.
Supporto all’innovazione
La Commissione Europea comprende che la conformità alla regolamentazione comporta un costo che talvolta può ostacolare l’innovazione. Per affrontare questo problema, la regola incoraggia gli Stati membri dell’UE a istituire ambienti di test o sandbox in cui gli sviluppatori di sistemi di intelligenza artificiale possono testare i loro sistemi in modo controllato. I dettagli completi su come sarà strutturato non sono ancora stati pubblicati, ma probabilmente si tratterà di sandbox regolamentari (in opposizione a quelle di infrastruttura). Una sandbox regolamentare concederebbe a determinate aziende esenzioni da parte della regolamentazione sotto la supervisione dei regolatori per un periodo di tempo limitato.
La Commissione Europea terrà anche in considerazione le esigenze e le limitazioni delle PMI e delle startup nella definizione delle tariffe relative alle valutazioni di conformità.
Cosa puoi fare oggi
Inizia determinando in quale categoria rientra il tuo sistema di intelligenza artificiale in modo da comprendere il livello di controllo che puoi aspettarti. Ci sono alcuni dettagli che devono essere considerati, quindi coinvolgi il tuo team legale (e non assumere che siano già aggiornati sulle modifiche). Il tuo team legale può aiutarti a comprendere meglio i requisiti da considerare per il tuo specifico sistema di intelligenza artificiale.
Assicurati di adottare le migliori pratiche e standard nello sviluppo di machine learning. Questi includono la gestione dei dati, del codice, delle annotazioni e delle versioni dei modelli, il tracciamento degli esperimenti e altro ancora. Le migliori pratiche ti aiuteranno a mantenere organizzati i tuoi progetti, a ridurre il debito tecnico e a essere più efficiente in modo da poterti concentrare sull’esperimentazione e sulla distribuzione di modelli più performanti.
Gestione e governance dei dati – le nuove regole richiedono che i set di dati abbiano adeguate proprietà statistiche in modo che rappresentino correttamente la popolazione degli utenti previsti e non siano distorti o discriminatori nei confronti di una certa popolazione. Ciò significa che per ogni modello o prodotto, gli specialisti di apprendimento automatico devono avere una buona comprensione dei dati utilizzati per addestrare, testare e convalidare il modello: tenere traccia della corretta genealogia dei dati è fondamentale e quasi impossibile da fare retroattivamente.
Una corretta gestione dei dati e una buona governance sono importanti per rimanere conformi alle normative UE esistenti (il regolamento sull’IA sottolinea l’importanza della conformità alle norme esistenti) come il GDPR e le norme sul copyright. Strumenti come il motore dati di DagsHub consentirebbero di includere metadati con informazioni sulle licenze di copyright o se determinati dati includono informazioni personali.
Conclusione
Il regolamento sull’IA dell’UE avrà un impatto su ogni individuo o azienda che intende offrire soluzioni e prodotti di intelligenza artificiale nell’Unione europea. Lo scopo generale della regolamentazione è positivo – mantenere la sicurezza delle persone. Sebbene siano necessarie alcune limitazioni e costi per conformarsi alla regola, la regola stessa è progettata per essere flessibile e consentire l’innovazione.
Comprendere la regolamentazione, coinvolgere il proprio team legale e gestire correttamente i dati e i progetti con le migliori pratiche e gli strumenti del settore sono fondamentali per essere preparati e ridurre il debito tecnico.
Poiché l’UE è la prima a pubblicare una regolamentazione importante sull’IA, ci si aspetta che simili quadri normativi siano introdotti anche in altri paesi.
Disclaimer: le informazioni fornite in questo post non sono intese come consulenza legale. Sono fornite esclusivamente a scopo informativo e non dovrebbero essere considerate come consulenza legale. Se hai bisogno di consulenza legale, consulta un professionista legale qualificato.