Accordo preliminare dell’UE sulla regolamentazione dell’intelligenza artificiale Implicazioni per ChatGPT

Intesa preliminare dell'UE sulla regolamentazione dell'intelligenza artificiale Implicazioni per ChatGPT

L’Unione Europea ha recentemente concluso un accordo preliminare che definisce le normative per il governo dei modelli avanzati di intelligenza artificiale, con particolare enfasi sul noto ChatGPT. Questo segna un significativo passo avanti verso l’istituzione della prima regolamentazione completa sull’intelligenza artificiale nel mondo.

Trasparenza per i Sistemi di Intelligenza Artificiale

Nel tentativo di migliorare la trasparenza, gli sviluppatori di sistemi di intelligenza artificiale ad uso generale, inclusivo del potente ChatGPT, devono attenersi a requisiti fondamentali. Questi includono l’implementazione di una politica di utilizzo accettabile, la manutenzione di informazioni aggiornate sulle metodologie di allenamento del modello e la fornitura di un dettagliato riassunto dei dati utilizzati durante l’allenamento. Inoltre, è obbligatorio rispettare la legge sul copyright.

Regole Aggiuntive per i Modelli che Comportano un “Rischio Sistemico”

I modelli identificati come comportanti un “rischio sistemico” affrontano regolamentazioni più rigorose. La determinazione di questo rischio dipende dalla quantità di potenza di calcolo utilizzata durante l’allenamento del modello. In particolare, ogni modello che supera le 10 trilioni di operazioni al secondo, con GPT-4 di OpenAI che automaticamente rientra in questa categoria. Il braccio esecutivo dell’UE ha l’autorità di designare altri modelli in base a vari criteri, come la dimensione dell’insieme di dati, gli utenti aziendali registrati e gli utenti finali.

Leggi anche: Notizia Scioccante: La Vulnerabilità di ChatGPT a una Violazione dei Dati

Codice di Condotta per i Modelli Altamente Capacitati

I modelli altamente capacitati, inclusi ChatGPT, sono tenuti ad adottare un codice di condotta mentre la Commissione Europea sviluppa controlli più completi e duraturi. La mancata conformità richiede la prova del rispetto dell’AI Act. In particolare, i modelli open-source, sebbene esentati da alcuni controlli, non sono al sicuro se ritenuti comportare un rischio sistemico.

Obblighi Rigorosi per i Modelli

I modelli inseriti nel quadro normativo devono segnalare il loro consumo energetico, essere sottoposti a test di red-teaming o avversariali, valutare e mitigare i potenziali rischi sistemici e segnalare eventuali incidenti. Inoltre, devono garantire l’implementazione di controlli di sicurezza informatica robusti, divulgare le informazioni utilizzate per il fine-tuning del modello e attenersi a standard più efficienti dal punto di vista energetico se sviluppati.

Processo di Approvazione e Preoccupazioni

Il Parlamento Europeo e i 27 stati membri dell’UE devono ancora approvare l’accordo provvisorio. Nel frattempo, sono state sollevate preoccupazioni da nazioni come la Francia e la Germania. Le apprensioni ruotano attorno al rischio percepiuto di soffocare i concorrenti europei nell’ambito dell’intelligenza artificiale, esemplificato da aziende come Mistral AI & Aleph Alpha. Francia e Germania si preoccupano specificamente che eccessive regolamentazioni possano ostacolare l’innovazione e la competitività nel panorama globale dell’intelligenza artificiale.

Leggi anche: Il Gigante Europeo dell’Intelligenza Artificiale MISTRAL AI ha Raccolto €385 Milioni

La Nostra Opinione

Nel navigare l’intricato terreno della regolamentazione dell’intelligenza artificiale, l’approccio dell’UE cerca un delicato equilibrio tra la promozione dell’innovazione e la salvaguardia dai potenziali rischi. Mentre la proposta attende l’approvazione, alcune nazioni sollevano preoccupazioni. Questo sottolinea le sfide nel trovare un consenso sull’entità della regolamentazione necessaria per governare il campo dell’intelligenza artificiale. Bilanciare le aspirazioni degli sviluppatori di intelligenza artificiale con l’imperativo della sicurezza sociale rimane un compito cruciale nel delineare il futuro della governance dell’intelligenza artificiale.