Regolamentazione giapponese sull’IA – Nessuna presunzione? O non fare niente?

Regolamentazione giapponese sull'IA - Senza presunzioni? O inazione?

Il Giappone ha grandi progetti per una migrazione digitale, sono pronti?

Premi il pulsante di battito se ti piace (Suggerimento: puoi tenerlo premuto per fornire fino a 50 battiti!)

Il pregiudizio è una delle considerazioni ricorrenti in tutte le giurisdizioni regolamentari rispetto a qualsiasi modello.

L’intelligenza artificiale generativa ha nuovamente acceso questa idea nel nostro quotidiano. La mia esperienza in merito fa sì che la conversazione si sposti rapidamente sull’impatto sugli individui che utilizzano o sono soggetti a decisioni prese da prodotti che utilizzano l’intelligenza artificiale. È un impatto sensato su cui focalizzarsi, con il “fattore fiducia” in primo piano.

Tuttavia, le sfide legate ai pregiudizi vanno ben oltre le applicazioni a livello di utente. Il nucleo del pregiudizio risiede nelle fondamenta dei dati su cui si basano i modelli. Non solo, si estende al nucleo stesso del linguaggio che utilizziamo quotidianamente per catturare dati e conoscenza. Trascurare tutto ciò comporta costi reali.

Questa settimana ho ripensato a una campagna di una grande banca del 2009.

La banca si prepara a lanciare un nuovo marchio per la banca privata

Notizie, analisi e commenti da Financial Times, la principale pubblicazione globale di business

www.ft.com

In sostanza, la campagna mirava a clienti ad alto patrimonio netto con un messaggio di “Nessun presupposto”. Nel mondo occidentale, la campagna aveva senso. “Nessun presupposto su come sarà gestito il tuo conto!” Tuttavia, quando è stata usata una traduzione di base nei mercati emergenti, la traduzione è stata “Non fare niente”.

Perché mi è venuto in mente questo? Sfide simili sono affrontate con modelli di intelligenza artificiale generativa che raramente sono stati visti su larga scala in altre applicazioni.

Ecco perché il Giappone si sta preparando per costruire il proprio ChatGPT

I ricercatori giapponesi sperano che un chatbot di intelligenza artificiale preciso, efficace e prodotto in Giappone possa contribuire ad accelerare la scienza e…

interestingengineering.com

I ricercatori in Giappone hanno annunciato le loro intenzioni di sviluppare i loro grandi modelli di linguaggio (LLM). In particolare, è stato identificato ChatGPT come attualmente inefficiente dal punto di vista dell’utente giapponese, in quanto “non riesce a comprendere le sfumature della cultura e della lingua giapponese” essendo stato addestrato principalmente su dati in lingua inglese.

Uno sviluppo interessante.

Una scoperta positiva per i ricercatori, ma ciò solleva interrogativi sul pensiero regolatorio giapponese riguardo alla governance dell’intelligenza artificiale nel suo complesso.

Fino ad ora, nei miei articoli ho parlato quasi esclusivamente di ambiti in cui si adotta un approccio “rigido” alla regolamentazione dell’intelligenza artificiale. Ciò include la registrazione pubblica dei modelli di intelligenza artificiale, valutazioni esplicite dei rischi dei modelli prima dell’uso sul mercato e il divieto esplicito di modelli di intelligenza artificiale in determinati casi d’uso (in particolare, sicurezza e immagini o dati personalmente identificabili).

Un processo di potenziamento contro un’ambiziosa regolamentazione dell’intelligenza artificiale: la soluzione in 3 fasi della ricerca di Oxford

Sei un proprietario di prodotti di intelligenza artificiale, un project manager, uno scienziato dei dati? Oxford Research ti ha identificato come un attore chiave…

pub.towardsai.net

D’altra parte, il Giappone ha per lo più promosso un approccio regolatorio “soft” o “agile”. Dopo aver vagliato il web, rilevo due cambiamenti legislativi espliciti apportati in risposta all’intelligenza artificiale generativa in particolare.

1) Il rilassamento delle leggi sul copyright per consentire agli sviluppatori di modelli di innovare senza timore di ritorsioni. I fan di Game of Thrones sanno che questo è un problema reale, con l’autore George RR Martin (e altri) che intraprende azioni legali contro Open AI (LINK)

2) L’emendamento della “Legge sulla sicurezza dei gas ad alta pressione” per consentire l’utilizzo della tecnologia, compresi l’IA e i droni, per effettuare ispezioni di sicurezza presso impianti di gas senza chiuderli per un periodo prolungato.

Il secondo punto è stato inizialmente sconcertante da leggere. Il Giappone è inoltre pronto a valutare e riscrivere sistematicamente il suo quadro normativo con un approccio fondamentalmente anti-analogico. Citando:

“Le normative analogiche sono regole previste da leggi o ordinanze che richiedono la partecipazione umana, come la conferma con gli occhi di una persona, procedure faccia a faccia o la presenza permanente di personale umano in un determinato sito. Tali normative sono considerate come un ostacolo alla digitalizzazione della società.”

Il governo si prepara ad abolire il 99% delle regole “analogiche” per il passaggio al digitale | The Asahi Shimbun: Breaking…

Il governo ha deciso il 27 ottobre di abolire circa il 99% delle normative analogiche che richiedono un intervento umano…

www.asahi.com

Con un mandato così ampio per diventare digitali, ci si potrebbe aspettare che si ponga grande attenzione alla governance dei dati, dei modelli e delle tecnologie. Rimane ancora un’incertezza riguardo all’IA, in particolare nel mettere per iscritto determinate questioni.

Alla base del pensiero dei decisori politici giapponesi sull’IA ci sono l’idea di Principi Sociali e Governance Agile.

Principi Sociali

1) Centrati sull’essere umano

2) Istruzione/alfabetizzazione

3) Protezione della privacy

4) Garanzia della sicurezza

5) Equa concorrenza

6) Equità, responsabilità e trasparenza; e

7) Innovazione

Questi sono considerati i principi fondamentali a cui “sviluppatori e operatori coinvolti nella ricerca e sviluppo dell’IA e nella sua implementazione sociale dovrebbero prestare attenzione”. Si aggiunge che “per promuovere una corretta e proattiva implementazione sociale dell’IA, è importante stabilire principi di base che ogni soggetto coinvolto dovrebbe tenere a mente”.

Governance Agile

Un approccio alla gestione dello sviluppo e del funzionamento dei modelli di IA che si conforma ai principi sociali di cui sopra. Il pensiero è esposto nel diagramma sottostante con molti esempi di domande e considerazioni:

– Fase di pianificazione e progettazione: Contesto

– Fase di pianificazione e progettazione: Progetto generale

– Fase di sviluppo: Dati

– Fase di sviluppo: Modello / Sistema

– Fase di funzionamento e monitoraggio

Gran parte delle domande campione e delle sfide per gli sviluppatori si sovrappongono all’atto sull’IA dell’UE, che indica una direzione molto prescrittiva per affrontare le sfide dell’IA. È incoraggiante vedere una coincidenza nei fondamenti della gestione del rischio.

La principale differenza sta nell’elemento di fiducia e nel tempo concesso alle entità giapponesi. Si dà per scontato, fino a un certo punto, che le aziende si attengano volontariamente ai principi e alle linee guida di governance al di fuori di alcune regole molto specifiche per l’industria.

La decisione su questo sembra prendere due forme: da un lato, c’è l’entusiasmo per consentire all’innovazione di sfruttare il maggior valore possibile; dall’altro lato, c’è una certa esitazione a “vincolare” con leggi precise finché non si avrà una migliore comprensione dell’intera implementazione.

Nessuna Presunzione? Oppure Niente Fare?

Grazie per aver letto! Se ti è piaciuto, lascia un applauso e approfondirò l’impatto dell’emanazione di leggi sul rischio, sui modelli e sui dati.

Se hai preoccupazioni su come ciò potrebbe influire sulla tua attività o se vuoi saperne di più, contattami!