John Isaza, Esq., FAI sulla navigazione del panorama legale dell’AI e di ChatGPT.

John Isaza, legal expert, discusses AI and ChatGPT navigation.

Ringraziamo John Isaza, Esq., FAI, partner presso Rimon Law, il quale ha condiviso la sua storia e preziosi insights su vari aspetti, tra cui il paesaggio legale in evoluzione, il delicato equilibrio tra protezione della privacy e innovazione, e le distinte implicazioni legali che sorgono durante l’integrazione di strumenti di intelligenza artificiale.

John fornisce preziose prospettive sulle sfide e le considerazioni relative alle tecnologie di intelligenza artificiale come ChatGPT, enfatizzando l’importanza della governance dei dati, dell’uso etico e della conformità alle leggi sulla privacy. Inoltre, condivide la sua esperienza diretta nel lancio di Virgo, una soluzione software basata su cloud progettata per affrontare le specifiche esigenze di privacy e governance delle informazioni.

Esplorare l’Incrocio tra Legge, Privacy e Innovazione: Insights e Strategie

Cosa ha suscitato il tuo interesse per l’incrocio tra legge e privacy/governance delle informazioni?

Sono sempre stato attratto da territori inesplorati per mantenere le cose interessanti. Ho iniziato con la IG nel 2001 quando la gestione dei record e delle informazioni era principalmente incentrata sulle pratiche dei record cartacei. Ma ho avuto un capo che mi ha incoraggiato a concentrarmi sui record e sui dati elettronici, che vedeva come l’onda del futuro. Quindi ho deciso di diventare un esperto in tutte le cose elettroniche. Ciò mi ha portato a varie posizioni di leadership, tra cui quella di presidente del consiglio di certificazione professionale della governance delle informazioni. Questo consiglio era incaricato di supervisionare la transizione dell’industria della gestione dei record nella più ampia governance delle informazioni, che include la privacy tra le altre discipline chiave come la sicurezza dei dati, la scoperta elettronica, l’architettura dei sistemi, l’infrastruttura e la gestione tradizionale dei record.

Come ti tieni aggiornato con le ultime novità e cambiamenti nelle leggi e regolamentazioni sulla privacy?

Non è un compito facile. Le organizzazioni commerciali come ARMA, l’ABA e l’IAPP sono ottime risorse per tenere traccia delle ultime novità. In qualità di presidente del sottocomitato sull’analisi dei dati e la privacy dei consumatori dell’ABA, ho anche il vantaggio di attingere ai talenti e all’esperienza di vari professionisti legali che sono profondamente interessati all’argomento. Collaboriamo spesso su pubblicazioni e partecipazioni a conferenze che ci costringono a rimanere al passo con gli ultimi sviluppi.

Come affronti l’equilibrio tra protezione della privacy e possibilità di innovazione nell’era digitale?

Qui la mia esperienza come imprenditore è più utile. Dobbiamo bilanciare misure regolamentari rigorose e talvolta draconiane con le realtà di mantenere le luci accese e fare profitto. Come consulente legale, il mio compito è quello di indicare ai clienti le loro opzioni e le conseguenze associate a ciascuna opzione. In definitiva, per i clienti, la questione della conformità alla privacy si riduce a una decisione basata sul rischio, ad esempio se e quanto grande potrebbe essere il bersaglio sulla loro schiena in base alla loro offerta sul mercato.

Lancio di Virgo: Software su Cloud per Affrontare la Privacy e la Conformità Legale

Cosa ti ha spinto a lanciare il tuo software su cloud, Virgo, e come affronta le esigenze di privacy e governance delle informazioni?

Virgo informa i requisiti legali globali non solo per la conservazione dei record, ma anche per le regolamentazioni sulla privacy, il formato, la posizione, la disposizione e i requisiti di prescrizione. Questi regolamenti vengono quindi mappati sui record dell’organizzazione in quello che chiamiamo “grandi secchielli” che vengono assegnati a periodi di conservazione specificati informati dai regolamenti mappati che si applicano a un determinato secchio, oltre alle considerazioni delle migliori pratiche.

Nel complesso, Virgo gestisce il calendario di conservazione dei record dell’organizzazione, che è la prima linea di difesa non solo per la scoperta elettronica, ma anche per giustificare la conservazione di fronte alle richieste di privacy di cancellazione o al mandato generale di privacy di smaltire quando non più necessario.

Ho co-fondato Virgo quando è diventato troppo complicato gestire le centinaia di migliaia di regolamenti in questo ambito cercando di mapparli sui record di ciascuna organizzazione. Curiosamente, siamo riusciti a rimanere competitivi contro i grandi studi legali globali come Baker & McKenzie sfruttando gli strumenti di traduzione che erano i precursori degli strumenti di intelligenza artificiale moderni. La nostra ricerca non era solo migliore, ma a una frazione del prezzo che un enorme studio legale potrebbe addebitare a un cliente.

La privacy e la protezione dei dati sono diventati sempre più importanti con l’adesione di grandi aziende al nostro software come Boeing, Microsoft o NASA. Ognuna di esse ha presentato rigorosi requisiti di conformità alla sicurezza dei dati che ci hanno costretto ad adottare gli standard di sicurezza più rigidi e ciò ha reso più facile vendere il software a livello generale. I primi pochi sono stati estremamente dolorosi, ma è diventato molto più facile dopo. Una volta che si è conformi ai requisiti di alta qualità, diventa molto più facile navigare nei requisiti locali o regionali.

Il panorama legale sta già prendendo forma, guidato dall’Unione Europea con la sua proposta di AI Act. L’AI Act delinea un buon quadro normativo di partenza che prefigura dove altri paesi potrebbero andare successivamente per cercare di sfruttare e mettere le redini sull’uso dell’AI. La realtà è che i fornitori di AI dovranno abituarsi a navigare in possibili mandati regolatori contrastanti, il che porterà a un approccio basato sul rischio simile a quello che ho appena descritto per la conformità alla privacy.

Innanzitutto, distinguerei tra strumenti AI pubblici e privati. Gli strumenti AI pubblici (come ChatGPT, Bard di Google, Bing di Microsoft o Dall-E) rappresentano le sfide più grandi per quanto riguarda l’integrità dei dati, poiché i dati di esempio potrebbero essere stati estratti da dati non verificati raccolti nel corso degli anni dall’Internet pubblico. Ciò porta a preoccupazioni come non solo la validità dei risultati, ma anche se presenta questioni di responsabilità legale per il copyright, il marchio e altro. Gli strumenti AI pubblici presentano anche gravi sfide di riservatezza che le organizzazioni devono affrontare subito tramite politiche e formazione per impedire ai dipendenti di inserire informazioni private o riservate negli strumenti AI pubblici che essenzialmente inglobano tutti i dati inseriti e che possono essere visualizzati da chiunque nel mondo.

Le sfide per gli strumenti AI privati ​​risiedono principalmente nell’uso di set di dati di addestramento puliti e precisi in modo da evitare il vecchio dilemma “spazzatura dentro, spazzatura fuori”.

In entrambi i casi, gli strumenti devono essere testati dagli esseri umani per verificare eventuali pregiudizi che potrebbero portare a diffamazione o discriminazione da parte dell’algoritmo.

Attualmente, ci sono pochi quadri regolamentari, oltre all’AI Act dell’UE, che sta ancora attraversando il processo di approvazione. New York City ha anche una legge in vigore, ma come potete immaginare, molto altro deve ancora arrivare a livello statale e persino federale negli Stati Uniti.

Per il momento, presterei molta attenzione all’AI Act dell’UE, che come ho già menzionato sembra avere un buon quadro di partenza per aiutare almeno a stabilire le priorità per le quali gli usi dell’AI sono considerati altamente sensibili e quindi soggetti a una maggiore attenzione.

Semplicemente guardando all’AI Act dell’UE, si possono rapidamente discernere gli utilizzi che avranno la scrutinio più stretto. Ad esempio, le applicazioni del sistema AI a “alto rischio” includono le infrastrutture critiche che potrebbero mettere a rischio la vita o la salute di un cittadino, l’accesso di una persona all’istruzione o al percorso professionale che potrebbe influire sulla formazione educativa o professionale, la chirurgia assistita da robot, la selezione del personale, i punteggi di credito, la valutazione delle prove penali, le determinazioni di immigrazione, asilo o controllo delle frontiere e l’applicazione della legge a un determinato insieme di fatti.

L’AI Act enumera anche esempi di “rischio limitato” e “rischio minimo”, oltre a sistemi di “rischio inaccettabile” che sarebbero vietati, come quelli che sfrutterebbero il comportamento umano. Il diavolo sta nei dettagli quando si tratta di applicazione, ma come ho già detto, questo è l’inizio di un quadro per l’applicazione normativa e quindi di orientamento.

In termini di governance dei dati, quali sono le migliori pratiche che consigli per le organizzazioni che utilizzano tecnologie AI per garantire la conformità alle leggi e ai regolamenti sulla privacy dei dati?

Ecco una checklist di ciò che consiglio alle organizzazioni:

  • Tenere traccia delle leggi internazionali volte a porre dei controlli sull’uso dell’AI
  • Rimanere vigili per gli errori nei dati e l’uso di proprietà intellettuale protetta, in particolare immagini e audiovisivi
  • Includere negli eventuali contratti di AI generativa obblighi di linguaggio anti-bias
  • Obbligare contrattualmente tutti i fornitori a non utilizzare l’AI senza il controllo umano dei fatti
  • Ottenere impegni e contratti con garanzie sulla legittimità dell’uso dei dati di formazione
  • Chi utilizza l’AI deve fare attenzione affinché l’output dell’AI non mostri dei bias per attivare le leggi sulla discriminazione
  • Usare l’AI Esplicabile (XAI) per comprendere le assunzioni
  • Prendere in considerazione l’uso dell’AI per le decisioni di impiego, la valutazione del credito, le risorse mediche, la detenzione in particolare
  • I modelli di AI generativa devono essere monitorati sia nella fase di formazione che nello sviluppo degli output

In termini di utilizzo interno, consiglio anche:

  • Valutare l’attuale utilizzo dell’AI all’interno della propria organizzazione
  • Determinare l’uso migliore e più alto dell’AI all’interno della propria organizzazione
  • Formazione per ricordare al personale e ai fornitori di non utilizzare i dati sensibili con strumenti di AI esterni/pubblici
  • Creare delle linee guida attraverso politiche sull’uso dell’AI e rivedere le politiche esistenti che potrebbero intersecarsi con l’AI
  • Rivedere i contratti dei fornitori che potrebbero comportare l’uso dell’AI
  • Valutare le modifiche ai prodotti o servizi o modelli di business che potrebbero beneficiare dell’uso dell’AI

Il miglior consiglio che posso dare qui è assicurarsi che ci sia una revisione umana di tutti gli input e gli output, soprattutto se l’output verrà utilizzato per funzioni critiche dell’organizzazione o per la pubblicazione al mondo esterno. Bisogna essere particolarmente attenti se gli algoritmi verranno utilizzati per prendere decisioni di assunzione, promozione, aumento di stipendio o di licenziamento. Allo stesso modo, la valutazione del credito, le valutazioni o altri utilizzi potenziali che potrebbero influire finanziariamente su una persona dovrebbero essere valutati con particolare cura.

Come possono le aziende garantire di utilizzare in modo etico e legale gli strumenti alimentati dall’AI come ChatGPT rispettando le leggi sulla privacy dell’utente e sulla protezione dei dati?

In questo ambito, come con tecnologie recenti come l’email, i social media, la messaggistica istantanea e i messaggi di testo, le organizzazioni devono mettere in atto delle linee guida attraverso politiche, procedure e formazione sul tema dell’uso dei dipendenti. In termini di sviluppo di applicazioni AI, bisogna anche implementare politiche, procedure e linee guida per garantire l’igiene dei dati a livello di input e la valutazione dei risultati a livello di output.

La risposta alla domanda 11 è un punto di partenza qui. Si noti anche che l’uso di ChatGPT è un esempio dell’uso di uno strumento pubblico, il che significa che tutti i dati inseriti in esso diventeranno pubblici. Pertanto, la maggiore preoccupazione legale o etica con l’uso di uno strumento AI pubblico è la potenziale perdita di riservatezza o segreti commerciali. Se uno strumento AI pubblico viene incorporato nell’attività commerciale, bisogna prestare attenzione alla protezione dei segreti commerciali e della riservatezza.

Guardando al futuro

Prevedo un diluvio di regolamentazioni in questo settore, quindi per il momento mantenersi aggiornati su ogni proposta di regolamentazione o linea guida emessa. Questo darà informazioni sulle aree calde, e se il tuo modello di business è destinato a essere preso di mira in base a ciò che viene regolamentato. In questo senso, prestare attenzione a ciò che agenzie federali come la Federal Trade Commission dicono o informano sull’argomento.