Esperti opinioni sulla sviluppo di framework di intelligenza artificiale sicuri, affidabili e affidabili

Esperti opinione sullo sviluppo di framework di intelligenza artificiale sicuri, affidabili e affidabili

Autore: Dr. Charles Vardeman, Dr. Christ Sweet e Dr. Paul Brenner

In linea con il recente Decreto del Presidente Biden che enfatizza l’IA sicura, affidabile e affidabile, condividiamo le nostre lezioni apprese sull’IA affidabile (TAI) due anni nel corso dei nostri progetti di ricerca. Questa iniziativa di ricerca, visualizzata nella figura qui sotto, si concentra sulla operazionalizzazione dell’IA che soddisfa rigorosi standard etici e di performance. Si allinea ad una crescente tendenza del settore verso la trasparenza e la responsabilizzazione dei sistemi di IA, in particolare nelle aree sensibili come la sicurezza nazionale. Questo articolo riflette sul passaggio dall’ingegneria del software tradizionale alle approccio dell’IA in cui la fiducia è fondamentale.

 

Dimensioni TAI applicate al processo di apprendimento automatico e al ciclo di sviluppo dell’IA

 

 

Transizione dall’Ingegneria del Software all’Ingegneria dell’IA

 

Passare dall’ “Software 1.0 a 2.0 e le nozioni di 3.0” necessita di un’infrastruttura affidabile che non solo concettualizza ma applica praticamente la fiducia nell’IA. Anche un semplice insieme di componenti di apprendimento automatico come quello mostrato nella figura qui sotto, dimostra la significativa complessità che deve essere compresa per affrontare le preoccupazioni sulla fiducia a ogni livello. Il nostro sottoprogetto TAI Framework affronta questa esigenza offrendo un punto di integrazione per il software e le migliori pratiche dei prodotti di ricerca TAI. Framework come questi riducono le barriere all’implementazione di TAI. Automatizzando la configurazione, gli sviluppatori e i decisori possono concentrare i loro sforzi sull’innovazione e sulla strategia, anziché occuparsi delle complessità iniziali. Ciò garantisce che la fiducia non sia un’idea scontata ma un prerequisito, con ogni fase dalla gestione dei dati alla distribuzione del modello che si allinea in modo intrinseco con gli standard etici e operativi. Il risultato è un percorso semplificato per implementare sistemi di IA che non sono solo tecnologicamente avanzati ma anche eticamente corretti e affidabili per ambienti ad alto rischio. Il progetto TAI Framework esamina e sfrutta strumenti software e migliori pratiche esistenti che hanno le loro proprie comunità open source e sostenibili e che possono essere direttamente sfruttate all’interno degli ambienti operativi esistenti.

 

Esempio di componenti e exploit del framework di AI

 

 

GitOps e CI/CD

 

GitOps è diventato parte integrante dell’ingegneria dell’IA, specialmente nell’ambito del TAI. Rappresenta un’evoluzione nella gestione dei flussi di lavoro di sviluppo del software e delle operazioni, offrendo un approccio dichiarativo alla gestione dell’infrastruttura e del ciclo di vita dell’applicazione. Questa metodologia è fondamentale per garantire la qualità continua e incorporare la responsabilità etica nei sistemi di IA. Il progetto TAI Frameworks sfrutta GitOps come componente fondamentale per automatizzare e semplificare il flusso di sviluppo, dal codice alla distribuzione. Questo approccio garantisce che le migliori pratiche dell’ingegneria del software siano aderite automaticamente, consentendo un audit trail immutabile, un ambiente controllato dalla versione e funzionalità di rollback senza problemi. Semplifica i processi di distribuzione complessi. Inoltre, GitOps facilita l’integrazione di considerazioni etiche fornendo una struttura in cui i controlli etici possono essere automatizzati come parte del flusso CI/CD. L’adozione di CI/CD nello sviluppo dell’IA non riguarda solo il mantenimento della qualità del codice; si tratta di garantire che i sistemi di IA siano affidabili, sicuri e si comportino come previsto. TAI promuove protocolli di test automatizzati che affrontano le sfide uniche dell’IA, in particolare nell’era dell’IA generativa e dei sistemi basati su prompt. I test non si limitano più all’analisi statica del codice e ai test unitari. Si estende alla validazione dinamica dei comportamenti dell’IA, comprendendo gli output dei modelli generativi e l’efficacia dei prompt. Le suite di test automatizzate devono ora essere in grado di valutare non solo l’accuratezza delle risposte, ma anche la loro pertinenza e sicurezza.

 

Centrato sui dati e documentato

 

Nella ricerca di TAI, un approccio centrato sui dati è fondamentale, in quanto prioritizza la qualità e la chiarezza dei dati rispetto alle intricatezza degli algoritmi, garantendo fiducia e interpretabilità fin dalle fondamenta. All’interno di questo quadro, sono disponibili una serie di strumenti per mantenere l’integrità e la tracciabilità dei dati. dvc (controllo delle versioni dei dati) è particolarmente apprezzato per la sua compatibilità con il framework GitOps, che consente di ampliare Git per includere la gestione dei dati e degli esperimenti (vedi qui per le alternative). Consente un preciso controllo delle versioni per dataset e modelli, proprio come Git fa per il codice, il che è essenziale per pratiche di CI/CD efficaci. Ciò garantisce che i motori di dati che alimentano i sistemi AI siano costantemente alimentati con dati accurati e verificabili, un requisito fondamentale per un AI affidabile. Sfruttiamo nbdev, che integra dvc trasformando i Jupyter Notebooks in un VoAGI per la programmazione letteraria e la programmazione esplorativa, semplificando il passaggio dall’analisi esplorativa del codice ben documentato. La natura dello sviluppo del software sta evolvendo in questo stile di “programmazione” e viene solo accelerata dall’evoluzione dei “Co-Pilots” dell’IA che aiutano nella documentazione e nella costruzione delle applicazioni di intelligenza artificiale. Il Software Bill of Materials (SBoM) e l’AI BoMs, promossi da standard aperti come SPDX, sono integrali in questo ecosistema. Forniscono registrazioni dettagliate che completano dvc e nbdev, racchiudendo la provenienza, la composizione e la conformità dei modelli di intelligenza artificiale. Gli SBoM forniscono un elenco completo dei componenti, garantendo che ogni elemento del sistema AI sia preso in considerazione e verificato. Gli AI BoM estendono questo concetto includendo anche le fonti di dati e i processi di trasformazione, offrendo un livello di trasparenza ai modelli e ai dati in un’applicazione AI. Insieme, essi formano un quadro completo della genealogia di un sistema AI, promuovendo la fiducia e agevolando la comprensione tra le parti interessate.

 

L’Imperativo TAI

 

Approcci etici e centrati sui dati sono fondamentali per la TAI, garantendo che i sistemi di intelligenza artificiale siano efficaci e affidabili. Il nostro progetto di framework TAI si avvale di strumenti come dvc per la versione dei dati e nbdev per la programmazione letteraria, riflettendo uno spostamento nell’ingegneria del software che tiene conto delle sfumature dell’IA. Questi strumenti sono emblematici di una tendenza più ampia verso l’integrazione della qualità dei dati, della trasparenza e delle considerazioni etiche fin dall’inizio del processo di sviluppo dell’IA. Nel settore civile e in quello della difesa, i principi della TAI rimangono costanti: un sistema è affidabile solo come i dati su cui si basa e il quadro etico a cui aderisce. Con l’aumentare della complessità dell’IA, cresce anche la necessità di framework robusti in grado di gestire questa complessità in modo trasparente ed etico. Il futuro dell’IA, in particolare nelle applicazioni di missione critica, dipenderà dall’adozione di questi approcci centrati sui dati ed etici, solidificando la fiducia nei sistemi di intelligenza artificiale in tutti i settori.

 

Informazioni sugli autori

 

Charles Vardeman, Christ Sweet e Paul Brenner sono ricercatori presso il University of Notre Dame Center for Research Computing. Hanno decenni di esperienza nello sviluppo di software scientifici e algoritmi con particolare attenzione alla ricerca applicata per il trasferimento tecnologico nelle operazioni di prodotto. Hanno numerosi articoli tecnici, brevetti e attività di ricerca finanziate nei campi della scienza dei dati e della cyberinfrastruttura. È possibile trovare qui “Pillole di TAI” settimanali in linea con i progetti di ricerca degli studenti.

[Dr. Charles Vardeman](https://www.linkedin.com/in/charles-vardeman-7897759) è un ricercatore presso il University of Notre Dame Center for Research Computing.