Jonathan Dambrot, CEO e Co-Fondatore di Cranium AI – Serie di interviste

Jonathan Dambrot, CEO e Co-Fondatore di Cranium AI - Interviste.

Jonathan Dambrot è il CEO e Co-Fondatore di Cranium AI, un’azienda che aiuta le squadre di cybersecurity e data science a comprendere dove l’IA sta influenzando i loro sistemi, dati o servizi.

Jonathan è un ex Partner presso KPMG, leader dell’industria della cybersecurity e visionario. Prima di KPMG, ha guidato Prevalent a diventare un leader dell’industria nel risk management di terze parti secondo Gartner e Forrester, prima della sua vendita a Insight Venture Partners alla fine del 2016. Nel 2019 Jonathan ha lasciato il ruolo di CEO di Prevalent mentre l’azienda continua la sua crescita sotto una nuova leadership. È stato citato in numerose pubblicazioni e parla regolarmente a gruppi di clienti riguardo alle tendenze in IT, sicurezza delle informazioni e conformità.

Puoi condividere la storia di nascita di Cranium AI?

Ho avuto l’idea per Cranium intorno a giugno del 2021 quando ero partner presso KPMG e guidavo i servizi di sicurezza di terze parti a livello globale. Stavamo costruendo e fornendo soluzioni basate su intelligenza artificiale per alcuni dei nostri clienti più grandi e ho scoperto che non stavamo facendo nulla per proteggerli dalle minacce avversarie. Quindi, ho posto la stessa domanda ai leader della cybersecurity dei nostri clienti più importanti e le risposte che ho ricevuto erano altrettanto terribili. Molti dei team di sicurezza non avevano mai parlato nemmeno con i data scientist: parlavano lingue completamente diverse quando si trattava di tecnologia e non avevano affatto visibilità sull’IA in esecuzione in tutta l’azienda. Tutto questo, unito alla costante crescita delle normative, è stato il fattore scatenante per costruire una piattaforma in grado di fornire sicurezza all’IA. Abbiamo iniziato a lavorare con l’incubatore KPMG Studio e abbiamo coinvolto alcuni dei nostri clienti più importanti come partner di progettazione per guidare lo sviluppo in modo da soddisfare le esigenze di queste grandi aziende. A gennaio di quest’anno, Syn Ventures è entrata come completamento del finanziamento iniziale e ci siamo separati da KPMG a marzo ed è emerso dallo stealth a aprile 2023.

Cos’è la Cranium AI Card e quali informazioni chiave rivela?

La Cranium AI Card consente alle organizzazioni di raccogliere e condividere in modo efficiente informazioni sulla fiducia e conformità dei loro modelli di intelligenza artificiale sia con i clienti che con i regolatori e di ottenere visibilità sulla sicurezza dei sistemi di intelligenza artificiale dei fornitori. In definitiva, cerchiamo di fornire alle squadre di sicurezza e conformità la capacità di visualizzare e monitorare la sicurezza dell’IA nella loro catena di fornitura, allineare i propri sistemi di intelligenza artificiale con i requisiti e i framework di conformità attuali e futuri e condividere facilmente che i loro sistemi di intelligenza artificiale sono sicuri e affidabili.

Quali sono alcuni dei problemi di fiducia che le persone hanno con l’IA che vengono risolti con questa soluzione?

In generale, le persone vogliono sapere cosa si cela dietro l’IA che stanno utilizzando, soprattutto perché sempre più dei loro flussi di lavoro quotidiani vengono influenzati in qualche modo dall’IA. Cerchiamo di fornire ai nostri clienti la capacità di rispondere alle domande che riceveranno presto dai propri clienti, come ad esempio “Come viene governato tutto questo?”, “Cosa viene fatto per proteggere i dati e i modelli?” e “Queste informazioni sono state validate?”. La AI Card offre alle organizzazioni un modo rapido per affrontare queste domande e dimostrare la trasparenza e l’affidabilità dei loro sistemi di intelligenza artificiale.

Nell’ottobre 2022, l’Ufficio delle Politiche Scientifiche e Tecnologiche della Casa Bianca (OSTP) ha pubblicato una bozza per una Carta dei Diritti dell’IA, condividendo una roadmap non vincolante per l’uso responsabile dell’IA. Puoi discutere delle tue opinioni personali sui pro e i contro di questa bozza?

Sebbene sia estremamente importante che la Casa Bianca abbia compiuto questo primo passo nel definire i principi guida per un’IA responsabile, non riteniamo che sia andata abbastanza lontano nel fornire indicazioni per le organizzazioni e non solo per le persone preoccupate di fare ricorso a una decisione basata sull’IA. Le future linee guida normative dovrebbero essere rivolte non solo ai fornitori di sistemi di intelligenza artificiale, ma anche agli utenti per consentire loro di comprendere e sfruttare questa tecnologia in modo sicuro e protetto. In definitiva, il principale vantaggio è che i sistemi di intelligenza artificiale saranno più sicuri, inclusivi e trasparenti. Tuttavia, senza un quadro basato sul rischio per consentire alle organizzazioni di prepararsi alle future normative, esiste il potenziale rallentamento del ritmo dell’innovazione, specialmente in situazioni in cui soddisfare i requisiti di trasparenza e spiegabilità è tecnicamente impossibile.

Come aiuta Cranium AI le aziende a rispettare questa Carta dei Diritti?

Cranium Enterprise aiuta le aziende a sviluppare e fornire sistemi sicuri e protetti, che è il primo principio chiave all’interno della Carta dei Diritti. Inoltre, l’AI Card aiuta le organizzazioni a soddisfare il principio di notifica e spiegazione, consentendo loro di condividere i dettagli su come i loro sistemi di intelligenza artificiale stanno effettivamente funzionando e quali dati utilizzano.

Cos’è il NIST AI Risk Management Framework e in che modo Cranium AI aiuta le aziende a soddisfare gli obblighi di conformità AI per questo framework?

Il NIST AI RMF è un framework per le organizzazioni per gestire meglio i rischi per individui, organizzazioni e società associati all’AI. Segue una struttura molto simile alle loro altre linee guida delineando gli esiti di un programma di gestione dei rischi di successo per l’AI. Abbiamo mappato la nostra scheda AI agli obiettivi delineati nel framework per supportare le organizzazioni nel monitorare come i loro sistemi AI si allineano al framework e dato che la nostra piattaforma aziendale già raccoglie molte di queste informazioni, possiamo automaticamente popolare e convalidare alcuni dei campi.

L’EU AI Act è una delle legislazioni sull’AI più monumentali che abbiamo visto nella storia recente, perché le aziende non appartenenti all’UE dovrebbero rispettarla?

Similmente al GDPR per la privacy dei dati, l’AI Act cambierà radicalmente il modo in cui le imprese globali sviluppano e operano i loro sistemi AI. Le organizzazioni con sede al di fuori dell’UE dovranno comunque prestare attenzione e rispettare i requisiti, poiché qualsiasi sistema AI che utilizza o influenza cittadini europei rientrerà nei requisiti, indipendentemente dalla giurisdizione dell’azienda.

Come si sta preparando Cranium AI all’EU AI Act?

Da Cranium, seguiamo lo sviluppo dell’AI Act fin dall’inizio e abbiamo progettato la nostra offerta di prodotti AI Card per supportare le aziende nel soddisfare i requisiti di conformità. Riteniamo di avere un ottimo vantaggio iniziale dato il nostro precoce interesse per l’AI Act e come si è evoluto nel corso degli anni.

Perché l’AI responsabile dovrebbe diventare una priorità per le imprese?

La velocità con cui l’AI viene incorporata in ogni processo aziendale significa che le cose possono sfuggire rapidamente al controllo se non affrontate in modo responsabile. Dare priorità all’AI responsabile all’inizio della rivoluzione dell’AI permetterà alle imprese di scalare in modo più efficace e di non incorrere in ostacoli significativi e problemi di conformità in seguito.

Qual è la tua visione per il futuro di Cranium AI?

Vediamo Cranium diventare il vero re della categoria per AI sicura e affidabile. Anche se non possiamo risolvere tutto, come complessi problemi come l’uso etico e la spiegabilità, cerchiamo di collaborare con leader in altri settori dell’AI responsabile per creare un ecosistema che semplifichi per i nostri clienti coprire tutti gli aspetti dell’AI responsabile. Cerchiamo anche di collaborare con gli sviluppatori di soluzioni innovative di AI generativa per supportare la sicurezza e la fiducia in queste capacità. Vogliamo che Cranium consenta alle aziende di tutto il mondo di continuare a innovare in modo sicuro e affidabile.

Grazie per l’intervista interessante, i lettori che desiderano saperne di più possono visitare Cranium AI.