Impostare standard per una responsabile AI generativa.

Impostare degli standard per una AI generativa responsabile.

Con il rapido avanzamento dell’IA in tutti i settori, l’IA responsabile è diventata un tema caldo sia per i decision-maker che per i data scientist. Ma con l’avvento di un’IA generativa di facile accesso, è ora più importante che mai. Ci sono diverse ragioni per cui l’IA responsabile è fondamentale mentre la tecnologia continua a progredire.

Alcuni di questi includono preoccupazioni legate a pregiudizi/discriminazioni, privacy e protezione dei dati, sicurezza e, naturalmente, trasparenza e responsabilità. Quindi approfondiamo un po’ e vediamo perché i principi dell’IA responsabile sono un fattore critico quando si tratta di IA, e cosa stanno facendo alcuni dei leader nel settore tecnologico.

L’impegno responsabile di Microsoft nell’IA generativa

Microsoft spera di dimostrare il suo impegno verso un’IA generativa responsabile andando pubblica con i suoi sei principi per un’IA generativa responsabile. Secondo l’azienda, ciò include equità, affidabilità e sicurezza, privacy e sicurezza, inclusività, trasparenza e responsabilità. Creando questi principi, Microsoft ha operazionalizzato il suo impegno attraverso la governance, la politica e la ricerca.

Alcuni esempi specifici delle iniziative di Microsoft nell’IA generativa responsabile includono il Human-AI Experience (HAX) Workbook, la checklist di equità nell’IA e il Responsible AI Dashboard. Microsoft sta inoltre collaborando con organizzazioni come l’UNESCO per promuovere un’IA generativa responsabile.

EVENTO – ODSC West 2023

Conferenza in presenza e virtuale

30 ottobre – 2 novembre

Unisciti a noi per approfondire le ultime tendenze, strumenti e tecniche di data science e IA, dai LLM all’analisi dei dati, dall’apprendimento automatico all’IA responsabile.

Progettare per la responsabilità

Una delle cose più importanti che si possono fare per promuovere un’IA generativa responsabile è progettare i sistemi di IA tenendo conto della responsabilità. Ciò significa pensare ai potenziali rischi e sfide dei sistemi di IA fin dall’inizio, anziché considerarli come un’aggiunta dopo che un sistema è online. Una volta presa la decisione di procedere con un sistema di IA, l’IA generativa responsabile dovrebbe diventare un pilastro di ogni progetto.

Ovviamente, ciò significa anche progettare sistemi di IA in modo equo, affidabile, sicuro, inclusivo, trasparente e responsabile.

Condurre test avversari

Questo aspetto spesso non viene discusso abbastanza, ovvero l’utilizzo di test e addestramenti avversari per promuovere la responsabilità nell’IA. I test avversari funzionano testando o limitando l’IA utilizzando suggerimenti e altri metodi per individuare le debolezze dei sistemi di IA. Ad esempio, questo può includere tentativi di “sbloccare” un sistema di IA utilizzando una serie di suggerimenti nella speranza di ottenere una risposta indesiderata.

Queste risposte possono variare da errori di informazioni di fatto a preoccupazioni legittime sulla sicurezza dovute ai contenuti generati dall’IA. Quindi, conducendo test avversari, i team interni sono in grado di individuare e correggere eventuali vulnerabilità nei sistemi di IA prima che possano essere sfruttate. Questi team sono spesso composti non solo da professionisti della data science, ma anche da persone con una vasta gamma di competenze che sono più propense a individuare eventuali problemi di sicurezza.

Fare attenzione alla comunicazione

Credeteci o no, la comunicazione è fondamentale per promuovere un’IA generativa responsabile. Questo perché, quando si comunica sull’IA, è importante essere chiari, concisi e accessibili a un ampio pubblico, in particolare ai portatori di interessi non tecnici. Il motivo è abbastanza semplice da capire. Basta guardare all’adozione rapida di ChatGPT da parte di chi non appartiene al settore tecnico dall’anno scorso. ChatGPT ha dimostrato che la società era pronta a utilizzare l’IA ora, non in futuro.

Ecco perché la chiarezza è importante. Aiuta a costruire fiducia e trasparenza con il pubblico che potrebbe non possedere determinate competenze tecniche. Aiuta anche a mitigare pregiudizi e discriminazioni e garantisce che i sistemi di IA siano allineati ai valori umani.

Monitorare i pregiudizi

La parzialità ha un chiaro sottofondo negativo per un’ottima ragione. Nessuno vuole che l’intelligenza artificiale sia parziale nei confronti di qualsiasi gruppo, poiché questo contribuisce a ridurre la fiducia e aumenta altri rischi. Ecco perché è importante monitorare i sistemi di intelligenza artificiale per individuare la parzialità, assicurandosi che i set di dati siano puliti e utilizzando altri metodi. Ma la verità è che la parzialità può insinuarsi nei sistemi di intelligenza artificiale in molti modi, quindi è importante essere vigili. Ci sono diverse modalità per monitorare la parzialità, tra cui:

  • Analisi dei dati utilizzati per addestrare i sistemi di intelligenza artificiale
  • Valutazione delle uscite dei sistemi di intelligenza artificiale
  • Svolgimento di studi sugli utenti

Utilizzo di set di dati di alta qualità

Come abbiamo visto nell’ultimo anno, lo scraping web ha fatto un lavoro straordinario nella creazione di modelli linguistici avanzati unici e funzionali. Man mano che la complessità aumenta, è evidente che la qualità dei set di dati utilizzati per addestrare i modelli diventerà sempre più importante. Questo è uno dei motivi per cui i dati sintetici stanno diventando più popolari e probabilmente cresceranno in popolarità nei prossimi anni. Tuttavia, non è necessario fare affidamento solo sui dati sintetici.

Ecco dove entrano in gioco i data scientist e altri professionisti dei dati. Essi si assicurano che la qualità di tutti i set di dati venga mantenuta, poiché i rischi associati a un set di dati di scarsa qualità possono compromettere centinaia o addirittura migliaia di ore di lavoro da parte delle squadre all’interno di un’azienda.

Conclusioni su Responsible Generative AI

La Responsible Generative AI si sta impegnando per garantire che la tecnologia rimanga equa, trasparente e accessibile al maggior numero di persone possibile, riducendo al minimo eventuali danni. Se sei interessato a questo argomento, Sarah Bird, PhD, Global Lead for Responsible AI Engineering presso Microsoft, parlerà a ODSC West tra poche settimane.

Quindi non perderti l’occasione e scopri di persona quali sono le prospettive per l’IA. Registrati ora mentre i biglietti sono ancora scontati del 30%!

Puoi anche dare un’occhiata alla nostra sezione sulle Generative AI e vedere come puoi utilizzare il GenAI tu stesso! Alcuni titoli delle sessioni includono:

  • Allineamento degli LLM Open-source utilizzando l’apprendimento per rinforzo dal feedback
  • Generative AI, agenti autonomi di intelligenza artificiale e AGI – Come i nuovi sviluppi nell’IA miglioreranno i prodotti che costruiamo
  • Implementazione del Gen AI nella pratica
  • Ambito degli LLM e dei modelli GPT nel dominio della sicurezza
  • Ottimizzazione dei suggerimenti con GPT-4 e Langchain
  • Sviluppo di applicazioni di Generative AI: uno studio di caso LLM
  • Grafi: la prossima frontiera dell’esplicabilità di GenAI
  • Diffusione stabile: una nuova frontiera per il paradigma testo-immagine
  • Generative AI, agenti autonomi e tecniche neurali: pionieri della prossima era di giochi, simulazioni e metaverso
  • Generative AI nelle aziende: sfruttare il potenziale e affrontare le sfide
  • La svolta nella concezione dell’IA: sotto il cofano di un grande modello di linguaggio
  • Implementazione di Generative AI affidabile