Le nuove implicazioni etiche dell’intelligenza artificiale generativa

Le nuove sfide etiche dell'intelligenza artificiale generativa

Il tasso di progresso del panorama dell’intelligenza artificiale avanzata è rapidissimo. Ma lo sono anche i rischi che ne derivano.

La situazione è tale che è diventato difficile per gli esperti prevedere i rischi.

Mentre la maggior parte dei leader sta dando sempre più importanza alle applicazioni GenAI nei prossimi mesi, sono anche scettici sui rischi che ne derivano: preoccupazioni per la sicurezza dei dati e risultati distorti, per citarne alcuni.

Mark Suzman, CEO della Bill & Melinda Gates Foundation, ritiene che “sebbene questa tecnologia possa portare a scoperte che possono accelerare il progresso scientifico e migliorare i risultati di apprendimento, l’opportunità non è priva di rischi”.

Cominciamo con i dati

Considerate questo – un famoso creatore di modelli di IA generativa afferma che “raccoglie informazioni personali come nome, indirizzo email e informazioni di pagamento quando necessario per scopi commerciali”.

I tempi recenti hanno mostrato molteplici modi in cui le cose possono andare storte senza un quadro guida.

  • L’Italia ha espresso preoccupazioni riguardo alla raccolta illecita di dati personali degli utenti, citando “nessuna base legale per giustificare la raccolta e lo stoccaggio massivo di dati personali per ‘addestrare’ gli algoritmi alla base del funzionamento della piattaforma”.
  • Anche la Commissione giapponese per la protezione dei dati personali ha emesso un avviso per la raccolta minima di dati per addestrare i modelli di apprendimento automatico.
  • I leader del settore al HBR sottolineano le preoccupazioni per la sicurezza dei dati e i risultati distorti.

Poiché i modelli di AI generativa vengono addestrati su dati provenienti da quasi tutto Internet, siamo una parte frazionata nascosta in quei livelli di rete neurale. Ciò sottolinea la necessità di conformarsi alle normative sulla privacy dei dati e di non addestrare modelli sui dati degli utenti senza il loro consenso.

Recentemente, una delle aziende è stata multata per aver costruito uno strumento di riconoscimento facciale raschiando selfie da Internet, il che ha comportato una violazione della privacy e una multa salata.

Tuttavia, la sicurezza dei dati, la privacy e il pregiudizio esistevano già prima dell’avvento delle applicazioni di AI generativa. Allora, cosa è cambiato con il lancio delle applicazioni di AI generativa?

Bene, alcuni rischi esistenti sono diventati ancora più rischiosi, considerata la scala a cui i modelli vengono addestrati e implementati. Capiamo come.

Scalabilità – Una spada a doppio taglio

Allucinazione, Iniezione di Prompt e Mancanza di Trasparenza

Capire il funzionamento interno di modelli così colossali per poter fidarsi delle loro risposte è diventato ancora più importante. Secondo Microsoft, questi rischi emergenti si verificano perché i LLM (Large Language Models) sono “progettati per generare testo che sembra coerente e appropriato in contesto, anziché aderire all’accuratezza dei fatti.”

Di conseguenza, i modelli potrebbero produrre risposte fuorvianti e incorrecte, comunemente definite allucinazioni. Queste possono emergere quando il modello non è sicuro delle previsioni, portando alla generazione di informazioni meno accurate o irrilevanti.

Inoltre, i prompt sono il modo in cui interagiamo con i modelli linguistici; ora, attori malintenzionati potrebbero generare contenuti dannosi iniettando prompt.

Responsabilità quando l’AI va male?

L’utilizzo dei LLM pone questioni etiche riguardo alla responsabilità per l’output generato da questi modelli e per i risultati distorti, come avviene per tutti i modelli di AI.

I rischi sono accentuati con le applicazioni ad alto rischio, come nel settore sanitario – pensate alle conseguenze di un consiglio medico errato sulla salute e sulla vita del paziente.

La cosa più importante è che le organizzazioni devono costruire modi etici, trasparenti e responsabili di sviluppare e utilizzare l’IA generativa.

Se sei interessato a saperne di più su chi sia responsabile di far funzionare correttamente l’IA generativa, considera la lettura di questo post che descrive come tutti noi possiamo unirci come comunità per farla funzionare.

Dato che questi modelli sono costruiti utilizzando materiale proveniente da tutto il mondo, è molto probabile che abbiano consumato opere protette da copyright – musica, video o libri.

Se i dati protetti da copyright vengono utilizzati per addestrare modelli di IA senza ottenere il necessario permesso, riconoscimento o compensazione ai creatori originali, si incorre in una violazione del copyright che può causare seri problemi legali agli sviluppatori.

Deepfake, Disinformazione e Manipolazione

Quello con una grande probabilità di creare problemi su larga scala sono i deepfake – ti stai chiedendo in che modo la capacità di creare deepfake possa metterci nei guai?

Sono creazioni sintetiche – testi, immagini o video – che possono manipolare digitalmente l’aspetto facciale attraverso metodi generativi profondi.

Risultato? Bullismo, disinformazione, chiamate false, vendetta o frodi – qualcosa che non si adatta alla definizione di un mondo prospero.

L’obiettivo del post è far capire a tutti che l’IA è una doppia spada – non è solo magia che funziona solo su iniziative importanti; anche i cattivi attori ne fanno parte.

È qui che dobbiamo essere più vigili.

Misure di Sicurezza

Prendi le ultime notizie di un video falso che mette in evidenza il ritiro di una delle personalità politiche dalle prossime elezioni.

Qual potrebbe essere il movente? – potresti pensare. Beh, tali disinformazioni si diffondono come il fuoco in poco tempo e possono influenzare gravemente la direzione del processo elettorale.

Quindi, cosa possiamo fare per non cadere vittima di tali informazioni false?

Ci sono varie linee di difesa, partiamo dalle più fondamentali:

  • Essere scettici e dubitare di tutto ciò che vediamo intorno a noi
  • Cambia il tuo modo predefinito – “potrebbe non essere vero”, anziché prendere tutto per oro colato. In poche parole, metti in discussione tutto ciò che ti circonda.
  • Confermare i contenuti digitali potenzialmente sospetti da più fonti

Sospendere lo Sviluppo è una Soluzione?

Ricercatori di intelligenza artificiale di spicco ed esperti del settore come Yoshua Bengio, Stuart Russell, Elon Musk, Steve Wozniak e Yuval Noah Harari hanno espresso le loro preoccupazioni, chiedendo di sospendere lo sviluppo di tali sistemi di intelligenza artificiale.

C’è il timore che la corsa per costruire AI avanzate, all’altezza dell’IA generativa, possa rapidamente sfuggire al controllo.

C’è un Po’ di Progresso

Microsoft ha recentemente annunciato che proteggerà gli acquirenti dei suoi prodotti AI da implicazioni di violazione del copyright purché rispettino le norme di sicurezza e i filtri di contenuto. Questa è un’enorme rassicurazione e dimostra la volontà di assumersi la responsabilità delle conseguenze dell’uso dei propri prodotti, che è uno dei principi fondamentali dei quadri etici.

Garantirà che gli autori mantengano il controllo dei loro diritti e ricevano una giusta compensazione per le loro creazioni.

È un grande progresso nella giusta direzione! La chiave è vedere quanto risolve le preoccupazioni degli autori.

Cosa succederà?

Fino ad ora abbiamo discusso le principali implicazioni etiche legate alla tecnologia per renderla giusta. Tuttavia, quella che deriva dall’utilizzo di successo di questo avanzamento tecnologico è il rischio di perdita del lavoro.

C’è un sentimento che instilla paura che l’AI sostituirà la maggior parte del nostro lavoro. Di recente McKinsey ha condiviso un rapporto su come sarà il futuro del lavoro.

Questo argomento richiede un cambiamento strutturale nel modo in cui pensiamo al lavoro e merita un post separato. Quindi, rimanete sintonizzati per il prossimo post, che discuterà del futuro del lavoro e delle competenze che possono aiutarti a sopravvivere nell’era del GenAI e prosperare!

[Vidhi Chugh](https://vidhi-chugh.medium.com/) è una stratega di AI e una leader nella trasformazione digitale che lavora all’incrocio tra prodotto, scienze e ingegneria per costruire sistemi di machine learning scalabili. È una leader dell’innovazione premiata, un’autrice e una speaker internazionale. Ha la missione di democratizzare l’apprendimento automatico e rompere il gergo affinché tutti possano far parte di questa trasformazione.