Il ruolo dell’etica dell’IA bilanciare l’innovazione con la responsabilità sociale

Il ruolo dell'etica dell'IA nel bilanciare l'innovazione con la responsabilità sociale

L’intelligenza artificiale (IA) rappresenta un ambito in rapida espansione caratterizzato dalle sue tecnologie e metodologie in continua evoluzione. Il suo potenziale trasformativo si estende a vari settori dell’economia e della società. Tuttavia, è fondamentale riconoscere i dilemmi etici che l’IA pone. Le aziende all’avanguardia nello sviluppo dell’IA, insieme alle imprese, alle comunità, alle amministrazioni e alle persone che la incorporano nella loro vita quotidiana, devono essere consapevoli di questi problemi.

I Domini Primari dell’Intelligenza Artificiale

L’IA può essere categorizzata in vari domini, ciascuno con attributi unici studiati per raggiungere obiettivi specifici in applicazioni particolari. Questi obiettivi e applicazioni derivano dalle capacità tecniche e dalle sfide specifiche insite nei rispettivi domini, affrontando casi d’uso diversi.

Il machine learning (ML) rappresenta un sottoinsieme dell’IA che consente alle macchine di imparare autonomamente senza una programmazione diretta. La sua ampia applicazione si estende a una serie diversificata di casi d’uso, come:

  • Analisi medica
  • Modellazione della fidelizzazione del cliente
  • Identificazione dello SPAM
  • Suggerimento di prodotti
  • Rilevamento delle frodi
  • Automotive: Navigazione assistita…

Deep learning, un’estensione del machine learning, va oltre la costruzione di modelli gerarchici complessi attraverso reti neurali artificiali disposte in strati. Queste reti interconnesse, composte da nodi simili al cervello umano, sono progettate per identificare i modelli. Il deep learning è fondamentale in applicazioni sofisticate, tra cui:

  • Analisi medica
  • Riconoscimento delle immagini
  • Riconoscimento della voce
  • Elaborazione del linguaggio
  • Robotica
  • Cybersecurity
  • Bioinformatica…

La visione artificiale è un ramo dell’IA che consente alle macchine di percepire l’ambiente circostante, elaborare immagini e interpretare video. La sua applicazione comprende diversi casi d’uso, tra cui l’identificazione degli oggetti, il rilevamento del movimento e la navigazione indipendente.

L’intelligenza artificiale conversazionale consente alle macchine di comunicare e interagire con gli esseri umani in un linguaggio naturale. Questa tecnologia dimostra la sua efficacia in varie applicazioni come chatbot, assistenti virtuali, interfacce di supporto clienti e sistemi di raccomandazione, per citarne alcuni.

La robotica consente alle macchine di muoversi e interagire nel mondo reale, in modo autonomo o in interazione con gli esseri umani. La robotica è utilizzata nella produzione, nella logistica, nel processo alimentare, nel carico e scarico delle macchine e nella medicina.

Il Caso Speciale dell’Intelligenza Artificiale Generativa

L’intelligenza artificiale generativa (Gen AI) è un tipo di intelligenza artificiale che genera nuovi dati, come immagini, testi, musica o codice. Si basa su algoritmi di machine learning per apprendere dai dati esistenti e generare nuovi dati.

Nonostante sia una tecnologia emergente, ha ottenuto risultati impressionanti dopo la distribuzione globale del ChatGPT di OpenAI. Da allora, sono comparsi attori come Mistral AI e Hugging Face, così come le grandi aziende tech come Google (Bard AI), Meta (LLaMA), IBM (WatsonX), Salesforce (Einstein GPT), così come Microsoft, Oracle e AWS, per citarne solo alcuni.

I campi di applicazione dell’IA generativa sono numerosi:

  • Creazione di contenuti: Creazione di immagini, video o musica. Ad esempio, può essere utilizzata per creare film animati, videogiochi o fotografie.
  • Traduzione automatica: Traduzione dei linguaggi in modo più preciso e fluente rispetto ai metodi tradizionali.
  • Ricerca e sviluppo: Generazione di nuove idee e concetti e test di nuove ipotesi.
  • Miglioramento delle interazioni con i clienti tramite chat ottimizzate e funzionalità di ricerca.
  • Esplorazione di grandi quantità di dati non strutturati tramite interfacce di conversazione e riassunti.
  • Miglioramento della forza vendita, ad esempio segnalando rischi, raccomandando interazioni successive o identificando l’interazione ottimale con il cliente in base alla cronologia delle conversazioni.
  • Identificazione di errori di produzione, anomalie e difetti dalle immagini.
  • Scrittura di codice e documentazione per accelerare ed evolvere gli sviluppi.
  • Sintesi e evidenziazione dei cambiamenti in grandi volumi di documenti regolatori…

Alan Turing vs Sam Altman

AI generativa vs. AI tradizionale

I concetti di AI tradizionale e AI generativa evidenziano prospettive e conseguenze diverse nel campo dell’intelligenza artificiale. La loro sinergia attesta la traiettoria in continua evoluzione e l’impatto di questi progressi tecnologici.

L’intelligenza artificiale tradizionale, spesso chiamata AI stretta o AI debole, si concentra sull’esecuzione di compiti specifici. Si riferisce a sistemi progettati per reagire a un insieme specifico di input. Questi sistemi hanno la capacità di apprendere dai dati e di aiutare a prendere decisioni o previsioni basate su tali dati.

Per capire questo, pensiamo a un sistema di traduzione automatica che utilizza regole predefinite per tradurre testi da una lingua all’altra senza creare nuove strutture linguistiche. Questo è l’AI tradizionale: si presenta come un’entità competente in grado di eseguire compiti specifici basati su un insieme predefinito di regole.

Altri esempi ben noti di AI tradizionale sono Siri di Apple e l’algoritmo di raccomandazione di Netflix. Forse il più conosciuto è l’algoritmo di ricerca di Google, che gestisce oltre 5 miliardi di ricerche al giorno. Queste AI sono state addestrate per seguire regole specifiche, svolgere un compito particolare e farlo bene, ma non generano nulla di nuovo.

L’AI generativa, d’altra parte, può essere considerata come la prossima generazione di intelligenza artificiale. È una forma di AI in grado di generare qualcosa di nuovo sulla base dell’enorme repository su cui è stata addestrata.

Ad esempio, se mostro a un modello generativo un insieme di immagini di automobili e camion, il modello deve ora “capire” appieno quali caratteristiche appartengono a queste due classi e come possono essere utilizzate per generare immagini simili. Lo stesso vale per i testi di Victor Hugo o Martin Luther King, ad esempio.

I modelli di AI generativa vengono addestrati su set di dati e imparano i loro modelli sottostanti per generare nuovi dati che riflettano i set di addestramento.

Etica dell’AI

L’incorporazione sempre più diffusa dell’AI in tutti i settori ha portato a numerosi casi d’uso, ognuno più pertinente e innovativo del precedente. Questi vanno dalla personalizzazione delle raccomandazioni commerciali alla previsione delle tendenze di mercato alla realizzazione di diagnosi mediche avanzate. Il progresso più recente risiede nelle vaste capacità dell’AI generativa.

Tuttavia, questi entusiasmanti sviluppi tecnologici sollevano questioni fondamentali sull’etica dell’AI.

Mentre sfruttiamo al massimo i benefici e le opportunità offerti dall’AI, è fondamentale considerare proattivamente le implicazioni etiche legate alla sua implementazione. L’etica dell’AI si sta posizionando al centro dei dibattiti attuali nelle aziende, ma anche all’interno dei governi, mettendo in evidenza la necessità di garantire trasparenza, responsabilità e imparzialità nella progettazione, implementazione e utilizzo di queste innovative tecnologie.

C’è una bellissima frase, scritta negli anni ’70: ‘La definizione dell’AI di oggi è una macchina in grado di fare una mossa perfetta degli scacchi mentre la stanza è in fiamme’. Parla davvero delle limitazioni dell’AI. Nella prossima ondata di ricerca sull’AI, se vogliamo creare macchine più utili e competitive, dobbiamo riportare la comprensione contestuale – Fei-Fei Li Ricercatrice e Professoressa di AI, Università di Stanford

I rischi etici dell’AI sono molteplici. Essi includono:

  • Discriminazione: I sistemi di AI possono replicare i pregiudizi presenti nella società, portando a discriminazioni verso determinati gruppi, inclusi ma non limitati a specifiche etnie, generi o religioni.
  • Opacità: I sistemi di AI possono diventare sempre più complessi e difficili da comprendere. Ciò può portare a situazioni in cui gli esseri umani non sono più in grado di spiegare le decisioni prese dalle macchine.
  • Utilizzo malintenzionato: I sistemi di AI possono essere utilizzati per scopi malintenzionati, tra cui sorveglianza dei cittadini, militarizzazione, cyberbullismo o diffusione di disinformazione.
  • Violazione delle normative: L’Atto sull’Intelligenza Artificiale (AI Act) propone un approccio normativo europeo basato sul rischio per l’AI. I suoi obiettivi sono garantire la sicurezza dei sistemi di AI sul mercato europeo nel rispetto dei diritti fondamentali e dei valori dell’UE, rafforzare la governance e l’applicazione delle norme per favorire gli investimenti e l’innovazione nell’AI e promuovere un mercato unico per applicazioni di AI legali, sicure e affidabili al fine di evitare la frammentazione.

Sono importanti molti rischi da considerare, come la riservatezza dei dati, le questioni legate al copyright o l’inclusione di pregiudizi intenzionali o non intenzionali. Questo ultimo punto sarà oggetto di un articolo futuro.

Certi rischi etici sono particolarmente rilevanti per l’AI generativa:

  • Allucinazioni: Il termine “allucinazione” è stato scelto per descrivere il comportamento dell’AI quando un LLM genera informazioni che si rivelano false. A volte, associano parole, nomi e idee che sembrano avere senso ma non lo hanno. Possono quindi contraddire la realtà logica o apparire come una miscela caotica di fatti. Esempio: “Puoi distinguere le uova di pollo dalle uova di mucca per dimensione e colore; le uova di mucca sono generalmente più grandi delle uova di pollo” – ChatGPT
  • Deepfake: In questo caso, l’intelligenza artificiale viene utilizzata per creare falsi e truffe di immagini, audio e video. I deepfake possono trasformare contenuti, immagini, voce o video esistenti sostituendo una persona con un’altra. Possono anche creare contenuti da zero che mostrano una persona in una situazione immaginaria.

Sorgente bbc.com

Un Approccio Etico All’IA

Di fronte a questi rischi, è fondamentale che le aziende adottino un approccio etico all’AI. Questo significa che le aziende devono:

  • Considerare le implicazioni etiche dei loro progetti di AI fin dall’inizio della costituzione della strategia di AI dell’azienda in fase di sviluppo.
  • Implementare misure per prevenire rischi etici, come addestrare le squadre sull’etica dell’AI o istituire meccanismi per monitorare e controllare i sistemi di AI.
  • Essere trasparenti sulle proprie pratiche di AI e rendere conto dei loro sforzi per conformarsi ai principi etici.

“Nonostante la crescente consapevolezza dell’importanza degli aspetti etici nello sviluppo della intelligenza artificiale (AI) e il ruolo cruciale che i professionisti di AI svolgono nell’economia e nella società, in 12 dei 14 paesi per i quali sono disponibili dati, meno dell’1% delle offerte di lavoro pubblicate online nel 2022 riguardanti professionisti con competenze di AI menzionava aspetti legati all’etica dell’AI” — 

Fonte: rapporto “OECD Skills Outlook 2023 : Skills for a Resilient Ecological and Digital Transition”.

Azioni Concrete Adoptate Dalle Imprese

Le imprese possono implementare una serie di misure tangibili per incorporare l’etica nella loro strategia di sviluppo dell’AI. Queste misure possono includere:

  • Creare un manifesto sull’etica dell’AI che delinei i principi etici ai quali l’azienda si impegna a rispettare.
  • Stabilire protocolli per supervisionare e regolamentare i sistemi di AI.
  • Formalizzare il ruolo di “Chief Artificial Intelligence Officer” (CAIO) per assumersi la crescente responsabilità che le questioni legate all’AI pone sull’azienda. Dividere questa responsabilità tra il CDO o il CTO potrebbe diventare meno praticabile, in particolare se le aziende mirano a affrontare queste sfide nel modo più efficiente possibile.

Conclusione

L’integrazione dell’etica nella strategia dell’AI è una sfida importante per le aziende. Adottando un approccio etico, le aziende possono contribuire a garantire che l’AI venga utilizzata in modo responsabile e a beneficio della società.

Tutti gli esperti in tecnologia dell’informazione, intelligenza artificiale e soprattutto in etica, così come in ESG, dovrebbero (o forse addirittura dovrebbero) aiutare a istruire e migliorare la comprensione delle aziende dell’importanza di incorporare l’etica nella loro strategia di sviluppo dell’AI.

Tra le azioni da intraprendere per sensibilizzare le aziende all’etica dell’AI:

  • Creare risorse educative, come guide, articoli o corsi di formazione, per aiutare le aziende a comprendere le sfide etiche dell’AI.
  • Organizzare eventi, come conferenze, MeetUp o workshop, per dibattere sulle sfide etiche dell’AI e condividere le migliori pratiche.
  • Stabilire partenariati con organizzazioni che condividono valori simili, come gruppi per la difesa dei diritti umani o organismi di regolamentazione, così come scuole e attori del settore delle Big Tech che sono receptivi a questi valori.

Sono convinto che queste azioni contribuiranno a rendere l’etica un componente essenziale della strategia di sviluppo dell’AI. Quali altre misure pensi dovrebbero essere implementate?