5 Considerazioni Etiche per l’Intelligenza Artificiale Generativa

5 Considerazioni Etiche per l'IA Generativa

Anche prima del boom attuale dell’IA, le preoccupazioni etiche sono sempre state presenti nella mente degli scienziati dei dati. Ora, con la crescita dell’IA generativa nell’immaginario pubblico, queste preoccupazioni si sono solo amplificate, poiché emergono diverse problematiche legate all’IA. Mentre l’IA continua a crescere, ci sono molte domande che rimangono senza risposta. Con questo in mente, ecco alcune questioni etiche da considerare mentre l’IA continua ad espandersi in tutto il mondo.

Fonti dati – Su cosa è stato addestrato il modello?

Uno dei luoghi più evidenti in cui si può notare questa preoccupazione è la comunità artistica. Nell’estate del 2022, il mondo dell’arte è stato invaso da un flusso costante di arte generata dall’IA. Inizialmente, molti temevano che questo potesse sostituire gli artisti, ma col passare del tempo, la modalità di addestramento di questi modelli ha colpito il mondo dell’arte. Questo perché molti artisti e i loro sostenitori hanno iniziato a reagire contro l’IA che genera arte, poiché molti di questi programmi si sono addestrati utilizzando opere d’arte umane esistenti senza il permesso o il consenso degli artisti.

In effetti, nell’ottobre scorso, è emerso che Stable Diffusion ha utilizzato le opere d’arte di veri artisti per addestrare il suo programma generativo di intelligenza artificiale. Ciò ha sollevato molte preoccupazioni etiche, poiché si è iniziato a parlare di quello che potrebbe essere considerato plagio. Gran parte della rabbia è derivata dalla mancanza di avviso o permesso da parte degli artisti. Molti si sono sentiti esclusi dalla discussione e i loro stili distintivi sono stati utilizzati per addestrare un programma che richiedeva solo informazioni testuali per produrre lavori simili a quelli che avevano impiegato anni per perfezionare.

Non riguarda solo il mondo dell’arte in sé, ma bisogna porre domande anche sulla privacy, la gestione dei dati e altro ancora, poiché sempre più modelli si addestrano su sempre più dati senza il consenso delle persone da cui si ricavano le informazioni. Questo senza nemmeno toccare la questione del pregiudizio quando un set di dati non viene gestito correttamente. Basta ricordare il famigerato chatbot Tay rilasciato da Microsoft. Bastarono solo poche ore di interazioni online perché l’IA diventasse così ostile e razzista che il colosso tecnologico dovette spegnerla rapidamente.

Output

Già ChatGPT si è trovato nei guai a causa dei contenuti che genera, affermando che certe persone erano coinvolte in gravi crimini. In un caso, la persona generata ha intentato una causa legale contro OpenAI. E per coloro che potrebbero non capire appieno, è semplice. Basta un’accusa semplice online perché qualsiasi ricerca su Google riguardante le tue informazioni produca informazioni false. Questo potrebbe rovinare vite e reputazioni. Ecco perché negli ultimi mesi ci sono state richieste di rallentare lo sviluppo dell’IA fino a quando non si risolvono problemi come le allucinazioni dell’IA.

In un altro caso, un avvocato ha utilizzato ChatGPT per citare e creare un fascicolo per una causa legale su cui stava lavorando. L’unico problema era che ChatGPT citava casi che non erano mai accaduti e li inventava. Come potete immaginare, il giudice non era molto contento, poiché ciò poteva potenzialmente rovinare la carriera di qualcuno. Infine, c’è l’output che potrebbe essere utilizzato in modo che l’IA non sia in grado di dire all’utente che non è come è stata progettata. Abbiamo visto questo un mese fa, quando un professore del Texas ha accusato falsamente gli studenti di utilizzare l’IA inserendo i loro saggi in ChatGPT e chiedendo al chatbot di determinare se fossero stati scritti dall’IA.

Se vi state chiedendo, no, ChatGPT non può farlo. Ecco perché l’output è una questione critica per l’IA generativa, poiché molti si sono avvicinati a questa tecnologia e ora dipendono pesantemente dalle informazioni che produce.

Conseguenze non volute

Ci sono altre conseguenze derivanti da un output non corretto che vanno oltre quanto appena menzionato. Immaginate una conferenza stampa di un leader mondiale che afferma di aver preso contatto con alieni provenienti da un altro mondo. O, ancora più pericoloso, un annuncio che afferma che la sua nazione sta per entrare in guerra con una nazione confinante o con un gruppo di vicini. La tecnologia Deepfake si sta evolvendo rapidamente, ed è sempre più difficile determinare cosa è reale e cosa non lo è, ma non è necessario coinvolgere un leader mondiale. Ci sono già segnalazioni di truffe di conversazioni vocali Deepfake.

I criminali potenziati dall’IA utilizzano la tecnologia Deepfake per clonare essenzialmente le voci dei loro obiettivi e poi contattare le loro famiglie per cercare di estorcere denaro o altre risorse. Questo non è fantascienza, è già qui.

Proprietà intellettuale

Se c’è una cosa che le aziende non vogliono, è che la loro proprietà intellettuale venga gestita in modo errato. Questo è diventato così grave che persino gli avvocati di Amazon hanno dovuto ricordare agli ingegneri del software di non utilizzare ChatGPT per rispondere a domande di programmazione che potrebbero compromettere i loro diritti di proprietà, poiché ogni input al chatbot gli insegna qualcosa di nuovo. Pertanto, OpenAI potrebbe teoricamente ottenere un vantaggio competitivo mentre i dipendenti di potenziali concorrenti utilizzano la loro IA per rispondere a domande legate al lavoro.

Violazioni della privacy dei dati

Un settore che è estremamente ottimista riguardo all’IA generativa è quello sanitario. La tecnologia aiuta a ridurre i costi amministrativi, a rimuovere i vincoli informativi per migliorare le cure e fornisce ai medici una maggiore conoscenza della storia medica. L’IA generativa è anche all’avanguardia nello sviluppo di nuovi medicinali e macchine con un potenziale promettente.

Ma c’è un problema. A differenza della maggior parte dei settori, il campo della salute ha leggi molto rigorose, sia statali che federali negli Stati Uniti, per quanto riguarda la protezione delle cartelle cliniche. Ecco perché la governance dei dati e le piattaforme aziendali sono cruciali quando si utilizza l’IA in campo medico. In caso contrario, i dati medici privati di decine di milioni di persone potrebbero finire in mano a chiunque. Ma questo è solo un settore. Fino a poco tempo fa, la maggior parte degli LLM utilizzava lo scraping web per addestrare i loro modelli.

Quindi è evidente che ci sono molte informazioni utilizzate per addestrare modelli che presentano enormi preoccupazioni per la privacy. Questo è il motivo per cui le richieste di un’IA responsabile sono cresciute così rapidamente in tutto il mondo.

Conclusione

Anche se l’IA generativa è diventata la nuova superpotenza nella scienza dei dati e molti stanno affluendo per migliorare e rendere il loro futuro sicuro, ci sono ancora molte preoccupazioni etiche che devono essere affrontate se la comunità della scienza dei dati desidera che la tecnologia continui a beneficiare la comunità globale.

ODSC ospita un summit gratuito sull’IA generativa il 20 luglio. Ottieni il tuo pass oggi stesso e ottieni nuove intuizioni e competenze migliorate sull’IA generativa. Quindi, cosa stai aspettando?

Ottieni oggi stesso il tuo pass per il summit virtuale sull’IA generativa!