Cosa è l’allucinazione AI? Cosa va storto con i chatbot AI? Come individuare un’intelligenza artificiale che sta allucinando?

What is AI hallucination? What goes wrong with AI chatbots? How to detect an AI that is hallucinating?

L’allucinazione dell’AI non è un nuovo problema. L’intelligenza artificiale (AI) ha fatto notevoli progressi negli ultimi anni, diventando sempre più efficiente nelle attività precedentemente svolte solo dagli esseri umani. Tuttavia, l’allucinazione è un problema diventato un grande ostacolo per l’AI. Gli sviluppatori hanno messo in guardia contro i modelli di AI che producono fatti completamente falsi e rispondono alle domande con risposte inventate come se fossero vere. Poiché può compromettere l’accuratezza, l’affidabilità e la fiducia delle applicazioni, l’allucinazione è un grave ostacolo allo sviluppo e alla distribuzione dei sistemi di AI. Di conseguenza, coloro che lavorano in AI stanno attivamente cercando soluzioni a questo problema. Questo blog esplorerà le implicazioni e gli effetti delle allucinazioni dell’AI e le possibili misure che gli utenti potrebbero adottare per ridurre i pericoli di accettare o diffondere informazioni errate.

Cosa sono le Allucinazioni dell’AI?

Il fenomeno noto come allucinazione dell’intelligenza artificiale si verifica quando un modello di AI produce risultati che non erano stati previsti. Si noti che alcuni modelli di AI sono stati insegnati a produrre intenzionalmente output senza alcun collegamento con l’input (i dati) del mondo reale.

L’allucinazione è il termine usato per descrivere la situazione in cui gli algoritmi di AI e le reti neurali di deep learning creano risultati che non sono reali, non corrispondono a nessun dato su cui l’algoritmo è stato addestrato o non seguono alcun altro modello discernibile.

Le allucinazioni dell’AI possono assumere molte forme diverse, dalla creazione di false notizie a false affermazioni o documenti su persone, eventi storici o fatti scientifici. Ad esempio, un programma di AI come ChatGPT può creare una figura storica con una biografia completa e successi che non sono mai esistiti. Nell’era attuale dei social media e della comunicazione immediata, in cui un singolo tweet o post di Facebook può raggiungere milioni di persone in pochi secondi, il potenziale per la diffusione rapida e ampia di informazioni errate è particolarmente problematico.

Perché si Verificano le Allucinazioni dell’AI?

Gli esempi avversari, ovvero i dati di input che ingannano un programma di AI nel classificarli erroneamente, possono causare allucinazioni dell’AI. Ad esempio, gli sviluppatori utilizzano dati (come immagini, testi o altri tipi) per addestrare i sistemi di AI; se i dati vengono alterati o distorti, l’applicazione interpreta l’input in modo diverso e produce un risultato errato.

Le allucinazioni possono verificarsi in grandi modelli basati sul linguaggio come ChatGPT e i suoi equivalenti a causa di una decodifica inappropriata del trasformatore (modello di machine learning). Utilizzando una sequenza codificatore-decodificatore (input-output), un trasformatore in AI è un modello di deep learning che utilizza l’autoattenzione (connessioni semantiche tra le parole in una frase) per creare testo che assomiglia a quello che scriverebbe un essere umano.

Per quanto riguarda l’allucinazione, se un modello di linguaggio fosse addestrato su dati e risorse adeguati e accurati, ci si aspetterebbe che l’output fosse inventato e sbagliato. Il modello di linguaggio potrebbe produrre una storia o una narrazione senza lacune illogiche o collegamenti ambigui.

Modi per Identificare le Allucinazioni dell’AI

Un sottoinsieme dell’intelligenza artificiale, la visione artificiale, mira ad insegnare ai computer come estrarre dati utili dall’input visivo, come immagini, disegni, film e vita reale. Sta addestrando i computer a percepire il mondo come lo fa un essere umano. Tuttavia, poiché i computer non sono persone, devono fare affidamento su algoritmi e schemi per “capire” le immagini anziché avere un accesso diretto alla percezione umana. Di conseguenza, un’AI potrebbe non essere in grado di distinguere tra patatine e foglie che cambiano colore. Questa situazione supera anche il test del buon senso: rispetto a ciò che un essere umano è probabilmente incline a vedere, un’immagine generata da un’AI risulta sempre meno credibile. Naturalmente, ciò diventa sempre più difficile man mano che l’AI diventa più avanzata.

Se l’intelligenza artificiale non venisse rapidamente incorporata nella vita quotidiana, tutto ciò sarebbe assurdo e divertente. Le auto a guida autonoma, dove le allucinazioni possono causare incidenti mortali, impiegano già l’AI. Anche se non è ancora successo, confondere gli oggetti durante la guida nel mondo reale è una calamità in attesa di accadere.

Ecco alcune tecniche per identificare le allucinazioni dell’AI quando si utilizzano applicazioni di AI popolari:

1.   Grandi Modelli di Elaborazione del Linguaggio

Gli errori grammaticali nelle informazioni generate da un grande modello di elaborazione, come ChatGPT, sono rari, ma quando si verificano, bisogna essere sospettosi di allucinazioni. Allo stesso modo, bisogna essere sospettosi di allucinazioni quando il contenuto generato dal testo non ha senso, non si adatta al contesto fornito o non corrisponde ai dati di input.

2.   Visione Artificiale

L’intelligenza artificiale ha un sottocampo chiamato computer vision, machine learning e informatica che consente alle macchine di rilevare e interpretare le immagini in modo simile agli occhi umani. Si basano su enormi quantità di dati di addestramento visivo in reti neurali convoluzionali.

Si verificheranno allucinazioni se i modelli di dati visivi utilizzati per l’addestramento cambiano. Ad esempio, un computer potrebbe erroneamente riconoscere una palla da tennis come verde o arancione se non è stato istruito con immagini di palline da tennis. Un computer può anche avere un’allucinazione di intelligenza artificiale se interpreta erroneamente un cavallo accanto a una statua umana come un cavallo reale.

Confrontare l’output prodotto con ciò che ci si aspetta che un essere umano [normale] osservi aiuterà a identificare una delusione di computer vision.

3.   Auto a guida autonoma

Le auto a guida autonoma stanno guadagnando terreno nell’industria automobilistica grazie all’IA. Pionieri delle auto a guida autonoma come BlueCruise di Ford e Tesla Autopilot hanno promosso l’iniziativa. È possibile capire un po’ come l’IA alimenta le auto a guida autonoma osservando come e cosa percepire Tesla Autopilot.

Le allucinazioni colpiscono le persone in modo diverso rispetto ai modelli di IA. Le allucinazioni dell’IA sono risultati errati che sono notevolmente fuori allineamento con la realtà o non hanno senso nel contesto della richiesta fornita. Un chatbot di IA, ad esempio, può rispondere in modo grammaticalmente o logicamente errato o identificare erroneamente un oggetto a causa di rumore o di altri problemi strutturali.

Come le allucinazioni umane, le allucinazioni dell’IA non sono il prodotto di una mente conscia o subconscia. Invece, si verifica a causa dei dati inadeguati o insufficienti utilizzati per addestrare e progettare il sistema di IA.

I rischi dell’allucinazione dell’IA devono essere considerati, specialmente quando si utilizza l’output di IA generativa per decisioni importanti. Sebbene l’IA possa essere uno strumento utile, dovrebbe essere considerato come una prima bozza che gli esseri umani devono esaminare e convalidare attentamente. Con lo sviluppo della tecnologia dell’IA, è cruciale utilizzarla in modo critico e responsabile, essendo consapevoli dei suoi svantaggi e della sua capacità di causare allucinazioni. Prendendo le precauzioni necessarie, si possono utilizzare le sue capacità preservando l’accuratezza e l’integrità dei dati.