Crendo l’empatia artificiale

Creando l'empatia artificiale

Il cammino verso un comportamento empatico più realistico nei robot rimane lungo e accidentato. ¶ Credit: Ansira.com

È abbastanza difficile per gli esseri umani leggere le emozioni l’uno dell’altro e mostrare il giusto livello di empatia. Chiedere a una macchina di pensare, sentire e agire come una persona spinge i limiti dell’intelligenza artificiale (AI) attuale.

Eppure, al fine di progettare migliori robot di servizio, chatbot e sistemi AI generativi, è fondamentale infondere nei dispositivi informatici un senso di empatia, la capacità di capire cosa sta provando un’altra persona. Mentre gli attuali agenti artificiali possono simulare forme di base di compassione, essi stanno semplicemente rispondendo a parole chiave o altri segnali di base e restituendo risposte codificate.

Secondo Anthony G. Vaccaro, un ricercatore post-dottorato presso il Neuroendocrinology of Social Ties (NEST) Lab della University of Southern California, “I sistemi attuali sono carenti. C’è ancora molta strada da fare per raggiungere il punto in cui l’AI può rilevare i sentimenti e funzionare a un livello che offre costantemente l’empatia e la comprensione appropriata”.

Per il momento, “L’empatia delle macchine rimane un problema molto astratto”, afferma Joanna Karolina Malinowska, docente associato di filosofia presso l’Università Adam Mickiewicz in Polonia e membro del Cognitive Neuroscience Center dell’università. “Sviluppare sistemi in grado di comprendere indizi complessi sul comportamento umano, compresa l’ambivalenza e l’incertezza, è straordinariamente sfidante”.

Nessuna emozione di seconda mano

Cliccando su un chatbot online o interagendo con un robot di servizio, è probabile che ti imbatterai in un sistema che incorpora una forma di empatia; è fondamentale per guadagnare la fiducia delle persone. Tuttavia, mentre le parole che provengono dal dispositivo possono a volte suonare rassicuranti, questi sistemi “taglia unica” possono sembrare anche artificiosi e insinceri.

Il problema ha radici in una questione fondamentale: l’empatia è estremamente complessa e intricata. “Ci sono molti fattori che influiscono sull’empatia e su come le persone la percepiscono, inclusi ciò che preferiscono e come rispondono in diverse situazioni”, sottolinea Vaccaro. Purtroppo, l’IA di oggi non può adattarsi e regolarsi in base ai tratti individuali, come la preferenza per l’umorismo rispetto alle affermazioni che derivano dallo stesso evento.

Tentare di replicare l’intero spettro del pensiero e dei sentimenti umani è difficile perché, sebbene tutti gli esseri umani siano diversi, i robot devono operare con un insieme ristretto di dati codificati nel sistema, afferma Malinowska. Riconoscere ed interpretare parole in contesti diversi è già abbastanza complicato, ma questi sistemi devono anche fare i conti con le espressioni facciali e il linguaggio del corpo. “Anche i miglior sistemi oggi commettono frequentemente errori. Questo non sorprende, perché gli esseri umani commettono frequentemente errori nell’interpretare le emozioni degli altri”, spiega.

Non sorprende, quindi, che la linea tra un comportamento convincente e manipolativo nell’AI possa essere molto sottile. Alcune caratteristiche suscitano simpatia umana e possono rafforzare la tendenza di una persona a provare empatia per i robot, mentre altre possono accentuare la natura artificiale dell’interazione, portando potenzialmente a irritazione, paura, frustrazione, imbarazzo o persino aggressività da parte dell’utente”, afferma Malinowska.

Un problema sottostante è che gli esseri umani tendono a antropomorfizzare i sistemi robotici, osserva Malinowska. A volte è positivo, altre volte è un problema. Di conseguenza, abbinare il comportamento dei robot a una situazione o a un caso d’uso specifico può rivelarsi estremamente difficile. Ad esempio, un robot di supporto in un ospedale e un robot per la disattivazione di bombe interagiscono con gli umani in modi molto diversi – e gli utenti avranno reazioni molto diverse da identificare.

Questi robot dovrebbero anche evocare diverse emozioni nei loro utenti: i robot di assistenza possono, e in alcune situazioni dovrebbero, suscitare empatia, mentre nel caso dei robot militari questo è tipicamente indesiderabile. “Per evitare errori di progettazione e raggiungere gli obiettivi desiderati, dobbiamo capire i fattori sottostanti che guidano questo processo”, spiega Malinowska.

Lo scopo, quindi, è sviluppare algoritmi migliori, ma anche sistemi multimodali che non solo rispondono alle parole o al testo, ma incorporano anche la visione artificiale, il riconoscimento vocale e tonale e altri segnali radicati nella biologia umana. “Un’empatia artificiale migliore ruota attorno all’imitazione più accurata delle motivazioni che si trovano dietro il comportamento umano”, dice Vaccaro.

Oltre la ragione

Il mondo universitario e le aziende stanno procedendo con la creazione di robot di supporto emotivo, robot di servizio e altri strumenti per i bambini, gli adulti affetti da demenza e altri. Questi includono aziende come Groove X, che ha sviluppato un robot mobile con 50 sensori del valore di 2.825 dollari che mira a essere un compagno di casa, e Moxie, un robot sociale che aiuta i bambini con sfide sociali, emotive e di sviluppo.

Tuttavia, il percorso verso un comportamento empatico più realistico nei robot rimane lungo e accidentato. Sebbene gran parte dell’attenzione sia incentrata sulla creazione di modelli di linguaggio migliori, c’è anche una crescente attenzione allo sviluppo di intelligenza artificiale multimodale in grado di agire come i cinque sensi degli esseri umani. Per ora, riempire tutti i vuoti, compresi i dettagli del linguaggio e del linguaggio del corpo tra lingue e culture, rimane in qualche modo un “scatola nera”, afferma Malinowska.

Vaccaro ritiene che i metodi tradizionali di codificare il comportamento nei sistemi informatici abbiano troppe limitazioni, specialmente nelle aree “nebulose” come l’empatia. Ad esempio, se un robot guarda un video di una persona che prova dolore dopo una caduta e lo incorpora nel suo apprendimento, potrebbe imitare la reazione per connettersi con una persona. Tuttavia, una risposta del genere sembrerà probabilmente comica o assurda, perché un essere umano può dedurre che non c’è una vera empatia coinvolta.

Invece, il team di ricerca di Vaccaro ha esplorato l’idea di utilizzare l’apprendimento automatico per aiutare i sistemi a percepire cosa sta vivendo effettivamente una persona, con un’enfasi sulla vulnerabilità. Sebbene, per ora, sia impossibile far provare davvero al robot il dolore di una caduta, il dispositivo può almeno iniziare a decifrare ciò che sta accadendo e come una persona interpreta le sensazioni. “È un modo per far sì che i sistemi di intelligenza artificiale diventino oggettivamente più intelligenti e riducano il rischio che un sistema si comporti in modo inaccettabile o antisociale”, osserva Vaccaro.

La mancanza di parole

Un’altra sfida consiste nel superare una dipendenza eccessiva dai sistemi di supporto emotivo. Ad esempio, un robot che fornisce supporto a pazienti affetti da demenza potrebbe offrire compagnia oltre che stimolazione cognitiva, dice Laurel Riek, professore di informatica e ingegneria presso l’Università della California, San Diego e direttrice del Laboratorio di Robotica Sanitaria dell’università.

Tuttavia, “Le persone possono diventare molto legate ai robot, soprattutto quando forniscono supporto sociale o terapeutico”, spiega Riek. Lo stesso robot potrebbe exacerbare un senso di isolamento sociale e introdurre rischi di sicurezza e di autonomia. Riek promuove il concetto di vie d’uscita per gli esseri umani. “Tutte le interazioni con un robot alla fine finiranno, quindi è importante assicurarsi che gli utenti siano parte del processo di creazione di un piano di uscita”.

Esistono anche altre preoccupazioni. Riek afferma che queste includono l’uso scorretto di approcci basati sull’empatia da parte di soggetti malintenzionati per ingannare e manipolare gli esseri umani, la soppressione degli operatori sanitari e di altri, e le preoccupazioni legate alla privacy dei dati, specialmente quando i dispositivi robotici vengono utilizzati per instaurare connessioni umane nell’ambito delle applicazioni sanitarie.

Ciononostante, il concetto di empatia artificiale nelle macchine senza dubbio progredirà. Conclude Malinowska: “Ci vorrà molto tempo prima che i sistemi robotici e l’intelligenza artificiale siano allo stesso livello degli esseri umani per quanto riguarda l’empatia artificiale. Ma continuiamo a comprendere e fare progressi”.

Samuel Greengard è un autore e giornalista con sede a West Linn, Oregon, Stati Uniti.