Ricercatori dell’UCSF e dell’UC Berkeley hanno sviluppato un’interfaccia cervello-computer (BCI) che ha permesso a una donna con una grave paralisi da un ictus al tronco cerebrale di parlare attraverso un avatar digitale

Ricercatori dell'UCSF e dell'UC Berkeley hanno sviluppato un'interfaccia cervello-computer (BCI) per far parlare una donna paralizzata da un ictus attraverso un avatar digitale.

L’intelligenza artificiale svolge un ruolo cruciale al giorno d’oggi nel riconoscimento facciale e vocale. Questi segnali provenienti dal volto e dalla voce vengono registrati e sintetizzati dai segnali cerebrali, il che consente un uso drastico dell’IA. La tecnologia può anche codificare e decodificare questi segnali in testo a un tasso notevolmente più alto, rendendo il sistema ancora più potente. Queste tecniche sono ancora nuove per l’IA diagnostica, ma nonostante ciò, l’IA ha fornito risultati fantastici per il riconoscimento vocale. Queste tecniche di riconoscimento facciale e vocale rientrano in una vasta categoria di Elaborazione del Linguaggio Naturale. I ricercatori sono ancora alla ricerca di un’IA in grado di abilitare il riconoscimento facciale e vocale per le persone con paralisi.

I ricercatori dell’UC San Francisco e dell’UC Berkeley hanno sviluppato un’Interfaccia Cervello-Computer. Viene anche chiamato un cervello intelligente ed è un percorso di comunicazione diretta tra gli impulsi elettrici del cervello e un dispositivo esterno, che molto probabilmente è un robot o un chatbot di intelligenza artificiale. Ha dimostrato risultati come ad esempio una donna con paralisi può persino parlare con l’avatar digitale. Questi ricercatori hanno l’obiettivo di incorporare un sistema di comunicazione efficace, che è il modo più naturale per comunicare con gli altri. L’IA ha dato una soluzione ai pazienti che subiscono una paralisi o non sono in grado di parlare. I ricercatori hanno implementato un elettrodo a forma di rettangolo sulla superficie della donna, che è fondamentale per il riconoscimento vocale. Questi elettrodi implementano i segnali cerebrali o gli impulsi che viaggiano lungo il suo corpo, rendendo le sue riconoscenze facilmente disponibili per lei. I ricercatori hanno addestrato il modello e migliorato gli algoritmi di intelligenza artificiale che il sistema utilizzava, migliorando l’accuratezza del sistema. Ciò ha comportato anche l’iterazione di diverse frasi più e più volte e l’utilizzo di un modello bag-of-words di Elaborazione del Linguaggio Naturale nel sistema. I ricercatori hanno anche addestrato il modello di IA in modo tale da poter riconoscere ed codificare anche queste parole in fonemi. Ciò ha migliorato l’accuratezza del sistema e l’ha reso più veloce rispetto al passato.

I ricercatori hanno sviluppato un algoritmo per generare la sua voce utilizzando la sua voce registrata dal suo matrimonio. Il suono ha alcuni difetti, ma successivamente i ricercatori hanno lavorato per migliorare la qualità della voce generata in precedenza. Questi ricercatori hanno anche sviluppato un avatar digitale che ha aiutato la donna nel riconoscimento facciale. I ricercatori hanno anche creato un modello di apprendimento automatico che può unire l’avatar con i segnali cerebrali della donna. Ha registrato ogni movimento della sua mascella, labbra, lingua, bocca e di ogni altro organo.

I ricercatori stanno ancora lavorando su questa configurazione per una connessione wireless tra il corpo umano e il software. Questa sarebbe la prossima versione di questo modello. Il principale vantaggio di questo modello sarebbe il contatto non diretto. Vari algoritmi di apprendimento profondo sono ancora oggetto di lavoro in questo modello wireless. Sono stati effettuati test di iperparametri per migliorare l’efficienza del modello.