Ricercatori dell’Università di Yokohama propongono VirSen1.0 un ambiente virtuale per ottimizzare lo sviluppo di sistemi di riconoscimento dei gesti umani basati su sensori.

Researchers at the University of Yokohama propose VirSen1.0, a virtual environment for optimizing the development of sensor-based human gesture recognition systems.

La tecnologia di riconoscimento dei gesti affronta sfide significative nella configurazione e posizionamento dei sensori, nell’interpretazione dei dati e nell’accuratezza dell’apprendimento automatico. Impostare efficacemente i sensori per catturare movimenti sottili, interpretare in modo affidabile i dati risultanti e garantire che gli algoritmi di apprendimento automatico riconoscano correttamente i gesti desiderati rimangono problemi persistenti. Queste problematiche non solo ostacolano le prestazioni ottimali, ma limitano anche l’ampia adozione dei sistemi basati sui gesti in diverse applicazioni.

Un team di ricercatori dell’Università di Yokohama, in Giappone, ha presentato un nuovo modello per il riconoscimento dei gesti umani computerizzato. Il lavoro discute lo sviluppo di un’interfaccia utente (UI) chiamata VirSen 1.0, che consente agli utenti di disporre interattivamente sensori ottici virtuali in uno spazio virtuale per progettare un sistema di stima dei gesti. Consente agli utenti di sperimentare con il posizionamento dei sensori e valutare il loro impatto sul riconoscimento dei gesti senza la necessità di sensori fisici.

I dati vengono raccolti per l’addestramento facendo eseguire un gesto desiderato a un avatar. I ricercatori discutono il lavoro correlato in simulatori per la gestione dei sensori, evidenziando l’unicità del loro approccio nella combinazione di situazioni, acquisizione dei dati e creazione del modello all’interno di un singolo strumento software. Viene utilizzato un classificatore Support Vector Machine (SVM) composto da una funzione kernel a base radiale a causa dell’impraticabilità di raccogliere una grande quantità di dati di addestramento. Lo studio evidenzia l’importanza dell’indicatore di contribuzione dell’importanza delle caratteristiche di permutazione (PFI) nell’identificare i posizionamenti dei sensori che comportano elevate percentuali di riconoscimento. Il PFI misura come le singole caratteristiche influenzano la previsione del modello organizzandole. Il PFI fornisce informazioni sulle caratteristiche, aiutando ad ottimizzare il posizionamento dei sensori durante il processo di tentativi ed errori.

Il sensore ottico in questa ricerca comprende un LED infrarosso e un transistor fotodetettore. L’acquisizione dei dati inizia quando i valori del sensore superano una soglia specifica rispetto al frame precedente. I gesti umani vengono registrati utilizzando Xsens, uno strumento di cattura del movimento che cattura sensori inerziali. Sono stati registrati sei gesti tridimensionali, tra cui accovacciarsi, saltare, piegarsi e alzare le mani. L’implementazione include una rappresentazione visiva dell’interfaccia del simulatore, che consente agli utenti di posizionare oggetti, raccogliere dati, visualizzare i valori dei sensori e valutare l’accuratezza con l’indicatore di contribuzione del PFI.

Il team di ricerca ha in programma di migliorare il simulatore, incluso ulteriori funzionalità per verificare i posizionamenti e i risultati passati, suggerire posizionamenti dei sensori in base all’indicatore di contribuzione del PFI. In futuro, gli autori prevedono di affrontare determinate limitazioni, tra cui la non considerazione dell’influenza dell’abbigliamento sull’accuratezza del riconoscimento, la mancanza di modellazione del rumore e degli errori dei sensori, la velocità di elaborazione e la restrizione dei target di riconoscimento.