Accessibilità e Inclusione attraverso la Tecnologia

Accessibilità e Inclusione grazie alla Tecnologia

Credit: WeWalk

Significativi miglioramenti nella tecnologia negli ultimi anni hanno creato strumenti assistivi e servizi più avanzati che consentono alle persone con disabilità sensoriali di condurre una vita più indipendente e appagante. Sebbene ci sarà sempre la necessità di dispositivi assistivi tradizionali come le canne bianche, i segnali Braille per i non vedenti o i servizi di sottotitolazione per gli ipoudenti, questi nuovi dispositivi, app e approcci tecnologici sottostanti stanno contribuendo a creare un mondo più inclusivo.

Il numero di persone che traggono beneficio dagli miglioramenti tecnologici alle tecnologie assistive è notevole. Secondo l’Agenzia Internazionale per la Prevenzione della Cecità, nel 2021 nel mondo vivono 43 milioni di persone non vedenti. Nel frattempo, la perdita dell’udito colpisce attualmente più di 1,5 miliardi di persone nel mondo, di cui 430 milioni presentano una perdita dell’udito moderata o grave nell’orecchio con migliore udito, secondo il Rapporto Mondiale sull’Udito, pubblicato nel 2021 dall’Organizzazione Mondiale della Sanità. Inoltre, la Fondazione Wheelchair ha identificato oltre 131 milioni di persone nel mondo che necessitano di una sedia a rotelle.

Le tecnologie assistive sono generalmente progettate per consentire alle persone con disabilità sensoriali di comunicare più facilmente con gli altri, acquisire informazioni tramite modalità alternative o navigare in modo più facile e indipendente negli spazi fisici. Le soluzioni più efficienti sono in grado di servire anche come soluzioni completamente inclusive che soddisfano le esigenze sia delle persone con disabilità sensoriali che della popolazione generale.

Torna all’inizio

Comunicare in modo fluido in privato

Un principio fondamentale sottostante alla tecnologia assistiva odierna è consentire una maggiore indipendenza senza richiedere un intervento attivo da parte di persone o altre tecnologie di terze parti che creano attrito ed inefficienza. Un esempio è Nagish, un’applicazione mobile che converte le chiamate telefoniche audio in testo in tempo reale. Nagish ha creato un’applicazione mobile che converte il testo in voce e la voce in testo in tempo reale, in modo che un interlocutore possa digitare e leggere mentre l’altro interlocutore ascolta e parla, senza richiedere un traduttore umano da nessuna delle due parti della conversazione. Il servizio utilizza una combinazione di elaborazione del linguaggio naturale e motori di sottotitolazione sviluppati internamente per fornire conversioni in tempo reale, con un tasso di precisione superiore al 96%.

uf1.jpg Figura. Un ragazzo che ha subito una perdita totale della vista utilizza OrCam MyEye 2 per interpretare il testo scritto e leggerlo ad alta voce.

“Se sei sordo, hai essenzialmente tre opzioni, ma tutte prevedono una persona in mezzo che traduce tra te e una persona che sente,” dice Tomer Aharoni, co-fondatore e CEO di Nagish. “Quindi che si tratti di una conversione da testo a voce o da voce a testo, di questi servizi scritti a mano o dei servizi di video-relay, che sono interpreti di lingua dei segni che traducono tra lingua dei segni e voce, non hai la possibilità di avere una conversazione privata. E noi volevamo cambiare questo.”

Per massimizzare la precisione, Nagish incorpora anche tecnologie di sottotitolazione esterne e fornisce agli utenti la possibilità di evidenziare parole o frasi su una trascrizione che sono state trascritte in modo errato. Dice Aharoni: “Non accediamo alle sottotitolazioni o usiamo trascrizioni delle chiamate per addestrare i nostri sistemi, ma abbiamo un insieme di euristici in atto per assicurarci che [i tassi di precisione] siano superiori a una certa soglia.”

Per le persone con problemi di vista, OrCam ha sviluppato MyEye, un dispositivo attivato dalla voce che si aggancia praticamente a qualsiasi occhiale e utilizza una fotocamera abbinata a tecnologie di intelligenza artificiale, inclusa la riconoscimento facciale e di oggetti e la comprensione del linguaggio naturale, per leggere il testo di un libro, dello schermo di uno smartphone o di qualsiasi altra superficie, nonché per riconoscere facce, identificare oggetti o trasmettere altre informazioni visive in modo uditivo, in tempo reale e offline. Ciò consente alle persone con problemi di vista di interagire e acquisire informazioni in qualsiasi luogo, anche in luoghi in cui non vengono utilizzati cartelli in Braille o segnali uditivi.

Torna all’inizio

Informazioni migliorate attraverso la tecnologia della mobilità intelligente

Altri sviluppatori di tecnologie sono concentrati sul miglioramento della capacità di aiutare le persone con disabilità sensoriali a navigare autonomamente negli spazi pubblici, aggiungendo funzioni avanzate ai tradizionali bastoni bianchi o tramite l’utilizzo di applicazioni smartphone assistite dall’IA.

WeWALK (wewalk.io/en) è un dispositivo intelligente che si attacca a un bastone bianco tradizionale e utilizza un sensore ad ultrasuoni per rilevare oggetti al di sopra del livello del petto. Quando viene abbinato all’applicazione mobile WeWALK tramite Bluetooth, l’utente può interagire con le applicazioni mobili utilizzando il touch-pad integrato di WeWALK, senza tenere il telefono in mano. Attualmente, WeWALK è integrato con Google Maps e Amazon Alexa, e l’azienda ha annunciato una partnership nel 2021 con l’API di trasporto pubblico di Moovit ( https://moovitapp.com/nycnj-121/poi/en ), che consente agli utenti di ricevere le migliori informazioni di percorso per ogni viaggio basate su dati crowdsourced, in modo che gli utenti ipovedenti possano navigare in modo sicuro verso, su e da mezzi di trasporto pubblico.

Gli sviluppatori di tecnologie si stanno concentrando sul miglioramento della capacità di aiutare le persone con disabilità sensoriali a navigare autonomamente negli spazi pubblici.

Lo SmartCane ( https://assistech.iitd.ac.in/smartcane.php ), un prodotto assistivo sviluppato da Assistech, un laboratorio fondato nel 2007 presso l’Indian Institute of Technology Delhi, è un altro dispositivo di rilevamento degli ostacoli che utilizza un sensore ad ultrasuoni senza contatto per avvisare gli utenti tramite vibrazione se si avvicinano a oggetti fino a tre metri di distanza, rispetto alla tipica limitazione di un metro di un bastone bianco tradizionale. Lo SmartCane, utilizzato da più di 100.000 persone, è particolarmente utile in India, dove è comune trovare animali randagi che condividono lo spazio con gli esseri umani, insieme ad altre tipiche situazioni di pericolo stazionario, come marciapiedi, rami bassi o biciclette o carrelli parcheggiati.

Altri ricercatori hanno adottato l’approccio di utilizzare la robotica per sostituire le soluzioni di orientamento tradizionali, come i cani guida. AlphaDog ( http://www.weilan.com/en/robots.html ) è un robot quadrupede sviluppato da Weilan, una startup con sede in Cina fondata nel 2019, che incorpora intelligenza artificiale, IoT, comunicazioni 5G, realtà virtuale, guida autonoma e tecnologie di intelligenza di gruppo. Il robot incorpora sensori che identificano e evitano gli ostacoli nell’ambiente; può essere programmato per navigare in ambienti familiari (ma potrebbe avere difficoltà nella navigazione e manovrabilità in ambienti sconosciuti).

Nel frattempo, l’azienda israeliana Seamless Vision ha sviluppato Buddy ( https://vimeo.com/425528955 ), un robot autonomo che utilizza una varietà di sensori per rilevare ostacoli fissi e dinamici situati all’interno di ambienti urbani. Mentre Buddy può guidare gli utenti verso luoghi conosciuti o mappati nelle aree metropolitane, è più adatto a superfici piane. Buddy è in grado di fornire solo informazioni di base sulle sue immediate vicinanze ed è limitato nella sua capacità di rilevare le intenzioni dell’utente.

Torna su

Integrazione di Navigazione e Informazioni

Per le persone con disabilità sensoriali, la capacità di spostarsi da un luogo all’altro in modo sicuro ed efficiente può essere integrata mediante l’utilizzo di applicazioni smartphone, che possono non solo fornire la posizione attuale dell’utente e percorsi sicuri (evitando ostacoli come scale, rampe o aree ad alta congestione), ma anche informazioni aggiuntive sui punti di interesse, come la posizione di servizi igienici pubblici, dettagli specifici sui servizi di vendita al dettaglio e la posizione di infrastrutture critiche, come uscite di emergenza.

NavCog ( https://apps.apple.com/us/app/navcog/id1042163426 ) è un’app per iPhone per la navigazione indoor che utilizza i beacon Bluetooth per fornire informazioni sulla posizione, mirata specificamente ad aiutare le persone con deficit visivi ad esplorare il mondo senza la vista. Collegando l’app a un database di back-end che contiene una mappa dell’edificio, insieme a punti di interesse, scale, scale mobili e altre caratteristiche, le app di navigazione possono fornire dati di navigazione verbale, descrizioni testuali e icone, e informazioni di percorso adattive e ottimizzate per garantire che le persone con disabilità possano navigare in sicurezza all’interno di un edificio o di una location. Questo è utile anche per le persone che non sono familiari con la disposizione degli edifici o luoghi complessi, come università, aeroporti, ospedali o distretti commerciali. Fino ad oggi, NavCog è stato testato in Giappone nell’area di Nihonbashi Muromachi (COREDO Muromachi), all’aeroporto internazionale di Narita e al Toyosu Civic Center, così come all’Allegheny General Hospital e all’Andy Warhol Museum, entrambi a Pittsburgh, PA.

I beacon Bluetooth vengono anche utilizzati per alimentare Evelity ( https://www.evelity.com ), un’app mobile disponibile per dispositivi iOS e Android che consente alle persone con disabilità sensoriali di accedere alle informazioni sulla posizione, alle informazioni sui punti di interesse e al supporto alla navigazione. A seconda delle esigenze dell’utente, l’interfaccia effettivamente utilizzata può essere diversa (i comandi vocali vengono utilizzati per le persone ipovedenti rispetto alle indicazioni testuali e alle icone per i sordi), ma la funzionalità finale mira costantemente ad aiutare l’utente a informarsi.

Le applicazioni per smartphone possono aiutare le persone con disabilità sensoriale a spostarsi da un luogo all’altro in modo sicuro ed efficiente.

L’installazione di un’app inclusiva come Evelity può beneficiare tutti i visitatori o utenti di un edificio che desiderano accedere a un’esperienza di navigazione più personalizzata, afferma Sylvain Denoncin, CEO dell’azienda. “Ad esempio, abbiamo effettuato un’installazione pilota per il sistema di trasporto metropolitano di Lione in Francia e hanno detto, ‘ok, è ottimo per le persone ipovedenti o per chi usa la sedia a rotelle'”, ricorda Denoncin. “Ma in termini di investimento, è vantaggioso perché sarà utile anche per i turisti perché l’app può funzionare nella loro lingua”, creando una migliore esperienza complessiva per i visitatori.

Nel frattempo, l’azienda britannica Waymap Ltd. ( https://www.waymap.com/en ) offre un’app mobile che evita l’uso dei beacon, invece si basa su un algoritmo proprietario basato su dispositivi e sensori per fornire una tecnologia di orientamento inclusiva basata sulla posizione, sia al chiuso che all’aperto nei suoi luoghi partner. Waymap si basa su disegni esistenti di design assistito al computer (CAD) di uno spazio e su un percorso fisico a 360 gradi utilizzando una scansione LiDAR (rilevamento e misurazione della luce) della struttura per identificare e mappare punti chiave di interesse, percorsi e corridoi, e qualsiasi altra caratteristica fisica che deve essere catturata, compresi i cambi di altezza o superficie e le aree restritte. Tutte le caratteristiche vengono quindi geolocalizzate per coordinate specifiche e vengono create nuove mappe inclusive che rispettano gli standard dell’Unione internazionale delle telecomunicazioni delle Nazioni Unite (ITU) e dell’Associazione tecnologica dei consumatori degli Stati Uniti (CTA), in particolare gli standard ITU-T F.921 e CTA-2076, che riguardano l’orientamento audio per persone ipovedenti e con bassa visione.

Successivamente, sfruttando i sensori standard incorporati nei telefoni cellulari (come la bussola interna, il contapassi e l’accelerometro), l’app determina la posizione di un individuo nello spazio. Un algoritmo proprietario all’interno dell’app misura dove si trova un utente rispetto al suo passo precedente, quindi calcola la probabilità di dove potrebbe essere il suo prossimo possibile passo, consentendo agli utenti di navigare all’interno di uno spazio in base ai dati di geolocalizzazione all’interno dell’ambiente (come la presenza di ostacoli o percorsi popolari verso punti di interesse).

“In pratica, il nostro algoritmo trasforma il tuo telefono in un dispositivo di navigazione preciso”, afferma Tom Pey, CEO e fondatore di Waymap. “Lo fa misurando dove ti trovi rispetto al tuo passo precedente, invece di misurare dove ti trovi rispetto a un satellite o a un beacon Bluetooth.” Con l’aumentare del numero di persone che utilizzano l’app, dice Pey, l’algoritmo continuerà a imparare i migliori percorsi e sarà sempre più bravo nel prevedere i percorsi e le rotte più probabili degli utenti verso specifici punti di interesse.

Waymap, che è stato implementato nel sistema di metropolitana di Washington, D.C., e si trova in fase di test di prova in sistemi di trasporto pubblico a Los Angeles, Singapore, Madrid, Spagna e Brisbane, Australia, è in grado di calcolare la posizione di un utente entro un singolo metro e, in termini di direzione, entro un angolo di 10 gradi. La stretta integrazione tra un edificio completamente mappato e l’app Waymap consente anche di tener conto di modifiche pianificate o non pianificate apportate dal personale dell’edificio o dal sistema di trasporto.

* Per approfondire

Come Beacon Wayfinding sta cambiando la navigazione interna https://bit.ly/3oCV3C7

Dati sulla cecità globale, International Agency for the Prevention of Blindness https://bit.ly/3N48Jaw

WeWALK: Bastone Intelligente Rivoluzionario per Ipovedenti https://www.youtube.com/watch?v=Rr9RaisO11E

Analisi delle Necessità di Carrozzine, Fondazione delle Carrozzine https://bit.ly/43QKOKP

Rapporto Mondiale sull’Audizione, Organizzazione Mondiale della Sanità https://www.who.int/publications/i/item/9789240021570

Torna in Alto

Autore

Keith Kirkpatrick è un direttore di ricerca presso il Futurum Group e ha sede a New York, NY, USA.

©2023 ACM  0001-0782/23/11

È consentito effettuare copie digitali o cartacee di parte o di tutto il presente lavoro per uso personale o in classe senza alcuna spesa purché le copie non siano fatte o distribuite a scopo di lucro o vantaggio commerciale e che le copie riportino questa avviso e la citazione completa sulla prima pagina. Il copyright di componenti di questo lavoro appartenenti ad altri che ACM deve essere rispettato. È consentita l’astrazione con riconoscimento. Per copiare diversamente, ripubblicare, distribuire sui server o ridistribuire in elenchi, è necessaria preventiva autorizzazione specifica e/o una tassa. Richiedi l’autorizzazione a pubblicare da o fax (212) 869-0481.

La Biblioteca Digitale è pubblicata dall’Association for Computing Machinery. Copyright © 2023 ACM, Inc.