Una fascia frontale che funge da guida

Ricercatrici e ricercatori della Johns Hopkins University negli Stati Uniti hanno sviluppato un sistema di navigazione in grado di elaborare in tempo reale diversi tipi di dati provenienti da sensori. Ciò consente alle persone ipovedenti di orientarsi con maggiore precisione e sicurezza nell’ambiente circostante.

Peter Jankovsky, Comunicazione Retina Suisse, peter.jankovsky@retina.ch

I sistemi di navigazione esistenti che si basano sulle impressioni visive per orientarsi forniscono per ovvie ragioni solo un feedback visivo minimale. Questo non è sufficiente per consentire alle e agli utenti di muoversi in modo sicuro e indipendente nel loro ambiente.

Una constatazione che ha ispirato un gruppo di ricerca di Baltimora, negli Stati Uniti, ad apportare un enorme miglioramento. Nel corso del 2024, le ricercatrici e i ricercatori dell’Applied Physics Laboratory della Johns Hopkins University hanno integrato il feedback rudimentale con ulteriori impressioni aptiche, visive e uditive al fine di creare un sistema di navigazione più completo.

Il modello, notevolmente perfezionato, si avvale su larga scala anche dell’intelligenza artificiale (IA). Mappa gli ambienti, traccia la posizione dell’utente e può quindi guidarlo in tempo reale.

L’intelligenza artificiale elabora anche i dati provenienti dai sensori di profondità e dai canali rosso, verde e blu utilizzati nei sensori di immagine per acquisire informazioni visive. Ciò consente di creare in pochi secondi mappe dettagliate e interpretate dell’ambiente circostante. Ciò consente al sistema di navigazione non solo di riconoscere gli ostacoli, ma anche di identificare determinati oggetti e le loro proprietà.

Interpretare l’ambiente

In un rapporto della Johns Hopkins University le ricercatrici e i ricercatori sottolineano che grazie a questa funzionalità, le e gli utenti del sistema di navigazione possono porre domande su oggetti o caratteristiche specifiche dell’ambiente circostante e ricevere risposte in tempo reale. La navigazione risulta così più intuitiva ed efficace.

«Ciò che rende questo sistema particolarmente innovativo è la sua capacità di migliorare in modo significativo l’interpretabilità dell’ambiente per le e gli utenti», ha dichiarato il ricercatore principale Nicolas Norena Acosta, ingegnere software per la ricerca robotica.

Secondo lui, i sistemi di navigazione convenzionali per ipovedenti sono programmati spesso su una semplice mappatura basata su sensori: questa distingue solo tra stanze «occupate» e «non occupate». Tuttavia, il nuovo approccio di mappatura interpretativa offre una comprensione molto più ampia dell’ambiente e consente interazioni di alto livello tra esseri umani e computer.

Vibrazioni, annunci vocali, rumori

Il feedback aptico del sistema di navigazione gestito dall’intelligenza artificiale avviene tramite una fascia frontale appositamente sviluppata. Questa vibra in vari punti per indicare la posizione degli ostacoli o il percorso che l’utente deve seguire.

Ad esempio, se il percorso prevede di svoltare a destra, vibra il lato destro della fascia frontale. Il feedback uditivo collegato utilizza annunci vocali e suoni spaziali per comunicare indicazioni e avvertimenti concernenti l’ambiente.

Gli input sensoriali combinati per il sistema vengono anche convertiti in un feedback visivo, che migliora la capacità dell’utente di recepire gli ostacoli e di muoversi in sicurezza. Il sistema fornisce una visione chiara e semplificata dell’ambiente circostante, evidenziando automaticamente solo le informazioni più importanti, cioè quelle effettivamente necessarie per evitare gli ostacoli e muoversi in sicurezza.

«La sfida consisteva nello sviluppare un sistema in grado di sincronizzare ed elaborare in tempo reale diversi tipi di dati provenienti dai sensori», spiega l’ingegnere Norena Acosta. L’integrazione precisa di feedback visivi, aptici e uditivi richiede algoritmi sofisticati, una robusta potenza di calcolo e una tecnologia IA avanzataA.

Miglioramento della qualità di vita

Le e gli scienziati prevedono che questo sistema possa migliorare le capacità delle protesi retiniche commerciali. Un ausilio di navigazione robusto e intuitivo come questo ha il potenziale d’incrementare in modo significativo l’indipendenza e la mobilità delle e dei suoi utenti.

«Il potenziale impatto di questo lavoro sulle e sui pazienti è significativo», sottolinea Seth Billings, un altro dei ricercatori a capo del progetto. Il sistema potrebbe portare a una maggiore inclusione sociale e partecipazione alle attività quotidiane per le persone colpite, migliorando significativamente la loro qualità di vita.

Fonti:
Johns Hopkins University/Applied Physics Laboratory
biermann-medizin.de vom 15.07.2024

×