Des chercheurs de l’université américaine Johns Hopkins ont développé un système de navigation qui traite plusieurs types de données captées en temps réel. Les personnes malvoyantes peuvent ainsi s’orienter de manière plus précise et plus sûre dans leur environnement.
Peter Jankovsky, responsable de la communication Retina Suisse, peter.jankovsky@retina.ch
Les systèmes de navigation actuels, qui exercent la fonction d’orientation des yeux, n’offrent qu’un feedback visuel minimal. Celui-ci ne suffit pas aux utilisateurs et utilisatrices pour se déplacer de manière sûre et indépendante dans leur environnement.
Ce constat a incité une équipe de chercheurs de Baltimore aux États-Unis à procéder à une massive amélioration. Au cours de l’année 2024, les chercheurs de l’Applied Physics Laboratory de l’université Johns Hopkins ont complété le feedback rudimentaire par des entrées haptiques, visuelles et auditives supplémentaires afin de créer un système de navigation plus complet.
Le modèle nettement amélioré fait appel à l’intelligence artificielle (IA) à grande échelle. Elle reproduit les environnements, suit la position de la personne qui l’utilise et peut ainsi la guider en temps réel.
L’IA traite également les données des capteurs d’imagerie de profondeur et des canaux rouge, vert et bleu qui servent à saisir les informations visuelles dans les capteurs d’images. Il est ainsi possible de créer en quelques secondes des cartes détaillées et interprétées de l’environnement. Le système de navigation est ainsi en mesure de détecter non seulement les obstacles, mais aussi d’identifier certains objets et leurs caractéristiques.
Interpréter l’environnement
Dans un rapport de l’université Johns Hopkins, les chercheurs soulignent que grâce à cette capacité, les utilisatrices et les utilisateurs du système de navigation pourraient poser des questions en temps réel sur des objets ou des caractéristiques spécifiques dans leur environnement et obtenir une réponse. Cela rend la navigation plus intuitive et plus efficace.
« Ce qui rend ce système particulièrement innovant, c’est sa capacité à améliorer considérablement l’interprétabilité de l’environnement pour les utilisateurs », a déclaré le directeur de recherche, Nicolas Norena Acosta, un ingénieur logiciel spécialisé dans la recherche en robotique.
Selon lui, les systèmes de navigation traditionnels pour les malvoyants s’appuient souvent sur une simple cartographie basée sur des capteurs qui ne distingue que les espaces « occupés » et « inoccupés ». La nouvelle approche de cartographie interprétative offre cependant une compréhension beaucoup plus complète de l’environnement et permet des interactions de haut niveau entre l’homme et l’ordinateur.
Vibrations, annonces vocales, bruits
Le retour haptique du système de navigation articulé par IA est assuré par un bandeau frontal spécialement conçu à cet effet. Celui-ci vibre à différents endroits pour indiquer la position des obstacles ou le chemin que l’utilisatrice ou l’utilisateur doit suivre.
Par exemple, si le chemin tourne à droite, le côté droit du bandeau vibre. Le retour auditif connecté utilise des messages vocaux et des sons spatiaux pour transmettre des indications et des avertissements sur l’environnement.
Les entrées sensorielles combinées pour le système sont également converties en un retour visuel qui améliore la capacité des utilisateurs à percevoir les obstacles et à se déplacer en toute sécurité. Le système offre une vision claire et simplifiée de l’environnement en ne mettant en évidence que les informations les plus importantes, c’est-à-dire celles dont on a réellement besoin pour éviter les obstacles et se déplacer en toute sécurité.
« Le défi consistait à développer un système capable de synchroniser et de traiter plusieurs types de données de capteurs en temps réel », explique l’ingénieur logiciel Nicolas Norena Acosta. Selon lui, l’intégration précise du feedback visuel, haptique et auditif nécessite des algorithmes sophistiqués, une puissance de calcul robuste et des techniques d’IA avancées.
Amélioration de la qualité de vie
Les scientifiques s’attendent à ce que ce système puisse améliorer les capacités des prothèses rétiniennes commerciales. Une aide à la navigation robuste et intuitive comme celle-ci a le potentiel d’augmenter considérablement l’indépendance et la mobilité de ses utilisateurs.
« L’impact potentiel de ce travail sur les patients est considérable », souligne Seth Billings, un autre chercheur responsable du projet. Le système pourrait conduire à une plus grande intégration sociale et à une participation des personnes concernées aux activités quotidiennes et donc à une sensible amélioration de leur qualité de vie.
Sources :
Johns Hopkins University/Applied Physics Laboratory
biermann-medizin.de vom 15.07.2024