En tant que piéton, il est parfois difficile de se frayer un passage dans des espaces publics très fréquentés. Alors imaginez les difficultés que rencontrent les utilisateurs de fauteuils roulants électriques... Mais pourquoi ne pas envisager un fauteuil muni de capteurs et utilisant un système de commande capable de s'adapter pour éviter les obstacles et offrir un pilotage autonome ? Les personnes concernées pourrait ainsi atteindre des niveaux d'indépendance inédits.

D'où l'intérêt des travaux menés par une équipe de recherche de l'université du Kent (Royaume-Uni) qui a décidé d'incorporer des dispositifs de commande et d'apprentissage à intelligence artificielle sophistiqués dans le système de pilotage d'un fauteuil roulant pour améliorer la qualité de vie des utilisateurs et leur permettre d’être plus indépendants :
 
 
L'équipe a mis au point un fauteuil roulant capable de se déplacer dans des espaces très étroits et d'éviter les obstacles en utilisant un système LiDAR (détection et estimation de la distance par laser) pour cartographier l'environnement. Le dispositif associe les signaux d'entrée produits par l'utilisateur et un certain niveau d'apprentissage par intelligence artificielle pour créer des algorithmes de commande. Le système prend en compte le style de pilotage de l'utilisateur, mais aussi des variables physiologiques comme le rythme cardiaque et le temps de réaction. Il peut ainsi déterminer le niveau de perception de l'environnement de l’utilisateur et lui apporter un niveau approprié d'autonomie.

La vidéo montre comment une personne peut piloter le fauteuil roulant grâce aux mouvements de sa tête et à une fonction d’oculométrie (enregistrement des mouvements oculaires). D'après le témoignage de l’utilisateur, le fauteuil roulant suit les mouvements de sa tête et pilote le fauteuil en fonction des déplacements. S'il tourne sa tête vers la gauche, le fauteuil tourne vers la gauche, et de même pour les mouvements vers la droite. Le procédé d'introduction d'une commande d'un utilisateur est très individualisé et dépend de ses capacités. Outre le suivi de la tête, il est également possible d'effectuer une commande en fonction de l'orientation de l'iris ou du nez.

Le développement du logiciel a fait appel aux langages C, C++ et Python. L'équipe a également utilisé les ressources offertes par le système d’exploitation ROS (Robot Operating System). Il comporte tout un éventail de bibliothèques de logiciel, de pilotes et d'outils pour les développeurs spécialisés dans la robotique. Pour ce projet, le système d'exploitation permet la liaison avec des partenaires de développement pour partager du code et maintenir son interopérabilité.