EyeMU permet de contrôler nos smarthomes avec les yeux

Des chercheurs de l’université Carnegie Mellon de Pittsburgh ont mis au point un outil de suivi du regard appelé EyeMU. Cette technologie permet aux utilisateurs de contrôler les applications de leur smartphone avec leurs yeux et de simples gestes de la main. Aucun écran tactile n’est nécessaire.

EyeMU permet de contrôler nos smarthomes avec les yeux

EyeMU concurrence Look to Speak de Google

Pour créer EyeMU, le Future Interfaces Group, qui fait partie du Human-Computer Interaction Institute de l’école, a combiné un prédicteur de regard avec les capteurs de mouvement d’un smartphone pour permettre les commandes. Par exemple : Regardez une notification pour la verrouiller. Ensuite, faites glisser le téléphone vers la gauche pour la rejeter ou vers la droite pour y répondre. Vous pouvez également rapprocher le téléphone pour agrandir une image ou l’éloigner pour désactiver le contrôle du regard. Et cela laisse une main libre pour d’autres tâches, comme siroter son café au lait.

L’adaptation de Google, une application gratuite appelée Look to Speak, présentée récemment dans une publicité pour les Oscars, est une technologie de contrôle du regard développée pour les personnes handicapées. Essayez l’application pour Android et vous verrez comment les simples mouvements de la main d’EyeMU peuvent faire la différence.

« Les grandes entreprises technologiques comme Google et Apple se sont rapprochées de la prédiction du regard. » ; explique Chris Harrison, directeur du Future Interfaces Group. « Mais il ne suffit pas de regarder fixement quelque chose pour y arriver. La véritable innovation de ce projet réside dans l’ajout d’une deuxième modalité ; comme le fait de faire glisser le téléphone vers la gauche ou la droite, combinée à la prédiction du regard. C’est ce qui le rend puissant. Cela semble si évident rétrospectivement. »

Vers plus de prédictif

L’analyse et la prédiction du regard pour contrôler avec précision un smartphone ont été difficiles à obtenir. Andy Kong, étudiant en informatique à Carnegie Mellon, a écrit un programme qui se veut une alternative aux technologies commerciales de suivi du regard. Elle utilise la caméra d’un ordinateur portable pour suivre le regard de l’utilisateur. Puis contrôle le mouvement du curseur à l’écran. Ce programme a servi de base à EyeMU.

« Les téléphones actuels ne répondent que lorsque nous leur demandons des choses ; que ce soit par la parole, par des tapotements ou par des clics de bouton. » ; explique M. Kong. « Si le téléphone est largement utilisé aujourd’hui, imaginez combien il serait plus utile si nous pouvions prédire ce que l’utilisateur veut en analysant le regard ; ou d’autres données biométriques. »

A propos de l'auteur

Mathieu Carlier

Blogueur passionné (ou acharné) j'ai d'abord créé Deco Tendency puis Le Blog des Tendances, Drone Trend et enfin Le Blog Domotique.

Laisser un commentaire