En cours de chargement...

Google bientôt prêt à reconnaître la langue des signes

Publié le 3 septembre 2019

Google avance significativement sur un projet de détection de la langue des signes. Encore à l’état de projet, cette initiative qui s’avère très complexe pourrait prochainement voir le jour pour libérer la communication entre les personnes muettes, malentendantes et les autres. La langue des signes est relativement complexe à apprendre et la rareté de son apprentissage tend à isoler les individus souffrant de ce handicap.

Google avait déjà démontré sa volonté d’aider les personnes sourdes, muettes et malentendantes, avec une série d’applications leur permettant notamment de retranscrire automatiquement et en temps réel par écrit toutes les conversations orales qui sont captées par le microphone du téléphone.

À présent, le géant du web fait un pas de plus dans cet accompagnement et développe une solution capable de détecter et de comprendre la langue des signes. Si à ce jour la technologie n’est pas encore totalement au point, le groupe américain fait des progrès considérables en ce sens.

Être en mesure d’identifier par vidéo la langue des signes est un véritable défi pour les chercheurs de Google. Contrairement à la reconnaissance faciale, ce n’est pas une image à un instant précis qui est analysée, mais une série de mouvements des mains et des doigts, ainsi que les séquences complètes (début, dénouement, fin) de ces mouvements. Les équipes ont également décidé d’intégrer d’autres paramètres comme les expressions du visage et les mouvements de tête afin d’être au plus près du dialogue et des émotions retransmises. Une combinaison qui s’avère donc très complexe à analyser, à la fois pour un novice, mais aussi pour une machine.

Dans un billet publié sur le blog de Google dédié à l’IA, les ingénieurs en charge de ce projet, Valentin Bazarevsky et Fan Zhang, apportent quelques précisions quant à leurs avancées.

Une élaboration d’IA titanesque

Tout doit être pris en compte pour interpréter le dialogue le plus fidèlement possible. Toutefois, le nombre de paramètres et parfois la vitesse d’exécution de ces gestes, leur légère déviation d’une personne à l’autre, complexifie énormément son appréhension par une intelligence artificielle. Selon les chercheurs, le chevauchement, ou encore l’inclinaison des mains et leur complémentarité en tant que duo agissant de concert est la partie la plus difficile à faire analyser par l’IA. Il est en effet plutôt difficile de faire discerner à la caméra, profondeur, mouvement fluides et vue de face ou de dos des mains.

Les chercheurs ont déterminé 21 points clés permettant de reconstituer l’essentiel de ces paramètres. Leur programme est composé de plusieurs modèles fonctionnant conjointement : un pour détecter la paume, un pour reconstituer en 3D la main avec les points principaux et un dernier qui perçoit les gestes.

Les résultats obtenus sont probants, mais encore jugés insuffisants pour Google. Toutefois, les recherches se poursuivent afin de pouvoir un jour rassembler toutes les personnes, quel que soit leur handicap, et réduire l’isolement induit par les difficultés de communication.

Source : Google blog

Commentaire

Vous devez être connecté pour pouvoir commenter

Nos recommandations
Article Détection d'un faille de sécurité majeure sur des millions …

Publié le 3 septembre 2019Des failles de sécurité interviennent régulièrement dans le …

Article Des images promo du Huawei Mate 30 Pro fuitent et révèlent …

Publié le 27 août 2019Prévu en principe pour octobre, des images promotionnelles du …

Article Spéciale rentrée : notre sélection d’applications sportives

Publié le 27 août 2019La reprise est proche et si l’été était synonyme de doigts de pieds …