Une équipe de l’Université d’Anvers développe un interprète robotique de la langue des signes. La première version de la main du robot, baptisée Project Aslan, est principalement imprimée en 3D et peut traduire du texte en gestes dactylographiés, mais le but ultime de l’équipe est de construire un robot à deux bras avec un visage expressif, pour transmettre la complexité complète de la langue des signes.
Il y a eu un certain nombre de tentatives technologiques visant à combler le fossé entre les communautés entendantes et sourdes, y compris les gants intelligents et les dispositifs semblables à des tablettes qui traduisent des gestes en texte ou en audio, et même un robot qui signant en taille réelle de Toshiba.
Le projet Aslan (qui signifie «Antwerp’s Sign Language Actuating Node » ou « Nœud d’actionnement de la langue des signes d’Anvers») est conçu pour traduire du texte ou des paroles en langue des signes. Dans sa forme actuelle, le bras Aslan est connecté à un ordinateur qui, à son tour, est connecté à un réseau. Les utilisateurs peuvent se connecter au réseau local et envoyer des messages texte à Aslan. Dès lors, la main commencera à signer frénétiquement. Actuellement, il utilise un système alphabétique appelé fingerpelling (épellation digitale ou dactylangage), où chaque lettre individuelle est communiquée par un geste distinct.
La main du robot est composée de 25 pièces en plastique imprimées en 3D à partir d’une imprimante de bureau de niveau supérieur, plus 16 servomoteurs, trois contrôleurs de moteur, un micro-ordinateur Arduino Due et quelques autres composants électroniques. Les pièces en plastique nécessitent environ 139 heures pour être imprimer, tandis que l’assemblage final du robot en prend 10 autres.
La fabrication est gérée par un réseau global d’impression 3D baptisé Hubs 3D, conçu pour assurer la construction du robot n’importe où. Cette ambiance de bricolage ne doit pas non plus remplacer les interprètes humains: au lieu de cela, l’équipe considère cela comme une occasion d’aider les malentendants dans des situations où l’aide humaine n’est pas disponible.

Alors que la version actuelle ne peut que traduire le texte en signes « fingerpelling », l’équipe travaille à approfondir le système pour les versions futures, afin de communiquer des idées plus nuancées. En langage des signes, le sens est transmis par une combinaison de gestes de la main, de la posture du corps et des expressions faciales, de sorte que les chercheurs développent une configuration avec deux bras et il est prévu d’ajouter un visage expressif au système.
L’équipe essaie également de traduire des paroles dans la langue des signes et d’utiliser une webcam pour détecter les expressions faciales et d’enseigner de nouveaux gestes du robot, ce qui est actuellement réalisé par un gant électronique.