Les ingénieurs biomédicaux de l’Université de Newcastle donnent une nouvelle signification à la coordination œil-main en installant une caméra sur une main bionique. Conçue pour inaugurer une nouvelle génération de membres prothétiques plus intelligents, la main subissant des essais cliniques utilise une caméra grand public combinée avec de l’apprentissage machine pour permettre aux patients de saisir automatiquement des objets sans utiliser consciemment l’appareil.
Les membres prothétiques modernes ont parcouru une longue route depuis les crochets métalliques d’antan, mais ils ont encore pas mal de chemin à parcourir. Les générations actuelles sont des merveilles mécaniques qui utilisent des capteurs myoélectriques pour capter les impulsions électriques du moignon du bras du patient pour leur permettre de contrôler le mouvement de façon plus naturelle, mais ce n’est pas facile. En dépit de la robotique, de nouveaux servomoteurs et des systèmes de rétroaction, et l’aide d’une main artificielle, cela nécessite encore de la concentration, de la patience et de la pratique.
C’est parce que nous ne contrôlons pas tellement nos mains pour les commander. Pour voir ce que cela signifie, faites quelque chose de complètement ordinaire, comme ramasser une tasse de thé et regarder de près ce que fait votre main – la façon dont elle s’approche de la tasse, se concentre sur la poignée, déplace sa poignée et guide la tasse pendant qu’elle la soulève.
Pour une main normale, tout cela est automatique. Nous commandons simplement la main pour faire ce que nous voulons, et les parties inférieures du système nerveux central font le sale travail. Mais avec des mains prothétiques, le patient doit toujours lui dire quoi faire parce que même la main artificielle la plus sophistiquée est moins un membre et plus un outil qui nécessite des instructions étape par étape.
Ce que l’équipe de l’Université de Newcastle essaie de faire est de développer une main bionique qui utilise une caméra numérique peu coûteuse pour analyser les objets que le patient atteint, classer sa forme et sa taille et modifier sa prise appropriée. L’idée est que, au lieu que le patient contrôle la façon dont la main se déplace, c’est la prothèse qui effectue cette opération un peu comme une voiture avec un mode de stationnement automatique.
«Les membres d’une prothèse ont très peu changé au cours des 100 dernières années – le design est beaucoup mieux et les matériaux sont plus légers et plus durables, mais ils fonctionnent toujours de la même façon», explique le Dr Kianoush Nazarpour, chargé de cours en ingénierie biomédicale à l’Université de Newcastle. «En utilisant la vision par ordinateur, nous avons développé une main bionique qui peut répondre automatiquement – en fait, tout comme une main réelle, l’utilisateur peut toucher et ramasser une tasse ou un biscuit avec un regard rapide dans la bonne direction.
« La réactivité a été l’une des principales barrières des membres artificiels. Pour de nombreux amputés, le point de référence est leur bras ou une jambe saine, de sorte que les prothèses semblent lentes et encombrantes en comparaison. Pour la première fois depuis un siècle, nous avons développé une main » intuitive » qui peut réagir sans réfléchir».
La clé de la nouvelle main est l’apprentissage machine. Pour entrainer la main, on a créé ce qu’on appelle un réseau neuronal convolutionnel (CNN). Ce réseau d’intelligence artificielle a ensuite été formé à l’aide de 72 images, prises à des intervalles de cinq degrés, de plus de 500 objets saisissables, qui ont ensuite été séparés en quatre «classes de saisie» – pincée, trépied, poignet palmaire neutre et poignet palmaire prononcée. Après un réglage précis, elle a ensuite été testée en temps réel avec des objets d’entraînement et de nouveaux.
« Nous avons montré à l’ordinateur une image de, par exemple, un bâton », explique l’auteur principal de l’étude, Ghazal Ghazaei. « Mais pas seulement une image, de nombreuses images du même bâton à partir de différents angles et orientations, même sous différentes lumières et avec des arrière-plans différents, et finalement, l’ordinateur apprend de quelle prise il a besoin pour saisir le bâton. De sorte que l’ordinateur ne fait pas seulement correspondre une image, il apprend à reconnaître les objets et à les regrouper selon le type de saisie que la main doit effectuer pour les récupérer avec succès. C’est ce qui lui permet d’évaluer avec précision et de ramasser un objet qu’il n’a jamais vu auparavant – une énorme avancée dans le développement de membres bioniques « .
Concrètement, cela signifierait qu’en attachant une caméra à 1 € ou à peine plus à la main, les ingénieurs pourraient la programmer pour reconnaître un objet et sélectionner la prise appropriée pour le ramasser, comme la prise neutre du poignet de la main pour ramasser une tasse ou une prise de paume prononcée pour récupérer une télécommande de télévision. Tout aussi important, cela s’effectue en quelques millisecondes, ce qui selon l’équipe, est 10 fois plus rapide que les prothèses actuelles.
Les chercheurs disent que la nouvelle main est également plus souple que les systèmes alternatifs et plus capable de gérer des objets étranges sans s’appuyer sur une base de données géante d’images.
En collaboration avec les Hôpitaux de Newcastle upon Tyne NHS Foundation Trust, l’équipe fournit la main aux patients de l’hôpital Freeman de Newcastle. Cependant, la main bionique et sa caméra sont considérées comme une solution intermédiaire jusqu’à ce qu’une prothèse plus avancée puisse être construite qui inclut des capteurs sophistiqués et soit contrôlée directement par le cerveau du patient.
« C’est un tremplin vers notre objectif ultime », explique Kianoush Nazarpour. « Mais surtout, c’est bon marché et peut être mis en œuvre bientôt parce que cela ne nécessite pas de nouvelles prothèses, nous pouvons adapter celles que nous avons »
http://www.ncl.ac.uk/press/news/2017/05/handthatsees/#hp-banner
http://iopscience.iop.org/article/10.1088/1741-2552/aa6802