Un robot est aussi bon que ses capteurs, de sorte que les chercheurs de l’Université de Stanford et de l’UC San Diego ont développé une nouvelle caméra «4D» qui améliore grandement la vision robotique. En tant que toute première caméra à objectif unique à large champ de vision et champ lumineux, le nouveau système utilise une lentille sphérique et des algorithmes avancés pour capturer des informations dans un champ de vision de 138 degrés pour permettre aux robots de non seulement naviguer, mais aussi de mieux comprendre leur environnement.
Depuis que les robots modernes ont commencé à émerger dans les années 1970, le problème de la façon dont de machines peuvent « voir » a été confronté aux ingénieurs. Au fil des années, diverses solutions ont été essayées, comme les caméras stéréoscopiques, l’imagerie laser, l’analyse des couleurs, le comptage des pixels et l’apprentissage profond. Maintenant, l’équipe de Stanford / UC San Diego se tourne vers un nouveau type de caméra utilisant des lentilles sphériques développées pour le programme CENtric Imaging with Computing Cameras (SCENICC) du DARPA.
Ces lentilles ont été produites pour fournir un champ de vision qui englobe près d’un tiers du cercle autour de la caméra pour créer des images à 360 degrés avec une résolution de 125 mégapixels par image vidéo. Dans la version originale, la caméra vidéo a utilisé des faisceaux de fibres optiques pour convertir les images sphériques en plans focaux plats. Cela a fonctionné, mais c’était aussi coûteux.
La nouvelle caméra dispense les faisceaux de fibres en faveur d’une combinaison de lentilles développées par l’UC San Diego et la technologie de traitement numérique du signal et de la photographie de champ lumineux de Stanford, ce qui selon l’équipe, donne à la caméra une «quatrième dimension».
Cette technologie de champ lumineux prend la direction de deux axes de la lumière entrant dans l’objectif et la mélange avec l’image 2D. Comme c’est le cas avec les caméras à champ lumineux grand public comme Lytro, cela signifie que l’image contient maintenant beaucoup plus d’informations sur la position et la direction de la lumière et permet de refocaliser les images après leur capture. En outre, cela permet à un robot de voir à travers des choses qui pourraient obscurcir leur vision, comme la pluie. La caméra est également en mesure d’améliorer les images en gros plan et de mieux distinguer les distances d’objet et les textures de surface.
« Cela pourrait permettre à divers types de technologies artificiellement intelligentes de comprendre à quel point les objets sont éloignés, qu’ils se déplacent et ce quoi ils sont faits », explique Gordon Wetzstein, professeur d’ingénierie électrique à Stanford. « Ce système pourrait être utile dans n’importe quelle situation où vous avez un espace limité et vous voulez que l’ordinateur comprenne tout le monde qui l’entoure ».
La caméra est actuellement un dispositif de preuve de concept, mais les chercheurs pensent que lorsque la technologie sera mûre, cela aidera les robots à naviguer dans de petites zones, à faire atterrir des drones, aider les voitures autonomes et permettre à des systèmes de réalité virtuelle augmentée de produire un rendu intégral et intégré. La prochaine étape sera d’installer un prototype plus compact dans un robot réel.