Les voitures autonomes arrivent. Les fabricants font la course en ce moment, en essayant de trouver un équilibrer entre les progrès, la sécurité publique et les règlements en constante évolution. En parallèle avec les grands acteurs, les tierces parties travaillent sur leurs propres kits qui peuvent être glissés dans essentiellement n’importe quelle voiture. Une de ces sociétés assure avoir créé le premier écosystème d’intelligence artificielle pour la conduite autonome indépendamment de l’emplacement, des styles de conduite locale ou des conditions météo.
AImotive, anciennement connu sous le nom d’AdasWorks, affirme avoir développé un système logiciel complet pour la conduite autonome. Contrairement à d’autres tierces parties et fabricants, la société n’a pas essayé de développer ses propres puces et matériel, au lieu de cela il a concentré son attention sur le logiciel nécessaire pour qu’une voiture se conduite elle -même.
La suite d’éléments constituant le système d’auto-conduite d’AImotive s’appelle aiDrive, qui se compose d’un moteur de reconnaissance, d’un moteur de localisation, d’un moteur de mouvement et d’un moteur de contrôle. Selon Niko Eiden, directeur des opérations chez AImotive, le moteur de reconnaissance est au cœur du fonctionnement du système d’auto-conduite de la société.
«Nous croyons que l’architecture centrale sera la condition essentielle pour les voitures autonomes», dit-il. «Parce que la quantité de données dont vous avez besoin venant de toutes les caméras est énorme, et avoir la caméra qui traite les données avec un système embarqué entre, alors la transmission des données vers une unité centralisée ne fonctionne tout simplement pas. Elle doit être en temps réel, nous devons être en mesure d’être sûr que les cadres que nous obtenons de chaque caméra émanent exactement au même moment … Si vous pouvez faire de la reconnaissance, vous pouvez faire le reste. »
Les caméras sont essentielles dans le système AImotive
Cette approche est essentielle afin d’être capable de fonctionner « dans le monde entier et par n’importe quel temps. » En d’autres termes, le système doit fonctionner sous toutes les conditions de conduite, entouré de conducteurs de tous types, et partout dans le monde.
Pour y parvenir, le moteur de reconnaissance prend des informations à partir de 6 et 12 caméras et les décompose en détails incroyablement fins. Bien qu’il puisse être mis en place pour gérer 100 différentes classes d’objets, la société en utilise actuellement seulement 25, qui couvrent tout, des piétons aux marques sur le sol et les sentiers. Pour chaque image prise depuis les caméras, le moteur est capable de créer une liste de ce qu’il voit – classe d’objet, sa distance et l’angle par rapport à la voiture, et sa taille.
Les informations du moteur de reconnaissance fonctionnent avec les données du moteur de localisation pour placer la voiture sur la route. Niko Eiden dit que le moteur de localisation est un système de navigation simple, comme le genre que vous trouveriez dans n’importe quelle voiture de navigation GPS, fournissant l’emplacement en temps réel de la voiture sur une carte pour le comparer avec les données de la caméra. Toutes les informations sur l’emplacement de la voiture, à la fois à partir des moteurs de reconnaissance et de localisation, sont ensuite transmises au moteur de mouvement.
«Il [le moteur de mouvement] commence à calculer le suivi, l’historique du chemin de chaque objet qu’il voit autour de lui. Il donne à l’objet une identification individuelle, puis il commence à calculer … sur cette base, de sorte que nous pouvons calculer le chemin futur de chaque Objet « explique Niko Eiden. «Une fois que vous avez tout – vous savez ce qui se passe autour de vous, où se trouve la voiture, et où vous voulez aller – le moteur de mouvement peut calculer l’étape suivante où nous voulons que la voiture soit. »
À partir de là, il s’agit simplement de faire des ajouts d’informations pour la direction, l’accélérateur et les freins. Cela semble simple, n’est-ce pas? Malheureusement, ce n’est pas si facile. La voiture doit répéter le processus décrit ci-dessus des centaines de fois chaque seconde. Sans erreur, sans mauvaise compréhension, sans rupture de communication. Ce n’est pas une tâche simple, mais AImotive est confiant.
Plutôt que d’être juste efficace sur les routes autour de Budapest, ou Mountain View en Californie, l’équipe d’AImotive veut que le système fonctionne partout dans le monde. Tout comme un Américain qui atterrit en Europe, il pourrait ne pas connaitre la langue ou les coutumes locales, mais il devrait toujours être capable de conduire sans être paniqué.
AImotive est basé sur la vision, ce qui signifie beaucoup de caméras
Au lieu de se concentrer sur le fait de gérer et couvrir des milliers de kilomètres de manière autonome et recueillir d’énormes quantités de données, une approche adoptée par Tesla et Google, AImotive a créé un moteur de jeu (vidéo) où une voiture simulée conduite par le système logiciel de la société peut être mise à l’épreuve. C’est un outil qui permet de tester le système 24 heures sur 24, sans mettre d’humains en danger.
Toute cette technologie ne sera pas enfermée/concentrée auprès d’un seul fabricant ou liée à un écosystème matériel, elle est conçue pour fonctionner avec des caméras et des puces de toute marque essentiellement, efforts possibles grâce au récent soutien d’un double réseau de réseaux neuronaux avec Khronos. AImotive veut faciliter le travail des fabricants de matériel, ou tout simplement des constructeurs automobiles en général, pour placer leurs logiciels dans leurs produits.
Selon la compagnie, c’est la première à permettre à un écosystème d’intelligence artificielle de fonctionner pour la conduite autonome indépendamment de l’emplacement, des styles de conduite locaux ou des conditions météo. Il est conçu pour être une technologie de niveau 5, ce qui signifie que les passagers ont simplement besoin d’entrer leur destination avant de se détendre dans l’habitacle.