Le développement de voitures autonomes a soulevé de nombreuses questions, y compris le problème délicat des systèmes autonomes qui prennent de potentielles décisions en matière de vie ou de mort. Les véhicules autonomes devraient-ils protéger leurs propriétaires à tout prix, ou devraient-ils les sacrifier pour sauver un plus grand nombre de personnes? Bien qu’il n’y ait pas de réponse concrète, une équipe de recherche en Allemagne affirme que la morale pourrait bientôt jouer un rôle dans la façon dont les voitures autonomes prennent des décisions.
La connaissance commune suggère que la morale humaine dépend trop du contexte pour une modélisation précise, ce qui signifie qu’elle ne peut pas être intégrée efficacement dans un algorithme de voiture auonome. Les chercheurs de l’Université d’Osnabrück en Allemagne suggèrent que ce n’est pas le cas.
En réalité virtuelle, les participants à l’étude ont été invités à conduire une voiture dans les rues de banlieue d’une nuit brumeuse. Sur leurs trajets virtuels, on leur a présentés le choix de heurter des objets inanimés, des animaux ou des humains dans un accident inévitable. Les décisions ultérieures ont été modélisées et transformées en un ensemble de règles, créant un modèle de «valeur de la vie» pour tout objet humain, animal et inanimé susceptible d’être impliqué dans un accident.
« Maintenant que nous savons comment mettre en œuvre les décisions éthiques humaines dans les machines, nous, en tant que société, avons encore un double dilemme », explique le professeur Peter König, auteur du papier. « Tout d’abord, nous devons décider si les valeurs morales devraient être incluses dans les lignes directrices pour le comportement de la machine et deuxièmement, si elles le sont, les machines doivent-elles fonctionner comme les humains? »
Le ministère fédéral allemand des Transports et de l’Infrastructure numérique a récemment défini 20 principes éthiques pour les voitures autonomes, mais ils reposent sur l’hypothèse que la morale humaine ne peut être modélisée. Ils font également des affirmations audacieuses sur la façon dont les voitures devraient agir, arguant qu’un enfant qui court sur la route serait moins «qualifié» pour être sauvé qu’un adulte sur le sentier qui regarde, car l’enfant a créé le risque. Bien que logique, ce n’est pas nécessairement ce qu’un humain répondrait à la même situation.
Alors, quelle est la bonne approche? L’étude de l’Université d’Osnabrück n’offre pas de réponse définitive, mais les chercheurs soulignent que le «nombre d’incidents précis où le jugement moral entre en jeu crée une nécessité pour les systèmes décisionnels éthiques dans les voitures autonomes». Et ce ne sont pas seulement les voitures dont nous devons réfléchir. Les systèmes et les robots d’IA devront de plus en plus assumer des responsabilités dans d’autres environnements potentiels de vie et de décès, tels que les hôpitaux, de sorte que cela semble être une bonne idée de leur donner un cadre moral et éthique.
https://www.sciencedaily.com/releases/2017/07/170705123229.htm
http://journal.frontiersin.org/article/10.3389/fnbeh.2017.00122/full