Les trois lois de la robotique d’Isaac Asimov sont polyvalentes et assez simples au point qu’elles persistent encore 75 ans après leur première découverte. Mais notre monde actuel, où les robots et les agents d’IA nettoient nos maisons, conduisent nos voitures et travaillent à côté de nous, est très différent de celui que les auteurs de science-fiction les plus avancés pourraient imaginer. Pour s’assurer que les lignes directrices de la programmation de l’intelligence artificielle soient aussi larges que possible, les experts de l’Université de Hertfordshire ont détaillé un nouveau système qu’ils appellent «Empowerment» ou « Autonomisation »
Créée à l’origine comme une caractéristique de sécurité des robots dans les histoires spéculatives d’Asimov, les Trois lois sont élégantes dans leur simplicité. 1) Un robot ne peut pas nuire à un être humain, ou, par l’inaction, permettre à un être humain de nuire. 2) Un robot doit obéir aux ordres qui lui sont donnés par les êtres humains, sauf lorsque de tels ordres entreraient en conflit avec la Première Loi. 3) Un robot doit protéger sa propre existence tant qu’une telle protection n’entre pas en conflit avec la Première ou la Deuxième Loi.
Mais les chercheurs de Hertfordshire en Grande-Bretagne croient que ces lois ne couvrent pas toutes les nuances qui pourraient surgir dans la vie quotidienne d’un robot. Toute directive pour le comportement du robot doit être suffisamment générique pour s’appliquer à toute situation, mais suffisamment définie pour s’assurer que le robot agit toujours dans le meilleur intérêt d’eux-mêmes et des humains qui les entourent.
En tant que concept d’AI, Empowerment existe depuis 2005, et l’équipe l’a développé et raffiné au cours des 12 dernières années. En d’autres termes, la principale motivation d’un robot devrait être d’essayer de garder ses options ouvertes, et il devrait prendre des mesures qui laissent le plus possible d’options pour son prochain mouvement. Par extension, le robot devrait également agir pour maximiser l’autonomisation des humains qui l’entourent aussi.
Cela semble assez basique, mais les chercheurs disent que les agents agissant selon ce principe ont présenté un comportement étonnamment naturel. Encore mieux, ils doivent seulement avoir une compréhension de la dynamique globale du monde, sans devoir être programmés pour chaque scénario spécifique qui pourrait se produire.
Les trois lois ont été conçues pour s’assurer que les robots sont productifs sans se nuire à eux-mêmes, ni envers les humains, et Empowerment couvre ces mêmes points de base. Par exemple, blesser ou tuer un humain réduirait évidemment l’autonomisation de cette personne – après tout, ils n’auront plus d’options. Il en va de même pour la troisième loi, où l’autonomisation et le bien-être d’un robot sont en jeu.
« Il existe actuellement beaucoup de débat sur l’éthique et la sécurité en robotique, y compris un appel récent pour des normes éthiques ou des directives pour les robots », explique Christoph Salge, co-auteur du document. « En particulier, il est nécessaire que les robots soient guidés par une certaine forme de niveau d’enseignement générique et supérieur s’ils devraient faire face à des situations de plus en plus nouvelles et complexes à l’avenir – en tant que serviteurs, compagnons et collègues.
«Inculquer à un robot, ce type de motivation est difficile, car les robots ont des problèmes pour comprendre le langage humain et des règles de comportement spécifiques peuvent échouer lorsqu’elles s’appliquent à des contextes différents. Dès le début, la formalisation de ce type de comportement d’une manière générique et proactive pose un défi difficile . Nous croyons que notre approche peut offrir une solution. «
http://journal.frontiersin.org/article/10.3389/frobt.2017.00025/full