
« Nous avançons dans un domaine que nous ne connaissons pas, pour lequel nous n’avons pas de lignes directrices, de règles, de cadres ou d’accords. »
On pensait que Terminator n’était qu’un film de science-fiction. La réalité se rapproche à grand pas. La semaine qui vient de s’écouler a été – vraisemblablement – une semaine vraiment bizarre à La Haye, où, avec en toile de fond le cirque permanent de l’IA Bing de Microsoft qui s’est publiquement transformée en une machine monstrueuse, briseuse de ménage et jouant le rôle de Pinocchio, les chefs militaires de 50 pays se sont réunis pour discuter de l’utilisation « responsable » de l’intelligence artificielle dans l’armée.
Le timing ? Absolument impeccable. Mais la substance du sommet organisé par les Pays-Bas ? Inquiétante.
Selon Reuters, les dirigeants se sont certes réunis, et ils ont certainement dit certaines choses. Ils auraient également signé un accord visant à respecter les « obligations juridiques internationales » d’une « manière qui ne porte pas atteinte à la sécurité, à la stabilité et à la responsabilité internationales », ce qui semble bon en apparence. Mais cet accord, déjà modeste, ne serait pas contraignant, et les défenseurs des droits de l’homme, selon Reuters, avertissent qu’il ne contient aucune disposition spécifique concernant les armes « telles que les drones guidés par l’IA, les « robots d’abattage » qui peuvent tuer sans intervention humaine, ou le risque qu’une IA puisse aggraver un conflit militaire ».

En d’autres termes, alors que l’objectif du sommet était de permettre aux dirigeants d’établir des règles de base fermes, les normes qui ont pu être établies manquent de précision – ce qui les rend apparemment impossibles à mettre en œuvre de manière cohérente. Malgré cela, les États-Unis vous demandent cordialement de vous y conformer, merci beaucoup !
« Nous invitons tous les États à nous rejoindre dans la mise en œuvre des normes internationales », a déclaré Bonnie Jenkins, sous-secrétaire d’État américaine au contrôle des armements, dans une déclaration du 16 février, selon Reuters, « en ce qui concerne le développement et l’utilisation militaires de l’IA » et des armes autonomes.
« Nous voulons souligner, a ajouté Mme Jenkins, que nous sommes ouverts à l’engagement avec tout pays qui souhaite se joindre à nous. »
Selon Reuters, si les États-Unis ont offert quelque chose de plus concret, Bonnie Jenkins a déclaré que la « responsabilité humaine » et les « niveaux appropriés de jugement humain » devraient être exploités afin d’incorporer de manière responsable l’intelligence artificielle dans les opérations militaires. Ce qui, bien sûr, est très bien.
Mais la responsabilité humaine et le jugement humain sont les attentes de base pour toute arme. Les systèmes d’IA ne sont pas déposés par des cigognes sur le pas de la porte des militaires ; en fin de compte, même si l’intégration de l’IA dans les opérations militaires signifie que les êtres humains n’appuieront pas littéralement sur autant de gâchettes qu’aujourd’hui, ce sont les humains qui construisent et libèrent les systèmes d’IA qui tueront. Les humains, quoi qu’il arrive, sont responsables des résultats des systèmes d’IA, que les machines fonctionnent comme prévu ou qu’elles déraillent complètement.
Encore une fois, si l’on ne définit pas clairement ce qui est bien ou mal – surtout lorsqu’il s’agit de l’utilisation d’armes spécifiques et mortelles alimentées par l’IA – les déclarations plus générales concernant le jugement et la responsabilité sont finalement creuses.
Il n’est peut-être pas surprenant que nous ne soyons pas les seuls à nous poser des questions.
La déclaration américaine « ouvre la voie aux États pour qu’ils développent l’IA à des fins militaires de la manière qu’ils jugent la plus appropriée, tant qu’ils peuvent dire que c’est « responsable » », a déclaré à Reuters Jessica Dorsey, professeur adjoint de droit international à l’Université d’Utrecht (Pays-Bas), qualifiant en outre la déclaration américaine d' »occasion manquée » pour la nation de montrer un réel leadership dans le domaine de l’éthique de l’IA.
« Où est le mécanisme d’application ? » a-t-elle demandé.
Pour être juste, le ministère américain de la défense dispose de certaines directives écrites concernant l’utilisation de l’IA par l’armée américaine.
Mais les pays peuvent enfreindre et modifier leurs propres règles. La mise en place de garde-fous et d’attentes internationales solides et distinctes, comme cela semble être l’objectif de ce sommet, pourrait bien être le meilleur moyen de garantir la responsabilité de l’IA, surtout si l’on considère à quel point ces systèmes tant vantés sont mal compris. Les chercheurs ont également averti qu’une course internationale aux armements en matière d’IA pourrait facilement détruire la civilisation, ce qui n’est pas négligeable. (Reuters rapporte que le représentant chinois Jian Tan a insisté pour que les dirigeants internationaux « s’opposent à la recherche d’un avantage militaire et d’une hégémonie absolus grâce à l’IA », ajoutant que les Nations unies devraient jouer un rôle important pour faciliter le développement de l’IA).
Dans la lecture la plus optimiste, le sommet était un premier pas, mais un tout petit.
« Nous avançons dans un domaine que nous ne connaissons pas, pour lequel nous n’avons pas de lignes directrices, de règles, de cadres ou d’accords », a déclaré le ministre néerlandais des Affaires étrangères, Wopke Hoekstra, avant l’événement, selon Reuters. « Mais nous en aurons besoin plus tôt que tard ».
Sur cette note, pour le bien de tous, espérons que la réunion de l’année prochaine aura un peu – ou beaucoup – plus de jus. S’il y a un moment pour conclure des accords au niveau de la promesse du petit doigt, décider de la manière de construire des robots de guerre n’est pas celui-là.
https://futurism.com/united-states-killer-robots-hague