
Parmi les principes du projet figure la possibilité pour les citoyens de se soustraire aux décisions algorithmiques, ce qui pourrait remodeler le gouvernement fédéral, mais pas le secteur privé.
L’année dernière, le Bureau de la politique scientifique et technologique de la Maison Blanche (THE White House Office of Science and Technology Policy : OTSP)) a annoncé que les États-Unis avaient besoin d’une déclaration des droits pour l’ère des algorithmes. Les préjudices causés par l’intelligence artificielle ont un impact disproportionné sur les communautés marginalisées, ont écrit le directeur et le directeur adjoint du bureau dans une tribune, et des orientations gouvernementales sont donc nécessaires pour protéger les gens contre une IA discriminatoire ou inefficace.
Aujourd’hui, l’OSTP a publié le Blueprint for an AI Bill of Rights (projet de charte des droits de l’IA), après avoir recueilli les contributions d’entreprises telles que Microsoft et Palantir, ainsi que de startups spécialisées dans l’audit de l’IA, de groupes de défense des droits de l’homme et du grand public. Ses cinq principes stipulent que les gens ont le droit de contrôler l’utilisation de leurs données, de refuser les prises de décision automatisées, de vivre à l’abri des algorithmes inefficaces ou dangereux, de savoir quand l’IA prend une décision à leur sujet et de ne pas être discriminés par des algorithmes injustes.
« Les technologies vont et viennent, mais les libertés fondamentales, les droits, les opportunités et l’accès doivent rester ouverts, et c’est le travail du gouvernement de s’assurer que c’est le cas », a déclaré Alondra Nelson, directrice adjointe de l’OSTP pour la science et la société. « C’est la Maison Blanche qui dit que les travailleurs, les étudiants, les consommateurs, les communautés, tout le monde dans ce pays devrait attendre et exiger mieux de nos technologies. »
Cependant, contrairement à la Déclaration des droits américaine plus connue, qui comprend les dix premiers amendements de la constitution, la version AI n’aura pas force de loi – c’est un livre blanc non contraignant.
Le projet de la Maison Blanche concernant les droits de l’IA s’adresse principalement au gouvernement fédéral. Il ne changera la façon dont les algorithmes sont utilisés que s’il oriente la façon dont les agences gouvernementales acquièrent et déploient la technologie de l’IA, ou s’il aide les parents, les travailleurs, les décideurs ou les concepteurs à poser des questions difficiles sur les systèmes d’IA. Elle n’a aucun pouvoir sur les grandes entreprises technologiques qui ont sans doute le plus de pouvoir pour façonner le déploiement de l’apprentissage automatique et de la technologie de l’IA.
Le document publié aujourd’hui ressemble au flot de principes d’éthique de l’IA publiés ces dernières années par des entreprises, des organisations à but non lucratif, des gouvernements démocratiques et même l’Église catholique. Leurs principes sont généralement bien orientés, utilisant des mots comme transparence, explicabilité et fiabilité, mais ils manquent de mordant et sont trop vagues pour faire une différence dans la vie quotidienne des gens.
Selon Alondra Nelson, de l’OSTP, le projet de charte des droits de l’IA diffère des récitations antérieures des principes de l’IA car il est destiné à être traduit directement en pratique. L’année écoulée de sessions d’écoute avait pour but de faire avancer le projet au-delà des aléas, dit Nelson. « Nous comprenons aussi que les principes ne sont pas suffisants », précise Alondra Nelson. « Il ne s’agit vraiment que d’un acompte. Ce n’est que le début et le commencement ».
L’OSTP a reçu des courriels d’environ 150 personnes au sujet de son projet et a entendu environ 130 autres personnes, entreprises et organisations qui ont répondu à une demande d’information plus tôt cette année. Le projet final vise à protéger les personnes contre la discrimination fondée sur la race, la religion, l’âge ou toute autre catégorie de personnes protégées par la loi. Il étend la définition du sexe pour y inclure « la grossesse, l’accouchement et les conditions médicales qui y sont liées », une modification apportée en réponse aux préoccupations du public concernant la confidentialité des données relatives à l’avortement.
Annette Zimmermann, qui mène des recherches sur l’IA, la justice et la philosophie morale à l’université du Wisconsin-Madison, se dit impressionnée par les cinq points centraux choisis pour la charte des droits de l’IA, et estime qu’elle a le potentiel de faire évoluer les politiques et les réglementations en matière d’IA dans la bonne direction au fil du temps.
Mais elle estime que le projet ne reconnaît pas que, dans certains cas, la réparation d’une injustice peut nécessiter de ne pas utiliser l’IA du tout. « Nous ne pouvons pas formuler une déclaration des droits sans considérer le non-déploiement comme l’option la plus protectrice des droits », dit-elle. Mme Zimmerman souhaiterait également que soient mis en place des cadres juridiques exécutoires permettant de tenir les personnes et les entreprises responsables de la conception ou du déploiement d’une IA nuisible.
Lorsqu’on lui a demandé pourquoi le projet de charte des droits de l’IA ne mentionnait pas les interdictions comme option pour contrôler les dommages causés par l’IA, un haut fonctionnaire de l’administration a répondu que l’objectif était de protéger les gens contre les technologies qui menacent leurs droits et leurs opportunités, et non d’appeler à l’interdiction de tout type de technologie.
La Maison-Blanche a également annoncé aujourd’hui des mesures prises par des agences fédérales pour limiter les effets néfastes de l’IA. Le ministère de la santé et des services sociaux publiera d’ici la fin de l’année un plan visant à réduire la discrimination algorithmique dans les soins de santé. Certains algorithmes utilisés pour donner la priorité à l’accès aux soins et guider les traitements individuels se sont révélés être biaisés à l’encontre des groupes marginalisés. Le ministère de l’éducation prévoit de publier des recommandations sur l’utilisation de l’IA pour l’enseignement ou l’apprentissage d’ici début 2023.
Le caractère limité de la déclaration des droits de l’IA de la Maison-Blanche contraste avec la réglementation de l’IA en cours d’élaboration dans l’Union européenne.
Les membres du Parlement européen réfléchissent à la manière de modifier la loi sur l’IA et de décider quelles formes d’IA devraient faire l’objet d’une divulgation publique ou être carrément interdites. Certains députés européens soutiennent que la police prédictive devrait être interdite car elle « viole la présomption d’innocence ainsi que la dignité humaine. » À la fin de la semaine dernière, la branche exécutive de l’UE, la Commission européenne, a proposé une nouvelle loi qui permettrait aux personnes traitées injustement par l’IA de porter plainte devant un tribunal civil.
https://www.wired.com/story/bidens-ai-bill-of-rights-is-toothless-against-big-tech/
https://www.whitehouse.gov/ostp/ai-bill-of-rights/