L’intelligence artificielle fait peser des risques sur les droits et libertés

Publié le 30 avril 2021

Le 21 avril, la Commission européenne a rendu public son projet de réglementation en matière d’intelligence artificielle (IA) en fonction des risques qu’elle fait peser sur les droits et libertés. Quatre échelles de risques sont définies : risque inacceptable, risque élevé, risque limité et risque minime.

La Commission entend interdire les utilisations des IA inacceptables, par exemple les systèmes de notation sociale et toutes celles qui « manipulent le comportement humain afin de priver les utilisateurs de leur libre arbitre ».

Les IA à haut risque pour les droits ou la sécurité des citoyens seront les plus encadrées, par exemple : la gestion des infrastructures critiques comme les transports ; l’éducation et la formation ; l’accès à emploi et la gestion des ressources humaines ; la justice et le maintien de l’ordre ou encore la gestion des processus démocratiques. La mise sur le marché d’IA appliquées à ces domaines seront conditionnées à une évaluation des risques ; des garanties apportées sur la qualité des données pour éviter les risques de discrimination ; une traçabilité des calculs et résultats ; une information claire à l’intention des utilisateurs et enfin un contrôle des systèmes par l’humain. Ces IA à haut risque seront soumises à un contrôle de conformité et répertoriées dans une base de données européenne. Elles auront un marquage CE avant leur mise sur le marché, toute évolution de l’IA passant par un nouveau contrôle de conformité.

Le Comité européen de la protection des données (CEPD), qui coordonne l’action des Cnil nationales, a rendu le 23 avril 2021 un avis critique sur ce projet de règlementation sur l’intelligence artificielle. Il regrette que la Commission n’ait pas retenu l’idée de moratoire sur la reconnaissance faciale dans l’espace public.

Voici un extrait du projet de la Commission.

« Risque inacceptable : Les systèmes d’IA considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes seront interdits. Il s’agit notamment des systèmes ou applications d’IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre (par exemple, des jouets utilisant une assistance vocale incitant des mineurs à avoir un comportement dangereux) et des systèmes qui permettent la notation sociale par les États.

Risque élevé : Parmi les systèmes d’IA considérés comme à haut risque, on peut citer :

  • les technologies d’IA qui sont utilisées dans les infrastructures critiques (par exemple les transports) et sont susceptibles de mettre en danger la vie et la santé des citoyens ;
  • les technologies d’IA utilisées dans l’éducation ou la formation professionnelle, qui peuvent déterminer l’accès à l’éducation et le parcours professionnel d’une personne (par exemple, la notation d’épreuves d’examens);
  • les technologies d’IA utilisées dans les composants de sécurité des produits (par exemple, l’application de l’IA dans la chirurgie assistée par robot);
  • les technologies d’IA utilisées dans le domaine de l’emploi, de la gestion de la main d’œuvre et de l’accès à l’emploi indépendant (par exemple, les logiciels de tri des CV pour les procédures de recrutement);
  • les technologies d’IA utilisées dans les services privés et publics essentiels (par exemple, l’évaluation du risque de crédit, qui prive certains citoyens de la possibilité d’obtenir un prêt);
  • les technologies d’IA utilisées dans le domaine du maintien de l’ordre, qui sont susceptibles d’interférer avec les droits fondamentaux des personnes (par exemple, la vérification de la fiabilité des éléments de preuve);
  • les technologies d’IA utilisées dans le domaine de la gestion de la migration, de l’asile et des contrôles aux frontières (par exemple, la vérification de l’authenticité des documents de voyage);
  • les technologies d’IA utilisées dans les domaines de l’administration de la justice et des processus démocratiques (par exemple, l’application de la loi à un ensemble concret de faits).

Les systèmes d’IA à haut risque devront être conformes à obligations strictes pour pouvoir être mis sur le marché : systèmes adéquats d’évaluation et d’atténuation des risques ; qualité élevée des ensembles de données alimentant le système afin de réduire au minimum les risques et les résultats ayant un effet discriminatoire ; enregistrement des activités afin de garantir la traçabilité des résultats ; documentation détaillée fournissant toutes les informations nécessaires sur le système et sur sa finalité pour permettre aux autorités d’évaluer sa conformité ; informations claires et adéquates à l’intention de l’utilisateur ; contrôle humain approprié pour réduire au minimum les risques ; niveau élevé de robustesse, de sécurité et d’exactitude.

En particulier, les systèmes d’identification biométrique à distance fondés sur l’IA sont considérés comme à haut risque et sont donc soumis à des exigences strictes. Leur utilisation en temps réel dans l’espace public aux fins du maintien de l’ordre est en principe interdite. Il existe des exceptions restreintes à ce principe, qui sont strictement définies et réglementées (par exemple, lorsque cela est strictement nécessaire pour rechercher un enfant disparu, prévenir une menace terroriste spécifique et imminente ou détecter, localiser, identifier ou poursuivre l’auteur ou le suspect d’une infraction pénale grave). L’utilisation de ces systèmes doit alors être autorisée par une instance judiciaire ou un autre organe indépendant et est soumise à des limitations appropriées concernant la durée, la portée géographique et les bases de données consultées.

Risque limité, c’est-à-dire les systèmes d’IA auxquels s’appliquent des obligations spécifiques en matière de transparence : Lorsqu’ils utilisent des systèmes d’IA tels que des chatbots, les utilisateurs doivent savoir qu’ils interagissent avec une machine afin de pouvoir décider en connaissance de cause de poursuivre ou non… »

Pour lire le projet, cliquez ici.

Mots-clefs : , , ,

Le commentaires sont fermés.