Utilisation de la technologie de reconnaissance faciale par les services de police

Type de publication
Le travail de lutte contre le racisme
Sujet
Droits de la personne

Rapport au Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique de la Chambre des communes

Avril 2022

HR4-93/2023F-PDF
978-0-660-47884-5

Introduction

« technologie et la vie privée sont essentielles pour la prochaine génération des droits de la personne. Toutes les personnes au Canada devraient pouvoir profiter de la technologie sans aucune crainte ».

Marie-Claude Landry, présidente de la Commission canadienne des droits de la personne

La Commission canadienne des droits de la personne (CCDP) est heureuse de transmettre le présent rapport à titre de mémoire au Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique de la Chambre des communes sur l'utilisation de la technologie de reconnaissance faciale (TRF) par les services de police.

La CCDP mène actuellement une étude globale sur les enjeux relatifs à l'intelligence artificielle (IA) et aux droits de la personne, et ce premier rapport est axé sur l'examen de l'utilisation de la TRF par les services de police et se concentre sur la compétence fédérale et la Gendarmerie royale du Canada (GRC). Une version antérieure de ce rapport a déjà été transmise au Commissariat à la protection de la vie privée du Canada (CPVP), en réponse à sa demande de rétroaction sur le document intitulé Document d'orientation préliminaire sur la protection de la vie privée à l'intention des services de police relativement au recours à la reconnaissance facileNote de bas de page 1. Ce document a été élaboré et publié conjointement par les autorités provinciales et territoriales de protection de la vie privée.

La CCDP est l'institution nationale des droits de la personne au Canada, accréditée avec le « statut A » par l'Alliance mondiale des institutions nationales des droits de l'hommeNote de bas de page 2. Elle a été créée par le Parlement en 1977 en vertu de la Loi canadienne sur les droits de la personne (LCDP)Note de bas de page 3. Elle a un vaste mandat de promouvoir et protéger les droits de la personne. La Constitution du Canada partage la compétence en matière de droits de la personne entre les gouvernements fédéral et provinciaux ou territoriaux. Aux termes de la LCDP, la CCDP est autorisée à recevoir les plaintes de discrimination déposées contre les ministères et organismes du gouvernement fédéral, les sociétés d'État fédérales, les gouvernements des Premières Nations et les entreprises privées sous réglementation fédérales comme les banques, les compagnies aériennes et les entreprises de télécommunication. La CCDP a aussi reçu le vaste mandat de soutenir la recherche, de sensibiliser le public et de publier des rapports spéciaux sur des enjeux relatifs aux droits de la personne. Les gouvernements provinciaux et territoriaux ont adopté leurs propres lois sur les droits de la personne et sont responsables d'autres secteurs d'activités sous réglementation provinciale ou territoriale, comme l'administration des affaires provinciales et municipales, les écoles, les universités et la plupart des entreprises.

Position de la Commission canadienne des droits de la personne

1. La position de la CCDP est que le cadre juridique et stratégique actuel pour l'utilisation de la TRF par les services de police est insuffisant et qu'un nouveau cadre est nécessaire.

  • 1.1 La CCDP félicite le CPVP pour les récentes enquêtesNote de bas de page 4 et le rapport spécial au ParlementNote de bas de page 5 soulevant des préoccupations sur l'utilisation de la TRF par les services de police du Canada. La CCDP partage de nombreux points de vue que le CPVP a émis dans ces rapports, dans le document d'orientation préliminaire et dans ses documents de consultation. La CCDP est enthousiasme à l'idée de collaborer avec le CPVP afin d'aborder les questions qui concernent à la fois les droits de la personne et la protection de la vie privée.
  • 1.2 La TRF par IA est un nouveau segment technologique qui connaît une forte croissance et qui vaut des milliards de dollars. Elle s'appuie sur la capture et l'utilisation de millions d'images de visages.
  • 1.3 Cette technologie a des répercussions considérables et alarmantes sur les droits de la personne et la protection de la vie privée.
  • 1.4 L'utilisation de la TRF par les services de police n'a pas encore été étudiée attentivement par le Parlement. Pourtant, des ministères et organismes gouvernementaux, dont la GRC, font déjà des essais avec la TRF par IA.Note de bas de page 6
  • 1.5 À la suite du récent rapport du CPVP concluant que l'utilisation de la TRF par la GRC était illégale en vertu du droit en matière de protection de la vie privée, la GRC a annoncé avoir mis en place une directive interne stipulant « que la technologie de reconnaissance faciale ne sera utilisée qu'en cas d'urgence pour l'identification des victimes dans le cadre d'enquêtes sur l'exploitation sexuelle d'enfants, ou dans des circonstances où une menace pour la vie ou des lésions corporelles graves peuvent être imminentes. »Note de bas de page 7
  • 1.6 La TRF par IA n'a pas été suffisamment étudiée, testée et jugée sécuritaire, au moyen de données probantes, pour la population. Même si les lois en général s'appliquent néanmoins (y compris les lois sur les droits de la personne et sur la protection des renseignements personnels) et que le Conseil du Trésor du Canada a émis des orientations sur l'utilisation de l'IA par le gouvernementNote de bas de page 8, il n'existe aucune norme précise concernant l'utilisation de la TRF par les services de police.
  • 1.7 La recherche a prouvé que la TRF est imprécise et biaisée au désavantage des personnes ayant une peau foncée, surtout les femmes.Note de bas de page 9 Des recherches menées récemment par la société civile ont déclenché des signaux d'alarme concernant une utilisation discutable de la TRF par les services de police du Canada.Note de bas de page 10
  • 1.8 Le fait que le colonialisme et le racisme systémique sont ancrés dans les systèmes historiques et actuels de la police et de la justice pénale – notamment par la surveillance policière excessive des communautés autochtones, noires et racisées – est bien documentéNote de bas de page 11 et reconnu par le gouvernement.Note de bas de page 12 Ce système touche aussi d'autres groupes marginalisés comme les membres des communautés 2SLGBTQI, les personnes ayant une maladie mentale et les communautés à faible revenu.Note de bas de page 13
  • 1.9 La TRF est un puissant outil de surveillance qui peut accroître le racisme systémique à l'encontre des communautés victimes d'un contrôle excessif et une surveillance policière excessive.
  • 1.10 Les personnes noires et autochtones au Canada font l'objet d'une surveillance policière omniprésente qui limite leur capacité à exister dans l'espace public.Note de bas de page 14 La surveillance policière disproportionnée des communautés racisées et le profilage racial ont été dénoncés dans toutes les régions du Canada, comme à Toronto,Note de bas de page 15 à Montréal,Note de bas de page 16 à Halifax,Note de bas de page 17 à Edmonton,Note de bas de page 18 à Calgary et à Vancouver.Note de bas de page 19
  • 1.11 Comme il est mentionné dans l'ouvrage intitulé Policing Black Lives, la surveillance ou les interventions policières qui se produisent en raison de stéréotypes fondés sur la race, l'origine ethnique ou la religion jouent un rôle important dans la détermination des pratiques policières. Le fait de présumer que les personnes noires sont plus susceptibles de commettre des actes criminels se traduit par un plus grand nombre de personnes noires surveillées, arrêtées, accusées et incarcérées. Les personnes noires seront de fait, criminalisées par les stratégies policières elles-mêmes qui les prennent pour cibles. Autrement dit, le profilage est une prophétie qui se réalise par elle-même.Note de bas de page 20
  • 1.12 En 2017, le Groupe de travail d'experts sur les personnes d'ascendance africaine mis sur pied par les Nations Unies a conclu que les populations noires du Canada subissent une discrimination raciale endémique de la part des forces de l'ordre. Les interactions dégénèrent souvent pour en arriver à de la violence policière causant des blessures ou la mort de personnes noires du Canada.Note de bas de page 21
  • 1.13 Toute utilisation d'une TRF par les services de police comporte inévitablement un risque élevé puisqu'elle menace la liberté et les droits de la personne dans un environnement de fortes asymétries en matière d'information et de pouvoirs entre l'État et le citoyen ou la citoyenne. Il faut particulièrement s'inquiéter de l'utilisation potentielle de la TRF par les services de police dans des lieux publics et au milieu de foules. La combinaison des pouvoirs policiers et de la TRF commerciale représente encore plus de risques.
  • 1.14 Malgré ces conséquences, risques et essais, il n'existe qu'un petit nombre de lois qui s'appliquent à cette technologie, et il n'y a en ce moment aucune réglementation concernant précisément l'utilisation de la TRF par les services de police.
  • 1.15 Les défenseurs des droits de la personne au sein des Nations Unies, ainsi que des organisations de la société civile, ont soulevé de sérieuses préoccupations concernant les risques inacceptables de l'utilisation de la TRF par les services de police et les forces de l'ordre, surtout dans les lieux publics et au milieu de foules. En septembre 2021, la Haute-Commissaire des Nations Unies aux droits de l'homme a sonné l'alarme dans une déclaration publique dans laquelle elle a conclu qu'il fallait agir maintenant pour ériger des garde-fous pour protéger les droits de la personne contre l'utilisation de l'IA, pour le bien de chacun de nous. Dans son rapport, elle a aussi précisé que « les États devraient également imposer des moratoires sur l'utilisation de technologies potentiellement à haut risque, telles que la reconnaissance faciale à distance en temps réel, jusqu'à ce qu'il soit garanti que leur utilisation ne peut pas violer les droits de l'homme. »Note de bas de page 22
  • 1.16 En novembre 2021, la première norme mondiale – la Recommandation de l'UNESCO sur l'éthique de l'IA – a été adoptée par 193 États membres, dont le Canada. La recommandation de l'UNESCO interdit explicitement l'utilisation de systèmes d'IA pour la surveillance de masse. Dans la section portant sur les principes de proportionnalité et d'innocuité, on peut lire ce qui suit : « En particulier, les systèmes d'IA ne devraient pas être utilisés à des fins de notation sociale ou de surveillance de masse. »Note de bas de page 23 La recommandation précise que ce type de technologie est très invasive, qu'elle viole les droits de la personne et les libertés fondamentales et qu'elle est utilisée à trop grande échelle.
  • 1.17 En plus de ces mesures mondiales, de nombreuses autorités, dont l'Union européenne et les États-Unis, commencent à adopter des lois ou des moratoires pour interdire totalement ou partiellement l'utilisation de la TRF par IA par les services de police. Dans le cas des interdictions partielles, les lois interdisent son utilisation dans les foules ou les lieux publics. Quelques autorités ont créé un bureau indépendant responsable précisément de la sûreté de l'IA, tandis que d'autres ont recommandé de le faire. Par exemple, la commission australienne des droits de la personne a recommandé la nomination d'un commissaire à la sûreté de l'IA pour aider les régulateurs, les responsables des politiques, le gouvernement et les entreprises à appliquer les lois et les autres normes relatives à la prise de décisions éclairées sur l'IA.Note de bas de page 24 D'autres exemples détaillés se trouvent à l'annexe A.
  • 1.18 Même si la GRC a déclaré avoir volontairement limité l'utilisation de la TRF, la CCDP est d'avis qu'il faut une solide règlementation obligatoire pour garantir la pleine protection des droits de la personne. Elle considère aussi que, malgré les pressions internes et externes pour maintenir la sécurité du public, les obligations relatives aux droits de la personne ne doivent pas devenir moins prioritaires pour accroître l'efficacité des enquêtes.
  • 1.19 Les grands risques menaçant la liberté, les droits de la personne et la protection de la vie privée sont peu susceptibles d'être atténués au moyen de directives internes facultatives ou de stratégies d'autoréglementation comme le document d'orientation préliminaire quand il sera mis en application. Dans l'ensemble, il faut un nouveau cadre juridique et stratégique pour régir l'utilisation de la TRF et d'autres outils stratégiques par IA.

2. La position de la CCDP est que le Parlement devrait entreprendre immédiatement une étude pour analyser l'utilisation de la TRF par les services de police et pour mettre en place un nouveau cadre juridique.

  • 2.1 Les études parlementaires réalisées par le Comité permanent de la justice et les droits de la personne de la Chambre des Communes ou le Comité sénatorial permanent des droits de la personne devraient prévoir des audiences publiques afin d'entendre des experts en matière de droits de la personne et de protection de la vie privée, des juristes, des membres de la société civile et des ayants droit, ainsi que leurs mandataires.

3. La position de la CCDP est que le nouveau cadre adopte une approche fondée sur les droits de la personne.

  • 3.1 La protection de la vie privée doit être explicitement reconnue comme un droit de la personne dans tout nouveau cadre. De plus, il faut améliorer les lois sur la protection de la vie privée, aussi bien pour la population que pour le secteur privé. Cependant, les lois et les droits en matière de protection de la vie privée ne suffiront pas à eux seuls à protéger un vaste éventail de droits de la personne dans un nouveau cadre.
  • 3.2 Le document d'orientation préliminaire renferme de nombreux éléments utiles à considérer dans un nouveau cadre. Les sections et suggestions présentées dans ce document comportent des éléments communs avec une approche fondée sur les droits de la personne et comptent aussi un grand nombre d'objectifs et d'activités similaires. Toutefois, le projet de lignes directrices se concentre trop étroitement sur les exigences relatives à la protection de la vie privée et ne tient pas suffisamment compte du droit, des normes et des exigences en matière de droits de la personne. Il présente de nombreuses activités comme étant optionnelles ou soumises à la discrétion opérationnelle des services de police. Par ailleurs, il n'aborde pas assez les préoccupations particulières relativement au racisme systémique qui est présent à la fois dans le domaine des activités policières et dans le domaine de la TRF.
  • 3.3 Le respect, la protection et le rétablissement des droits de la personne doivent être au centre de tout nouveau cadre juridique sur l'utilisation d'outils par IA comme l'utilisation de la TRF par les services de police. Une approche fondée sur les droits de la personne utilise les droits de la personne internationaux comme fondement et comme point de référence. Elle analyse les droits en jeu et les effets sur eux, de même que ce que peuvent réclamer les ayants droit et quelles sont les obligations des entités responsables des droits de la personne (dans ce cas-ci, il s'agit du gouvernement et des services de police).
  • 3.4 Cinq éléments généraux sont à la base d'une approche fondée sur les droits de la personne : la légalité, la non-discrimination, la participation, l'autonomisation et la reddition de compte. Quelques-uns de ces éléments, mais pas tous, se retrouvent aussi dans les cadres, principes et documents portant sur une IA éthique, fiable ou responsable.
  • 3.5 La CCDP suggère que toute étude parlementaire intègre et inclut au moins un des éléments clés suivants dans une approche fondée sur les droits de la personne en vue de mettre au point un nouveau cadre juridique. La CCDP fournit quelques détails sur ce qui rend chaque élément particulièrement pertinent concernant l'enjeu de l'utilisation de la TRF par les services de police.
  • 3.6 Légalité et non-discrimination
    • 3.6.1 Protections juridiques : l'analyse doit être faite en utilisant les principes, les normes, les obligations et les mécanismes de protection des droits fondamentaux de la personne inscrits dans les normes, recommandations et traités internationaux relatifs aux droits de l'homme, dans la Charte canadienne des droits et libertés et dans les lois sur les droits de la personne (qui ont un statut quasi constitutionnel). Concernant l'IA, la TRF et les services de police, il s'agit d'appliquer les recommandations et les normes à chacun de ces volets, mises au point par les organes et les mécanismes des Nations Unies. Par exemple, il faudrait inclure les recommandations du Comité pour l'élimination de la discrimination raciale (CEDR) et de la Haute-Commissaire des Nations Unies aux droits de l'homme concernant la reconnaissance faciale et la surveillance policière, ainsi que la recommandation de l'UNESCO sur l'interdiction de la surveillance de masse.
    • 3.6.2 Risques particuliers pour les droits de la personne : les risques et les répercussions pour certains droits de la personne mentionnés par les ayants droit, les experts, les intervenants et les défenseurs devraient être prévus, soulignés et analysés. Une solide analyse est particulièrement importante à ce point-ci, puisqu'il y a peu de jurisprudence sur ces sujets, et un nouveau cadre juridique et stratégique peut fournir une orientation utile aux décideurs juridiques. L'analyse doit comprendre les répercussions sur les droits à la vie privée, mais aussi sur un plus grand éventail de droits de la personne comme le droit à la liberté d'expression, le droit à la liberté de réunion et d'association pacifiques, le droit à l'autonomie, le droit à la liberté de pensée et d'opinion, le droit à l'égalité et le droit de vivre sans discrimination. Elle pourrait aussi prendre en considération les répercussions de la TRF sur les autres droits protégés par la Charte ou ceux liés au Code criminel, au droit administratif et au droit commun, comme les droits à la liberté et à une application régulière de la loi ou le droit à la protection contre les fouilles, les perquisitions et les saisies abusives. De plus, il pourrait y avoir des conséquences dans d'autres domaines comme les droits en matière de main-d'œuvre et d'emploi.
    • 3.6.3 Lutte contre le racisme et le colonialisme : une approche fondée sur les droits de la personne doit prendre en considération particulièrement les groupes et les populations qui sont susceptibles d'être le plus à risque. Étant donné l'historique des services de police au Canada, il est essentiel de veiller à ce qu'un nouveau cadre juridique et stratégique comprenne des mesures pour contrer le racisme systémique enraciné qui porte atteinte aux communautés noires, autochtones ou racisées.
    • 3.6.4 Intersectionnalité : il faut s'occuper des risques générés par la TRF pour les ayants droit et les groupes en raison de l'impact croisé de multiples formes de discrimination dans le contexte du travail policier doivent être pris en compte (p. ex., des femmes autochtones, des jeunes hommes noirs, des femmes trans noires).Note de bas de page 25
    • 3.6.5 Causes profondes : une analyse devrait être entreprise pour examiner les causes profondes des violations des droits qui pourraient survenir dans le domaine de l'IA et de la TRF ainsi que dans le domaine des services de police. Une partie de cette analyse dans le domaine des services de police a déjà été faite au moyen de multiples rapports, lesquels contenaient des recommandations, par exemple celle concernant une supervision indépendante plus étroite de la GRC. Un examen des causes profondes des violations des droits en lien avec l'utilisation de la TRF par les services de police pourrait se concentrer davantage sur d'autres préoccupations particulières, comme le manque de diversité dans le domaine des technologies, le manque de fonds pour des travaux de recherche sur les droits de la personne ou les répercussions sociales de l'IA et de la TRF, les taux élevés d'erreurs ou les biais fondés sur la race ou le sexe dans le développement, les ensembles d'apprentissage ou les algorithmes.
  • 3.7 Participation et autonomisation
    • 3.7.1 Inclusion et mobilisation véritables : il faut que des experts, des intervenants, des ayants droit et leurs mandataires soient véritablement inclus et participent à toutes les phases du développement, de la mise en œuvre et de l'évaluation d'un cadre juridique et stratégique, y compris pour analyser les risques et pour définir la raison d'être, les paramètres et la reddition de comptes concernant la manière d'interdire ou de permettre l'utilisation de la TRF par les services de police. La participation aux audiences des comités parlementaires est une importante étape initiale.
    • 3.7.2 Connaissances et capacité : les personnes ne peuvent pas revendiquer leurs droits si elles ne connaissent pas leurs droits. Les audiences et les débats parlementaires sont des éléments clés pour amener la population à avoir une compréhension commune des enjeux de droits de la personne qui sont en jeu à cause de l'IA et de la TRF. Un nouveau cadre juridique et stratégique devrait aussi établir des exigences de transparence, d'explicabilité et de traçabilité pour la population et d'autres types de divulgation de l'utilisation de la TRF et d'algorithmes pour permettre un examen indépendant. Un nouveau cadre devrait exiger une évaluation des connaissances et de la capacité des ayants droit leur permettant de revendiquer leurs droits, et des connaissances et de la capacité des services de police – ainsi que de leurs contractuels ou partenaires du secteur privé – leur permettant de remplir leurs obligations. Il doit ensuite établir des stratégies destinées à améliorer et maintenir ces capacités.
    • 3.7.3 Recherche, sensibilisation et éducation du public : même si des millions de dollars sont régulièrement alloués au financement de la recherche sur l'IA, les enjeux à l'intersection de la technologie de l'IA et des droits de la personne et du droit à la protection de la vie privée au Canada doivent faire l'objet de davantage de travaux de recherche et d'analyses, y compris des travaux de recherche techno-sociale et interdisciplinaire qui font appel à de multiples intervenants et qui sont menés par une diversité de groupes de recherche. De plus, des campagnes d'information et de sensibilisation du public sont nécessaires pour mieux faire connaître la TRF et les droits de la personne aux entités responsables (y compris les services de police), aux décideurs, aux responsables des politiques et aux membres du public.
  • 3.8 Reddition de comptes, accès à la justice et mesures de réparation
    • 3.8.1 Approbation préalable : toute proposition d'utilisation de la TRF par les services de police doit être également examinée et approuvée par un décideur externe indépendant, y compris toute demande d'exemption à un moratoire. Avant d'être utilisée, toute TRF doit être soumise à des contrôles scientifiques rigoureux et les réussir, y compris des contrôles d'exactitude et de partialité, y compris en situations réelles. Des experts indépendants en matière de droits de la personne devraient aussi participer à cette évaluation.
    • 3.8.2 Supervision indépendante : l'utilisation de la TRF par les services de police doit être étroitement supervisée de manière indépendante par un organisme mandaté par le Parlement, surtout pendant les premières années de la mise en œuvre d'un nouveau cadre juridique.
    • 3.8.3 Vérifications indépendantes : l'utilisation de la TRF doit être soumise à des vérifications indépendantes périodiques, qui devraient comprendre des évaluations des répercussions sur les droits de la personne chaque fois qu'on propose d'utiliser une TRF.Note de bas de page 26 Ces évaluations doivent comprendre des exigences, y compris, entre autres, celles établies par la Cour suprême du Canada dans les arrêts MeiorinNote de bas de page 27 et Grismer.Note de bas de page 28
    • 3.8.4 Participation du secteur privé : les lois doivent comprendre des dispositions qui empêche toute tentative des services de police et d'entités privées de ne pas rendre des comptes, même quand les services de police acquièrent ou utilisent des TRF mises au point par des organisations privées ou commerciales.Note de bas de page 29
    • 3.8.5 Recours judiciaires : les préjudices potentiels associés à l'utilisation de l'IA et de la TRF par les services de police ne sont pas encore très bien compris, mais l'immense portée et les répercussions considérables de l'IA sur la société nécessiteront des recours adaptés à ce contexte unique. Il faut mettre en place des recours juridiques adéquats pour garantir une reddition de compte et des mesures de réparation lorsqu'il y a violation des droits de la personne, comme de la discrimination.
    • 3.8.6 Modèles de règlementation pour une conformité proactive : les systèmes d'IA créent et maintiennent des systèmes d'une immense puissance et des déséquilibres en matière d'information. Ces déséquilibres créent et perpétuent des obstacles à l'accès à la justice. Les individus sont moins susceptibles de connaître leurs droits ou de savoir à quel moment les services de police violent ces droits en utilisant la TRF. Un modèle efficace de protection des droits de la personne doit faire en sorte que les individus n'ont plus le fardeau de déceler les préjudices et de porter plainte contre les services de police. Un tel modèle pourrait comprendre des éléments comme des sanctions administratives pécuniaires et des vérifications périodiques.
    • 3.8.7 Reddition de comptes parlementaires : cette nouvelle technologie a été développée dans le domaine commercial privé, mais elle a d'importantes répercussions sur la population et les droits de la personne. Dans une société démocratique, on ne peut pas permettre l'évolution de technologies de ce genre – surtout celles déployées par l'État pour surveiller la population – sans une meilleure supervision publique. Il faut obliger les services de police à soumettre au Parlement des rapports sur leur utilisation de la TRF.
    • 3.8.8 Évaluation des droits de la personne : dans le cadre de cette responsabilité parlementaire, un nouveau cadre juridique devrait exiger des évaluations particulières et accessibles au public. Ces évaluations analyseraient si les droits de la personne sont bien protégés dans le nouveau cadre en général, si des exigences juridiques et les éléments d'une approche fondée sur les droits de la personne ont été bien respectés et s'il faut modifier le cadre juridique et stratégique. Cette évaluation élargie doit inclure les points de vue des ayants droit, des experts et des intervenants. Elle doit analyser autant les résultats que les processus en s'appuyant sur les normes et les principes relatifs aux droits de la personne.
  • 3.9 Bon nombre des éléments susmentionnés sont reflétés dans la recommandation de l'UNESCO qui se lit comme suit : « Les gouvernements devraient adopter un cadre réglementaire qui définisse une procédure permettant en particulier aux autorités publiques de mener à bien des évaluations sur l'impact des systèmes d'IA afin d'anticiper les répercussions, d'atténuer les risques, d'éviter les conséquences préjudiciables, de faciliter la participation des citoyens et de faire face aux défis sociétaux. L'évaluation devrait également établir des mécanismes de supervision adaptés, notamment les principes de vérifiabilité, de traçabilité et d'explicabilité, permettant d'évaluer les algorithmes, les données et les processus de conception, et inclure un examen externe des systèmes d'IA. Les évaluations de l'impact éthique devraient être transparentes et ouvertes au public, selon le cas. Elles devraient par ailleurs être multidisciplinaires, multipartites, multiculturelles, pluralistes et inclusives. Les autorités publiques devraient être tenues de surveiller les systèmes d'IA qu'elles mettent en œuvre et/ou déploient, en établissant des mécanismes et des outils appropriés. »Note de bas de page 30

4. La position de la CCDP est qu’un nouveau cadre doit prendre en considération et intégrer entièrement des mécanismes de protection des droits de la personne concernant les enfants et les jeunes.

  • 4.1 En mars 2021, le Comité des droits de l'enfant des Nations Unies a formulé la recommandation suivante : « Les États parties devraient veiller à ce que les technologies numériques, les mécanismes de surveillance, tels que les logiciels de reconnaissance faciale […] ne soient pas utilisés pour cibler injustement les enfants soupçonnés ou accusés d'infractions pénales ni utilisés d'une manière qui viole les droits de l'enfant, en particulier le droit à la protection de la vie privée, le droit à la dignité et le droit à la liberté d'association. »Note de bas de page 31
  • 4.2 L'augmentation de la présence policière dans la vie des enfants à l'école et la surveillance de ces enfants préoccupent les étudiants et les parents des communautés noires et autochtones. La surveillance policière excessive des communautés noires et autochtones commence souvent à l'école. Dans un rapport récent, le bureau du commissaire aux droits de la personne de la Colombie-Britannique recommande le retrait de ces agents de liaison dans les écoles à moins que les conseils scolaires puissent « démontrer un besoin fondé sur des données probantes qui ne peut pas être satisfait par d'autres moyens. »Note de bas de page 32 Toute surveillance policière potentielle dans les écoles, y compris par la TRF, représente un sérieux risque potentiel pour la préservation des droits de la personne des enfants et des jeunes dans leur environnement de développement et d'apprentissage. Par conséquent, elle ne devrait pas être permise.
  • 4.3 L'utilisation de la TRF par les services de police et de maintien de l'ordre ne serait justifiée que dans de très rares situations où un enfant ou un jeune est en cause.

5. La position de la CCDP est que, d'ici la mise en place d'un nouveau cadre juridique et stratégique, l'utilisation de la TRF par les services de police devrait être interdite au moyen d'un moratoire.

  • 5.1 Le document d'orientation préliminaire n'aura probablement pas l'effet escompté de contribuer à faire en sorte que l'utilisation de la TRF par les services de police soit légale et atténue convenablement les risques de violer les droits de la personne.
  • 5.2 Dans son rapport d'enquête concernant la GRC, le CPVP reconnaît que l'utilisation de la TRF ne peut être permise que si on peut préalablement montrer son efficacité pour chaque usage particulier. Il y écrit que : « les services de police ne devraient pas avoir recours à la technologie de RF tout simplement parce que l'on estime qu'elle est "utile" pour l'application de la loi de manière générale. Les services de police doivent avoir un motif précis de faire appel à cette technologie et ce motif doit être fondé sur des éléments probants. Il ne suffit pas de s'appuyer sur des objectifs généraux en matière de sécurité publique pour justifier l'utilisation d'une technologie aussi intrusive. Le caractère urgent et important de l'objectif en question devrait être démontrable par des éléments probants. »Note de bas de page 33 Le document d'orientation préliminaire donne aussi la possibilité que des utilisations souhaitées de la TRF ne soient pas permises en vertu des règles de fonctionnement proposées, si la GRC en arrivait à la conclusion soit qu'elle n'avait pas d'éléments probants pour justifier cette utilisation soit que la loi ne lui permet pas de le faire.
  • 5.3 La CCDP marque son accord sur ces exigences de justifier la nécessité de l'utilisation d'une TRF par IA au moyen d'éléments probants indéniables et convient qu'une organisation doit le faire en conformité avec la loi.Note de bas de page 34 Ces conditions correspondent à la fois aux évaluations exigées par le droit en matière de protection de la vie privée et aux exigences prévues par la Charte et par le droit en matière de droits de la personne. Cependant, la CCDP est contre l'idée que la justification fondée sur des éléments probants et l'exigence de se conformer à la loi peuvent et doivent être évaluées par la GRC elle-même au moyen d'activités internes menées selon le document d'orientation préliminaire facultatif. Comme nous l'avons déjà précisé, la CCDP s'inquiète des activités qui seraient optionnelles dans le document d'orientation préliminaire, mais qui seraient nécessaires d'après une approche fondée sur les droits de la personne et qui nécessiteraient une autre étude parlementaire.
  • 5.4 La position de la CCDP est que les directives opérationnelles et l'autoréglementation ne sont pas les outils stratégiques adéquats pour cette technologie de nos jours :
    • parce que l'IA et la TRF elle-même se développent rapidement dans un environnement non réglementé;Note de bas de page 35
    • parce que la population s'inquiète de plus en plus à propos de la protection de la vie privée et de la surveillance;
    • parce que le monde entier commence à imposer des interdictions et des limites raisonnables concernant l'utilisation de la TRF pour la surveillance de masse;
    • parce que les systèmes de justice pénale et les pouvoirs de la police sont soumis à un intense examen approfondi, en raison du nombre croissant d'appels à une supervision publique accrue des services de police.Note de bas de page 36
  • 5.5 Il est peu probable que le document d'orientation préliminaire soit suffisant pour protéger la population contre la nature généralement intrusive de l'utilisation de la TRF et les risques élevés d'impact négatif a sur les droits de la personne, le droit à la liberté d'expression, le droit à la liberté de réunion et d'association pacifiques, le droit à l'autonomie, le droit à la liberté de pensée et d'opinion, le droit à l'égalité et le droit de vivre sans discrimination.
  • 5.6 Point encore plus important, étant donné les antécédents de la GRC en matière de racisme systémique, de contrôle excessif et de surveillance policière excessive des communautés noires, autochtones et racisées, le document d'orientation préliminaire ne serait probablement pas suffisant pour atténuer le fort risque de préjudice qui pourrait découler de l'application discriminatoire de la TRF et de ses répercussions. Il ne serait probablement pas suffisant non plus pour éliminer l'actuelle méfiance de la population à l'égard des services de police et de la surveillance. Au contraire, la CCDP est d'avis que la TRF par IA est un puissant outil de surveillance qui risque de perpétuer et d'amplifier le racisme systémique s'il s'ajoute aux outils de maintien de l'ordre.
  • 5.7 Ce contexte général ne soutient pas la prémisse qu'une directive opérationnelle, des évaluations internes et des mécanismes de reddition de comptes internes suffisent pour respecter et protéger les droits de la personne. La GRC doit réduire le nombre d'outils qui peuvent perpétuer la discrimination, mais faire l'objet d'une supervision externe renforcée.

La CCDP souhaite que le débat public se poursuive et que le Parlement discute davantage de ces enjeux.

Annexe A

Recommandations de la CCDP et d'autres commissions des droits de la personne

  1. Dans plusieurs de ses récents mémoires présentés aux Nations Unies, soit au Comité contre la torture (en 2018 et 2021), au Comité des droits de l'enfant (2020) et au Comité des droits de la personne (2021), la CCDP a mentionné que, dans les domaines du maintien de l'ordre, de l'application des lois, de la sécurité aux frontières, de l'immigration et de la justice pénale, la TRF et les autres technologies par IA peuvent aggraver les injustices et le racisme systémique. La CCDP a joint sa voix au nombre croissant d'appels à la prudence par les organes des Nations Unies.
  2. Comme mentionné dans le mémoire présenté par la CCDP au Comité des droits de l'enfant en préparation de l'élaboration, par le Comité, d'une liste d'enjeux avant le rapport sur les 5e et 6e examens périodiques du Canada,Note de bas de page 37 les enfants et les jeunes sont de plus en plus soumis à de la surveillance technologique de leurs activités tant par le gouvernement que par le secteur privé. Cette surveillance est souvent faite sans que l'enfant le sache ou l'ait autorisée, et elle comporte des nouveaux risques considérables pour leur vie privée et, par conséquent, pour leurs autres droits. Cette surveillance croissante –, combinée à d'autres technologies comme les mégadonnées –, la reconnaissance faciale et l'IA peuvent mettre les enfants et les jeunes à risque de voir de grands pans de leur vie et de leurs décisions être devinés, influencés, monétisés et exploités de manières qui ne correspondent pas aux meilleurs intérêts de l'enfant, ou qui vont même à leur encontre.
  3. Dans son rapport final de 2021 sur les droits de la personne et la technologie,Note de bas de page 38 la commission australienne des droits de la personne recommande un moratoire sur l'utilisation de la TRF par les services de police jusqu'à ce qu'un nouveau cadre juridique soit mis en place. Elle recommande aussi la nomination d'un commissaire à la sûreté de l'IA pour aider les régulateurs, les responsables des politiques, le gouvernement et les entreprises à appliquer les lois et les autres normes relatives à la prise de décisions éclairées sur l'IA. Selon la commission australienne, les organismes gouvernementaux et le secteur privé donnent souvent des renseignements imprécis sur les moyens de mettre au point et d'utiliser l'IA conformément à la loi, aux principes éthiques et au respect des droits de la personne. Les régulateurs ont de la difficulté à remplir leur mandat parce que les entités qu'ils réglementent changent en profondeur leur mode de fonctionnement. Les législateurs et les responsables des politiques subissent une pression sans précédent quant à doter l'Australie des bons mécanismes d'établissement des lois et politiques pour éliminer les risques et saisir les occasions générées par l'évolution de l'IA. L'évolution sans précédent de l'IA représente un défi, en l'espace d'une génération, de mettre au point et d'appliquer une réglementation capable de soutenir une innovation positive tout en évitant les risques de préjudices. Un commissaire à la sûreté de l'IA fournirait des connaissances techniques et renforcerait les capacités. Occupant un poste indépendant qui est institué par la loi et qui privilégie l'intérêt public, y compris les droits de la personne, un commissaire à la sûreté de l'IA pourrait contribuer à donner confiance à la population quant à l'utilisation sécuritaire de l'IA.Note de bas de page 39
  4. En mars 2020, la commission de l'égalité et des droits de la personne de la Grande-Bretagne a demandé que les services de police de l'Angleterre et du pays de Galles cessent d'utiliser la reconnaissance faciale automatisée (RFA) et des algorithmes prédictifs jusqu'à ce que leurs répercussions soient examinées en profondeur par un organisme indépendant et que les lois soient améliorées.Note de bas de page 40

Recommandations d'organisations de la société civile canadienne

  1. Les organisations de la société civile canadienne ont aussi demandé qu'on limite l'utilisation de la TRF par les services de policeNote de bas de page 41 ou qu'on adopte un moratoire.Note de bas de page 42 Dans leur mémoire présenté au CPVP concernant son document d'orientation préliminaire, Citizen Lab et l'Association canadienne des libertés civiles (ACLC) ont demandé un moratoire sur l'utilisation de la TRF par les services de police. De plus, l'ACLC considère que, « jusqu'à ce qu'il y ait une chance d'évaluer pleinement les risques, la précision de la technologie et le coût des erreurs et des échecs, cette technologie ne devrait pas être utilisée, notamment à des fins répressives. »Note de bas de page 43
  2. Citizen Lab a indiqué que, par-dessus tout, les représentants des communautés ont exprimé la préoccupation dominante que les outils par algorithmes des services de police pourraient perpétuer la discrimination systémique contre les communautés marginalisées tout en masquant les enjeux systémiques sous-jacents et les problèmes fondamentaux dans le système de justice pénale qui ne peuvent pas être réglés par la technologie. Les représentants des communautés considèrent aussi que l'utilisation des outils algorithmiques pour le maintien de l'ordre est inséparable de l'histoire canadienne de colonialisme et de discrimination systémique envers les communautés autochtones et noires ainsi que les autres groupes racisés et marginalisés.Note de bas de page 44

Organismes de législation et de réglementation décrétant des interdictions et des limitations sur la TRF

États-Unis

  1. En octobre 2021, la Maison Blanche des États-Unis a annoncé qu'elle analysait la possibilité de rédiger une déclaration sur les droits relatifs à l'IA (IA Bill of Rights)Note de bas de page 45 et qu'elle menait des consultations pour obtenir des avis sur la TRF et d'autres technologies biométriques.Note de bas de page 46 En juin 2021, la loi concernant un moratoire sur la reconnaissance faciale et les technologies biométriques (The Facial Recognition and Biometric Technology Moratorium Act) a été déposée au Sénat américain. Elle interdirait au gouvernement fédéral ou à tout représentant fédéral américain d'utiliser la reconnaissance faciale (et d'autres technologies biométriques) en temps réel ou sur des enregistrements ou des photos, ce qui inclut les aéroports, les points d'entrée et les zones frontalières.Note de bas de page 47 En date de janvier 2021, neuf autorités américaines avaient décrété des interdictions inconditionnelles concernant l'utilisation de la TRF par l'ensemble du gouvernement, la plupart étant assorties d'un droit privé d'actionNote de bas de page 48 ou de dommages-intérêts pour les personnes qui subissent des préjudices lorsque ces lois sont violées.Note de bas de page 49 En date de novembre 2021, un total de 21 villes américainesNote de bas de page 50 avaient interdit l'utilisation de la TRF par les services de police. En 2020, la ville de Portland, en Oregon, a adopté les textes de loi les plus restrictifs aux États-Unis à ce moment relativement à la reconnaissance faciale, de manière à bannir l'utilisation de cette technologie aussi bien par le secteur privé que par le gouvernement.Note de bas de page 51 De plus, à l'heure actuelle, une cinquantaine de législateurs, à l'échelle locale ou à l'échelle de l'État, avaient adopté des lois ou des règlements – ou en avaient annoncé l'adoption prochaine – sur l'utilisation de la TRF par les services de police et le gouvernement.

Union européenne

  1. En janvier 2021, le comité consultatif du Conseil de l'Europe a publié des lignes directrices proposant des règles strictes sur l'utilisation de la reconnaissance faciale, y compris l'interdiction de certaines utilisations de la TRF, comme l'utilisation en temps réel dans des environnements non contrôlés.Note de bas de page 52 En avril 2021, la Commission européenne (CE) a publié une proposition de règlementNote de bas de page 53 pour restreindre l'utilisation de la TRF dans les espaces publics de l'Union européenne. Les règles interdisent aux services de police d'utiliser les systèmes d'identification biométrique, comme la reconnaissance faciale, dans les lieux publics – sauf dans les situations d'urgence ou pour résoudre des crimes gravesNote de bas de page 54. Par situations d'urgence ou crimes graves, on entend la recherche d'un enfant disparu, la réunification d'une famille séparée pendant qu'elle fuyait une guerre, la lutte au trafic de personnes, l'identification d'enfants ou de personnes victimes de violence ou d'agressions ou d'exploitation sexuelles, et des menaces imminentes de terrorisme. Cette proposition de règlement doit être négociée entre les pays de l'UE et le groupe de responsables des lois avant qu'elle devienne une loi.
  2. Cette proposition de règlement de la CE est examinée de manière intense et a fait l'objet d'une très vaste contestation de la part des parlementaires de l'UE, des organismes de surveillance et des organisations de la société civile. Deux organismes de surveillance de l'Europe ont demandé d'interdire l'utilisation de la TRF dans les espaces publicsNote de bas de page 55 et ont déclaré ce qui suit : « Une interdiction générale de l'utilisation de la reconnaissance faciale dans les zones accessibles au public est le point de départ nécessaire si nous voulons préserver nos libertés et créer un cadre juridique centré sur l'humain pour l'IA. » Les groupes de la société civile préparent leur opposition à la proposition de règlement parce qu'elle néglige une faille inquiétante dans les technologies discriminatoires de surveillance utilisées par les gouvernements et les entreprises.Note de bas de page 56 The European Parliament has also raised alarms. On October 6, 2021, Members passed a non-binding resolutionNote de bas de page 57 exigeant l'interdiction légale d'utiliser la TRF dans les lieux publics.Note de bas de page 58 La résolution demande explicitement un moratoire sur le déploiement des systèmes de reconnaissance faciale pour des motifs qui sont liés à l'application des lois et qui visent l'identification, à moins que ce soit pour identifier la victime d'un crime, jusqu'à ce que les normes techniques soient considérées comme étant parfaitement conformes aux droits fondamentaux. En date de novembre 2021, un total de 116 membres du Parlement européen avaient écrit aux dirigeants de la Commission européenne pour appuyer une organisation de la société civile ayant demandé dans une lettre que les utilisations de l'IA nuisant aux droits fondamentaux soient davantage restreintes.Note de bas de page 59
  3. De plus, certains pays de l'UE, comme l'Allemagne,Note de bas de page 60 sont à mettre en place des interdictions totales de l'utilisation de la TRF dans les lieux publics, en prévision des négociations de l'UE sur la loi relative à l'IA.

Écosse

  1. En février 2020, le Parlement écossais a mis un frein à toute utilisation de la reconnaissance faciale en temps réel pour les enquêtes policières. Cette décision faisait suite à un rapport parlementaire du sous-comité de la justice sur les services de police (Justice Sub-Committee on Policing)Note de bas de page 61 et à la nomination en 2021 d'un agent des affaires parlementaires au poste de commissaire à la biométrie, pour précisément surveiller l'utilisation des renseignements biométriques par la police, rédiger un projet de loi pour orienter cette utilisation et établir un mécanisme de plainte. Le secrétaire à la justice a déclaré que, étant donné l'explosion des technologies de collecte des données biométriques ces dernières années, il est encore plus important d'avoir un commissaire indépendant qui pilotera la conversation nationale sur les droits, les responsabilités et les normes. Il déclare voir dans la nomination de ce commissaire l'occasion de tisser des liens avec d'autres commissaires, comme le commissaire à l'information et la commission écossaise des droits de la personne, afin de peut-être propulser une campagne nationale.Note de bas de page 62

Lien connexe