Fiches des enjeux, utilisation et conséquences de la technologie de reconnaissance faciale
Comment fonctionne la technologie de RF
Principaux messages
- La technologie de RF utilise des techniques complexes de traitement de l’image pour détecter et analyser les caractéristiques biométriques du visage d’une personne aux fins d’identification ou d’authentification.
- L’utilisation de la RF entraîne la collecte et le traitement de renseignements personnels très sensibles.
- La RF est une technologie particulièrement puissante, car elle permet une identification ou une authentification rapides, à grande échelle et à coût relativement faible, à partir de sources d’images et de vidéos existantes.
- La facilité de déploiement de cette technologie et les graves répercussions qu’elle peut avoir sur la vie privée montrent la nécessité d’adopter une réglementation claire afin d’atténuer les préjudices pour les personnes et la société.
Contexte
- De façon générale, la RF fonctionne comme suit :
- Une image de référence est recueillie et saisie dans le système.
- Le visage figurant dans l’image est converti en modèle biométrique ou « empreinte faciale ».
- Le système compare ensuite cette empreinte avec une base de données existante d’images faciales qui ont déjà été converties elles aussi en empreintes faciales et il calcule la probabilité d’une correspondance.
- Lorsqu’elle est utilisée aux fins d’identification, la RF peut être configurée pour renvoyer une liste d’images étiquetées qui dépassent le seuil fixé en matière de similarité avec l’image de référence.
Préparé par : DAT/PRAP
Ratissage du Web (renseignements personnels auxquels le public a accès)
Principaux messages
- Le ratissage du Web permet de recueillir rapidement et facilement des quantités sans précédent de renseignements personnels dans des sites Web auxquels le public a accès, entre autres les médias sociaux.
- En grande partie, il ne s’agit pas vraiment de renseignements « auxquels le public a accès », au sens donné à cette expression dans la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE). Par conséquent, ces renseignements ne peuvent pas être soustraits à l’obligation d’obtenir le consentement.
- Notre enquête sur Clearview AI a révélé que l’entreprise utilisait ce type d’outils pour recueillir des milliards d’images dans divers sites Web afin de créer une base de données de référence pour son logiciel de reconnaissance faciale de façon illégale, car elle n’avait pas obtenu le consentement exigé.
- Les expériences comme celle de Clearview montrent la nécessité d’éviter toute interprétation large des façons dont on peut utiliser sans consentement les renseignements « auxquels le public a accès », car cette pratique pourrait entraîner de graves préjudices. Les lois sur la protection des renseignements personnels doivent veiller à ce que les attentes raisonnables des individus soient prises en compte pour déterminer s’il s’agit de renseignements « auxquels le public a accès ».
Contexte
- Le ratissage du Web consiste à extraire des données à partir de sites Web – généralement au moyen d’un logiciel permettant de naviguer dans le Web et de recueillir des données de façon automatique. Les robots d’indexation naviguent dans ces sites et créent des copies des images auxquelles ils ont accès sans demander l’autorisation des exploitants des sites en question.
- Les exploitants des sites Web peuvent avoir recours à diverses techniques anti-ratissage pour détecter et bloquer les robots, mais il est possible de contourner la plupart de ces contre-mesures.
- À titre d’exemple, en menant ses activités de ratissage, Clearview AI contrevenait aux conditions de service de divers sites Web. Google, Facebook et Twitter lui ont demandé de cesser de le faire et de s’en abstenir, mais elle continue de ratisser des images à partir de ces sites, affirmant qu’elle estime avoir le droit de le faire.
Préparé par : Secteur de la conformité
Utilisation de la RF par le secteur public
Principaux messages
- Nous avons collaboré avec des ministères dans le cadre d’initiatives faisant appel à la RF pour les besoins de l’immigration et de la sécurité frontalière, de la sécurité nationale et de l’application de la loi.
- Voici quelques-unes de nos recommandations :
- Conseiller aux institutions de vérifier si le recours à la RF est nécessaire, proportionnel et efficace dans le contexte.
- En ce qui a trait à l’exactitude, nous avons formulé des commentaires concernant la possibilité de biais et de répercussions disproportionnées dans le cas de certaines personnes relativement aux bornes d’inspection primaire de l’ASFC.
- Nous avons recommandé l’ASFC de s’assurer qu’un consentement valable a été obtenu au cours d’un projet pilote visant à vérifier l’efficacité d’un logiciel de RF dans un contexte opérationnel frontalier (projet Visages en mouvement).
Contexte
- Depuis 2010, la Direction des services-conseils au gouvernement a reçu quatre (4) évaluations des facteurs relatifs à la vie privée portant sur des initiatives qui faisaient explicitement appel à la technologie de RF et elle a mené six (6) consultations portant sur ce type de technologies. Les échanges avec les organismes d’application de la loi et de sécurité nationale au sujet des initiatives faisant appel à la RF étaient seulement des discussions préliminaires.
- Les seules initiatives faisant appel à la RF dont nous sommes au fait sont celles que nous ont déclarées l’ASFC, la Gendarmerie royale du Canada, le ministère de la Défense nationale ainsi qu’Immigration, Réfugiés et Citoyenneté Canada.
Préparé par : DSCG
Utilisation de la RF par le secteur privé
Principaux messages
- Des entreprises privées ont de plus en plus recours à la RF à diverses fins.
- Exemples :
- surveillance des examens dans les universités;
- vérification de l’identité dans le cadre des transactions financières;
- contrôle de l’accès aux propriétés privées.
- Ces utilisations posent des problèmes relatifs à la protection de la vie privée, y compris:
- Le consentement valable a-t-il été obtenu?
- Des mesures de protection appropriées sont-elles en place pour protéger les données d’images faciales extrêmement sensibles?
- Combien de temps les données seront-elles conservées?
- Les gens devront-ils céder leurs renseignements biométriques sensibles à des entreprises privées pour avoir accès à des biens et à des services?
Contexte
- Exemple d’utilisation de la RF par le secteur privé :
- Des universités canadiennes ont eu recours à Proctortrack pour vérifier l’identité des étudiants et les surveiller pendant leurs examens. Or, l’entreprise a été victime d’une atteinte à la sécurité des renseignements en octobre 2020.
- Des banques canadiennes ont déployé la RF pour vérifier l’identité dans le cadre de transactions financières, notamment des opérations bancaires et des transactions par carte de crédit effectuées en ligne.
- Une société immobilière canadienne a déployé la RF pour contrôler et surveiller l’accès à des immeubles résidentiels. Les locataires peuvent se retirer du programme, mais des images de toute personne qui pénètre dans l’immeuble (p. ex. les livreurs) sont saisies automatiquement.
Préparé par : PRAP
Authentification
Principaux messages
- La biométrie peut constituer une méthode utile afin d’authentifier l’identité d’une personne et de protéger des biens importants ou sensibles.
- Toutefois, les identifiants biométriques sont intimement liés au corps et il n’est pas facile de les modifier. Une atteinte à la sécurité de ces renseignements peut exposer une personne à un préjudice grave et durable, par exemple la fraude.
- Avant d’utiliser des identifiants biométriques, une organisation doit donc se demander s’ils sont nécessaires, efficaces et proportionnels, et s’il existe une solution de rechange moins envahissante sur le plan de la vie privée.
- Les identifiants biométriques doivent être extrêmement bien protégés.
Contexte
- L’authentification consiste en une comparaison un-à-un avec des données fournies auparavant par la personne. De façon générale, elle porte beaucoup moins atteinte à la vie privée que l’identification, qui consiste en une comparaison un-à-plusieurs, par exemple le croisement de renseignements ou une recherche dans une base de données.
- La rigueur des processus d'authentification doit être proportionnelle au risque. D’après nous, les renseignements biométriques devraient être utilisés dans le cadre d’un système d’authentification multifactorielle, qui combine un renseignement que la personne connaît (p. ex. un mot de passe), un élément qu’elle a (p. ex. un appareil ou une clé) et un élément de son identité (p. ex. un renseignement biométrique).
- Selon que l'identifiant biométrique est véritablement unique ou constant et le degré d'efficacité de la technologie utilisée pour apparier les données, les systèmes de reconnaissance automatique peuvent à l'occasion produire des faux positifs ou des faux négatifs. Il faut donc vérifier l’efficacité avant de mettre en œuvre ce type de système.
- Plusieurs mesures de protection permettent de gérer efficacement les risques dans de nombreuses situations, par exemple :
- stockage d’identifiants biométriques sur l’appareil de la personne;
- stockage de ces identifiants sous forme de représentations numériques (modèles) plutôt que d’images brutes;
- utilisation de modèles qui peuvent être « annulés » et ne peuvent être reconvertis pour rétablir les renseignements biométriques initiaux; et
- utiliser le chiffrement.
Préparé par : PRAP
Utilisation des données de la RF par les corps policiers
Principaux messages
- Il incombe aux services de police de s’assurer que toute utilisation de la technologie de RF est conforme à la loi et que les risques d’atteinte à la vie privée sont gérés de manière appropriée.
- Les organisations du secteur privé doivent elles aussi respecter leurs obligations en matière de protection de la vie privée lorsqu’elles recueillent des renseignements personnels ou qu’elles les communiquent aux corps policiers ou en leur nom.
- Le Commissariat poursuit son enquête pour déterminer si la GRC a contrevenu à la Loi sur la protection des renseignements personnels fédérale en recueillant des renseignements personnels auprès de Clearview AI et en les utilisant.
Contexte
- Clearview AI est une entreprise privée qui a activement fait la promotion de ses services auprès des corps policiers. Manifestement, elle n’a pas reconnu que la collecte de renseignements biométriques auprès de milliards de personnes, sans leur consentement explicite, portait atteinte à leurs attentes raisonnables en matière de protection de la vie privée. L’entreprise estimait que ses intérêts commerciaux l’emportaient sur le droit à la vie privée.
- Clearview AI estime que son entreprise ne peut pas être tenue responsable d’offrir des services à des corps policiers ou à toute autre entité qui commet ensuite des erreurs par rapport à l’évaluation d’une personne visée par une enquête.
- Nous élaborons des lignes directrices pour les corps policiers sur l’utilisation de la technologie de reconnaissance faciale, afin de préciser leurs responsabilités juridiques, telles qu’elles existent actuellement, afin de veiller à ce que toute utilisation de la RF se conforme à la loi, limite le plus possible les risques sur le plan de la protection de la vie privée et respecte le droit fondamental de la personne à la protection de la vie privée.
Préparé par : PRAP
En consultation avec : Secteur de la conformité
RF et intelligence artificielle (IA)
Principaux messages
- Les systèmes de RF utilisent l’IA pour détecter, analyser et comparer les caractéristiques biométriques d’images faciales.
- Les récentes avancées dans les techniques de modélisation de l’IA ont permis d’améliorer l’efficacité des algorithmes de RF (voir la fiche d’enjeu pertinente).
- En novembre 2020, le Commissariat a publié une série de recommandations pour la réforme de LPRPDE en vue d’assurer une réglementation appropriée de l’IA. Le projet de loi C-11 prévoit très peu des mesures que nous avions recommandées. À notre avis, les droits des Canadiens se trouvent ainsi exposés à un risque constant.
- Le 21 avril 2021, la Commission européenne a proposé sa loi sur l’intelligence artificielle, qui renferme des dispositions interdisant certaines utilisations de celle-ci.
Contexte
- Les systèmes de RF existent depuis la fin de années 1960. Les premières versions de ces logiciels s’appuyaient sur l’intervention humaine pour sélectionner et mesurer manuellement les points de repère du visage d’une personne alors que le processus actuel est entièrement automatisé et utilise l’IA.
- Le projet de loi C-11 prévoit certaines mesures qui vont dans le sens des améliorations que nous avions recommandées pour la réglementation de l’IA (quoique pas exactement) : l’utilisation de renseignements personnels dépersonnalisés à des fins socialement bénéfiques dans certaines circonstances (art. 39) ainsi qu’à des fins de recherche et de développement internes (art. 21), une forme d’explication (par. 63[3]) et le pouvoir de rendre des ordonnances (par. 92[2]). Il y a aussi des lacunes, comme l’absence de dispositions prévoyant des exceptions au consentement à des fins compatibles et à des fins d’intérêts commerciaux légitimes; reconnaissance du droit à la vie privée comme droit de la personne; le droit à la contestation; une responsabilité démontrable (protection de la vie privée et des droits de la personne dès la conception, des EFVP pour les initiatives à risque élevé, la traçabilité, une procédure d’inspections proactives par le Commissariat) et l’imposition de sanctions administratives pécuniaires par le Commissariat.
- La loi sur l’intelligence artificielle proposée par l’Union européenne interdirait l’utilisation de l’IA pour manipuler le comportement humain d’une manière susceptible de causer un préjudice physique ou psychologique, pour la notation sociale par les autorités publiques et pour l’identification biométrique à distance en temps réel dans les espaces publics par les corps policiers.
Préparé par : DAT/PRAP
Transformation de la surveillance sous l’effet de la technologie de RF
Principaux messages
- La technologie de RF peut permettre de recueillir de très vastes sommes de renseignements personnels et de nature sensible sur des milliards de personnes. Cet état de fait expose les citoyens à une surveillance massive et sans précédent tant de la part des sociétés que des États.
- Les nouvelles formes de surveillance sont plus efficaces, car il s’agit souvent d’une surveillance secrète et, dans le cas de la reconnaissance facile, elles combinent des points de données sensibles avec une puissante analyse algorithmique.
- Les risques que pose la surveillance de masse démontrent très clairement que les droits et les valeurs des citoyens doivent être protégés par un solide cadre législatif fondé sur des droits ainsi que par un vigoureux et efficace organisme de réglementation de la protection de la vie privée.
Contexte
- Les enquêtes portant sur Cadillac Fairview et Clearview AI ont toutes deux révélé comment les capacités de reconnaissance faciale amplifient les pratiques de surveillance en place.
- Dans le cas de la plainte mettant en cause Clearview AI, nous avons observé une collecte massive d’images ainsi que la création de dispositifs de reconnaissance faciale biométriques, qui représentaient une identification et une surveillance massives de personnes.
- Au Royaume-Uni, des corps policiers ont déployé la RF dans des situations concrètes pour surveiller l’accès aux espaces publics en temps réel. En pareil cas, les données des images faciales sont recueillies sans discernement auprès de passants et comparées avec une base de données d’images de personnes d’intérêt connues des corps policiers et les images mises en correspondance sont transmises aux policiers se trouvant à proximité.
Préparé par : PRAP
Exactitude et biais
Principaux messages
- Les lois sur la protection des renseignements personnels exigent que les renseignements personnels recueillis et utilisés dans le cadre d’un projet de RF sont exacts. L’inexactitude dans les systèmes de RF pose de graves risques à la vie privée lorsque des décisions concernant des personnes sont prises sur la base de renseignements inexacts. Elle soulève aussi des problèmes d’iniquité, de biais et de discrimination.
- La qualité des algorithmes de RF actuels varie grandement. Bon nombre d’entre eux présentent des écarts au chapitre de l’exactitude entre les groupes démographiques (p. ex. selon la race et le sexe), mais certains algorithmes parmi les plus exacts présentent des écarts « indétectables » entre les groupes démographiques.
- De plus, si les données d’entraînement utilisées pour générer un algorithme de RF manquent de diversité, l’algorithme pourra coder ce type de biais par défaut.
- Pour assurer le respect des obligations en matière d’exactitude, il faut prendre en compte le système de RF dans son ensemble – les données d’entraînement et l’algorithme de RF utilisés, la base de données d’images faciales à partir de laquelle on compare les images ainsi que la nature de la vérification manuelle.
Contexte
- La technologie de RF s’est améliorée rapidement ces derniers temps. Des études ont révélé que la majorité des algorithmes des développeurs mis à l’essai en 2018 surpassaient l’algorithme le plus exact de 2013 et que l’algorithme le plus exact de 2020 est considérablement plus exact que tous ceux de 2018.
- Des études ont montré qu’un manque de diversité dans les données d’entraînement est la principale cause des biais : les algorithmes élaborés en Chine donnent de meilleurs résultats avec les visages d’Asiatiques qu’avec ceux de personnes d’Europe de l’Est, ce qui va à l’encontre de la tendance générale.
- La représentation disproportionnée d’un groupe dans une base de données d’images faciales pourrait conduire à une « boucle de rétroaction » où le système de RF amène les corps policiers à faire peser les soupçons sur les membres du groupe, les personnes qu’ils fréquentent ou leur communauté, ce qui accroît la disproportionnalité au fil du temps.
Préparé par : DAT/PRAP
Répercussions de la technologie les RF sur les droits démocratiques
Principaux messages
- L’utilisation de la reconnaissance faciale dans l’espace public, y compris dans les espaces virtuels, soulève des préoccupations au sujet de la protection des droits et libertés démocratiques.
- La protection de la vie privée est essentielle à la dignité, à l’autonomie et à l’épanouissement personnel. Elle est une condition préalable à la participation libre et ouverte des citoyens à la démocratie. Pour que la démocratie s’épanouisse, les citoyens peuvent circuler dans les espaces publics, semi-publics et privés sans risquer que leurs activités ne soient suivies et surveillées ou que leur identité ne soit révélée à chaque étape.
- Il est impératif que nos cadres relatifs à la protection de la vie privée soient réformés de manière à reconnaître et à protéger la vie privée à titre, en soi, de droit de la personne.
Contexte
- Réponse des autorités de protection des données internationales : En 2019, le Commissariat a parrainé une résolution de l’Assemblée mondiale pour la protection de la vie privée (AMVP) selon laquelle la protection de la vie privée joue un rôle essentiel en permettant l’exercice d’autres droits fondamentaux, comme la liberté, l’égalité et la démocratie. L’AMVP dans son ensemble a demandé aux gouvernements de réaffirmer leur engagement ferme à l’égard du droit à la vie privée en tant que droit intrinsèque qui appuie les processus et les institutions démocratiques.
- Préoccupations mondiales : Le Haut-Commissaire des Nations Unies aux droits de l’homme a affirmé que l’utilisation de la technologie de reconnaissance faciale dans le contexte de manifestations pacifiques devrait faire l’objet d’un moratoire jusqu’à ce que les États respectent certaines conditions, notamment la transparence, la surveillance et la diligence raisonnable en matière de droits de la personne avant son déploiement.
En voici quelques exemples récents :
- Août 2020 – Dans Bridges v. South Wales PoliceNote de bas de page 1, la Cour d’appel d’Angleterre et du pays de Galles a invalidé le rejet par la Haute Cour de justice d’une contestation de l’utilisation d’une technologie de reconnaissance faciale automatisée par les corps policiers. Elle a conclu que cette utilisation était illégale et qu’elle portait atteinte aux droits de la personneNote de bas de page 2. Dans cette affaire, l’image faciale d’une personne avait été enregistrée au cours d’une manifestation pacifique. La Cour d’appel a conclu explicitement que la technologie de RF portait atteinte aux droits de la personne.
- L’organisme Human Rights Watch s’est dit « très préoccupé » par les systèmes de RF chinois dotés d’une technologie d’IA qui permet de balayer le visage des manifestants au Myanmar et de signaler aux autorités ceux qui figurent sur une liste de personnes recherchées.
Préparé par : PRAP
Communautés racisées
Principaux messages
- Malgré les avancées dans le perfectionnement de la reconnaissance faciale, bon nombre d’algorithmes de RF présentent encore des écarts importants au chapitre de l’exactitude entre les groupes démographiques (p. ex. selon la race et le sexe).
- Des études ont démontré que les technologies de reconnaissance faciale sont également plus susceptibles de se tromper sur le plan de l’identité ou de produire de faux positifs lorsqu’elles évaluent le visage de gens de couleur, et tout particulièrement de femmes de couleur, ce qui pourrait les exposer à un traitement discriminatoire.
- Dans le contexte d’une enquête relative à l’application de la loi, un résultat constituant un faux positif pose d’importants risques de préjudices pour des individus racisés, tout particulièrement lorsqu'ils peuvent être, de manière disproportionnée, soupçonnés par erreur d’actes criminels graves.
Contexte
- Des études ont révélé que certains logiciels de RF commerciaux comportent généralement des erreurs de divers ordres dans l’identification des personnes entre différents groupes raciaux et genrés, ce qui crée un risque de biais dans l’utilisation de la technologie de RF.
- En raison de la nature de ces inexactitudes, certains chercheurs ont affirmé craindre que l’utilisation de la RF, si elle n’est pas gérée de façon appropriée, puisse à terme accentuer les tensions et les inégalités existantes se rapportant aux corps policiers.
- Il est impératif que les organisations prennent des mesures pour réduire les inexactitudes et les préjugés dans tout déploiement de la technologie de RF.
Préparé par : PRAP
Enfants, personnes âgées et populations vulnérables
Principaux messages
- L’exactitude de la technologie de RF varie parfois grandement d’un groupe démographique à l’autre, ce qui crée un risque de traitement injuste, contraire à l’éthique ou discriminatoire découlant de son utilisation.
- Si elle est utilisée de façon peu appropriée, la technologie de RF peut porter atteinte de façon importante et durable à la vie privée et à d’autres droits fondamentaux, plus particulièrement dans le cas des groupes sociaux depuis toujours marginalisés ou vulnérables.
- Au moment de mettre en œuvre la RF pour une fin déterminée, les organisations devraient prendre attentivement en compte les besoins et les sensibilités propres aux populations vulnérables ainsi que les répercussions disproportionnées éventuelles sur celles-ci et éliminer ces risques dès le début de la conception du programme.
Contexte
- Les populations vulnérables ont parfois des capacités ou des compétences numériques moindres, ce qui les empêche de pleinement comprendre les répercussions que peut avoir sur leur vie privée l’analyse de leurs images faciales ou de donner un consentement valable à la collecte et à l’utilisation de leurs images pour la RF.
- En raison de leurs ressources ou de leurs capacités moindres, les populations vulnérables peuvent aussi être moins susceptibles ou capables d’éviter les espaces publics où la RF est déployée. Cette situation peut entraîner une surreprésentation de ces populations dans le déploiement des systèmes de RF.
- Cela dit, certaines utilisations de la technologie de RF peuvent procurer des avantages aux populations vulnérables :
- Les organismes chargés de l’application de la loi auraient recours à la technologie pour trouver des enfants ou des personnes âgées manquants.
- La RF a été utilisée dans des casinos pour identifier des personnes qui avaient adhéré de leur propre chef à des programmes s’adressant aux joueurs compulsifs.
Préparé par : PRAP
Enquête sur l’utilisation par la GRC de la technologie de Clearview AI
Principaux messages
- Notre enquête sur l’utilisation antérieure par la GRC de Clearview AI se poursuit. Nous avons l’intention de présenter les résultats de cette enquête au Parlement au cours des prochaines semaines.
- Lorsque des médias ont présenté en janvier 2020 des reportages sur l’utilisation de la technologie de Clearview AI par des organismes d’application de la loi canadiens, nous avons communiqué avec la GRC, qui a confirmé qu’elle fournirait au Commissariat une EFVP avant de déployer la reconnaissance faciale.
- Le 27 février 2020, nous avons été étonnés lorsque la GRC a affirmé au Commissariat qu’elle avait utilisé la technologie de Clearview AI et continuerait de le faire. Puisqu’elle reconnaissait utiliser la technologie de Clearview, nous avons lancé une enquête en vertu de la Loi sur la protection des renseignements personnels.
- En juillet, par suite de l’enquête conjointe sur Clearview AI que nous avions menée conjointement avec nos homologues de l’Alberta, de la Colombie-Britannique et du Québec, l’entreprise a cessé d’offrir ses services de RF au Canada. Entre autres, elle a alors suspendu indéfiniment les contrats qu’elle avait conclus avec la GRC. À notre connaissance, la GRC n’utilise plus la technologie de Clearview AI.
Contexte
- Déclaration publique de la GRC : Le 27 février 2020, la GRC a fait la déclaration suivante :
- La GRC dispose de deux licences payantes pour l’utilisation de la technologie de Clearview AI, dont elle s’est servi dans 15 cas, ce qui a lui a permis d’identifier et de sauver deux enfants.
- Elle savait aussi que quelques unités au sein de la GRC mettent à l’essai, dans une capacité limitée, Clearview AI : « Nous reconnaissons que la protection des renseignements personnels est essentielle et qu'elle constitue une attente raisonnable des Canadiens, cependant il faut établir un équilibre entre elle et la capacité des organismes d'application de la loi de mener des enquêtes et d'assurer la sécurité des Canadiens, y compris les plus vulnérables. »
Préparé par : Secteur de la conformité
Clearview AI
Principaux messages
- Nous avons publié notre rapport de conclusions d’enquête le 2 février 2021.
- Selon nos conclusions :
- Clearview n’avait pas obtenu le consentement pour la collecte, l’utilisation et la communication de millions d’images de Canadiens qu’elle avait obtenues en ratissant divers sites Web ou celles des profils biométriques qu’elle avait ainsi générés.
- Ses pratiques représentaient une surveillance de masse continue et visaient des fins inappropriées.
- Clearview a contesté nos conclusions et refusé de suivre la moindre de nos recommandations. Cette affaire montre que des outils de réglementation plus efficaces, notamment le pouvoir de rendre des ordonnances et d’imposer des sanctions administratives pécuniaires, s’imposent pour contribuer à obtenir la conformité des entreprises.
Contexte
- Coopération avec des homologues provinciaux : Le Commissariat a mené cette enquête conjointement avec ses homologues de l’Alberta, de la Colombie-Britannique et du Québec.
- Consentement : Clearview n’a pas cherché à obtenir le consentement des intéressés pour l’utilisation de leurs renseignements personnels. Selon l’entreprise, le public avait accès aux sites Web qu’elle avait ratissés pour recueillir ces renseignements, si bien que ces renseignements eux-mêmes étaient « accessibles au public ». Nous avons conclu que le public n’avait pas accès à ces renseignements au sens donné à cette notion dans les règlements d’application de la loi.
- Fins visées : Clearview a recueilli, utilisé et communiqué des renseignements personnels sans discernement pour permettre à des organisations tierces abonnées à son service d’identifier des personnes en téléversant des photos en vue d’obtenir une correspondance.
- Résultats : Au cours de l’enquête, Clearview a accepté de se retirer du marché canadien et de cesser d’offrir ses services au Canada. Au terme de l’enquête, elle a refusé de suivre la moindre des recommandations formulées par les organismes ayant mené l’enquête, entre autres :
- s’engager à ne pas revenir sur le marché canadien;
- mettre fin à la collecte, à l’utilisation et à la communication d’images et de matrices biométriques; et,
- supprimer les images et les matrices biométriques en sa possession.
Préparé par : Secteur de la conformité
Cadillac Fairview
Principaux messages
- Notre enquête portant sur Cadillac Fairview a révélé que l’entreprise utilisait des caméras dissimulées dans des bornes d’orientation numériques dans 12 centres commerciaux pour recueillir des images des clients et qu’elle avait recours à une technologie de RF pour deviner leur âge et leur sexe.
- Les clients n’avaient aucune raison de s’attendre à ce que leurs renseignements biométriques sensibles soient recueillis et utilisés de cette façon et ils n’avaient pas consenti à cette collecte ni à cette utilisation.
- Bien que les images aient été supprimées, les renseignements biométriques de nature sensible de 5 millions de clients ont été envoyés à un fournisseur de services tiers et stockés dans une base de données centralisée sans fins perceptibles.
- Nous demeurons inquiets du fait que Cadillac Fairview a refusé notre demande de s’engager à obtenir le consentement explicite et valable des visiteurs si elle décide de redéployer la technologie à l’avenir.
Contexte
- Coopération avec des homologues provinciaux : Le Commissariat a mené cette enquête conjointement avec ses homologues de l’Alberta et de la Colombie-Britannique. L’enquête a donné lieu au partage d’information avec son homologue du Québec. Les conclusions ont été publiées en octobre 2020.
- Fins visées par la collecte : Cadillac Fairview a recueilli des renseignements personnels pour surveiller les tendances de la circulation et déterminer les caractéristiques démographiques des visiteurs des centres commerciaux (p. ex. âge et sexe). À son insu, le tiers fournisseur de services a créé et conservé une base de données renfermant environ 5 millions de représentations numériques de visages.
- Résultats : Cadillac Fairview a cessé d’utiliser cette technologie et a fait savoir qu’elle ne prévoyait pas pour l’instant de reprendre son utilisation. Nous craignons que Cadillac Fairview ne recommence tout simplement cette pratique, ou une pratique similaire, et que nous devions soit aller devant les tribunaux, soit lancer une nouvelle enquête sur la question.
- Réforme de la loi : Comme en témoigne le refus de Cadillac Fairview de s’engager à obtenir le consentement explicite et valable pour une utilisation ultérieure de cette technologie, nous avons besoin de pouvoirs d’application de la loi accrus, notamment le pouvoir de rendre des ordonnances et d’imposer des sanctions administratives pécuniaires pour mieux protéger la vie privée des Canadiens.
Préparé par : Secteur de la conformité
Orientations sur la RF
Principaux messages
- L’an dernier, plusieurs reportages dans les médias ont confirmé que de nombreux corps policiers canadiens avaient recours aux services de Clearview AI.
- La RF pose de graves menaces pour la vie privée, mais certaines utilisations légitimes sont possibles pour les besoins de la sécurité publique si la technologie est utilisée de façon responsable et dans les situations appropriées.
- Nous travaillons actuellement en collaboration avec nos homologues provinciaux et territoriaux à l’élaboration de lignes directrices conjointes sur l’utilisation de la technologie de RF par les corps policiers.
- Nous avons l’intention de mener une consultation publique sur ces lignes directrices.
Contexte
- L’utilisation de la RF par les corps policiers est plutôt réglementée par un ensemble disparate de lois et de jurisprudences qui, pour la plupart, ne tiennent pas compte des risques propres à la RF. Cette situation crée une incertitude quant aux utilisations acceptables de la RF et quant aux conditions d’utilisation.
- Ce dernier vise à clarifier les responsabilités et obligations légales, telles qu’elles existent actuellement, afin de veiller à ce que toute utilisation de la RF par les services de police ne contrevienne pas à la loi, de limiter les risques d’atteinte à la vie privée et de respecter le droit à la vie privée.
- L’élaboration de lignes directrices portant expressément sur l’utilisation de la RF par les corps policiers arrive à point nommé étant donné le recours à cette technologie en situation réelle par les corps policiers, la possibilité d’avantages légitimes au chapitre de la sécurité publique et les risques très élevés d’atteinte aux libertés et droits fondamentaux qui sont en jeu.
- Le Commissariat élabore également des lignes directrices sur l’utilisation des renseignements biométriques, ce qui comprend la reconnaissance faciale, par les organisations des secteurs public et privé.
Préparé par : PRAP
Moratoire
Principaux messages
- Utilisée de manière responsable et dans des situations appropriées, la reconnaissance faciale peut en effet présenter des avantages pour la sécurité et la protection de la population. Nous ne sommes pas en faveur d’une interdiction complète de cette technologie, mais il faudrait envisager l’idée de zones interdites pour certaines pratiques en particulier.
- La RF requiert un solide cadre législatif pour assurer une utilisation responsable de cette technologie ainsi qu’une surveillance efficace. Ces lois doivent établir clairement la nécessité et le caractère proportionnel, en plus de la transparence.
- À terme, il revient au Parlement de déterminer s’il y a lieu d’imposer un moratoire jusqu’à ce que toutes les modifications législatives sur cette question aient été recommandées et adoptées.
Contexte
- L’Union européenne a proposé une loi sur l’IA interdisant l’identification biométrique dans les espaces accessibles au public à des fins d’application de la loi, sans exceptions.
- En juillet 2020, la Coalition pour la surveillance internationale des libertés civiles, de concert avec des organisations de la société civile et des défenseurs de la vie privée, a publié une lettre adressée au ministre Blair réclamant une interdiction de la « surveillance par reconnaissance faciale » par les forces policières.
- En septembre 2020, le Conseil municipal de Montréal a adopté une motion imposant des restrictions à l’utilisation de la reconnaissance faciale par le Service de police de la Ville de Montréal.
- Plusieurs villes et États américains ont interdit l’utilisation de la RF par les organismes d’application de la loi, par exemple Boston, San Francisco, Oakland, Portland, la Virginie et le Vermont.
- Certains États américains, notamment la Californie et l’Oregon, ont expressément interdit aux corps policiers d’utiliser la RF sur les images captées par les caméras corporelles.
- Au cours de la dernière année, plusieurs grandes entreprises technologiques, notamment Microsoft, IBM et Amazon, se sont engagées publiquement à s’abstenir de vendre une technologie de RF à des corps policiers en attendant la réforme législative.
Préparé par : PRAP
Lois existantes sur l’utilisation de la RF
Principaux messages
- Au Canada – sauf au Québec, province qui s’est dotée d’un système de renseignements biométriques distincts –, la RF est régie par un ensemble disparate de lois. Comme cette technologie fait appel aux renseignements personnels, elle est visée par la législation sur la protection des renseignements personnels, entre autres la LPRPDE dans le cas du secteur privé et la Loi sur la protection des renseignements personnels dans celui des institutions fédérales.
- L’utilisation de la RF par les corps policiers et l’État est limitée par la Charte canadienne des droits et libertés, qui confère aux individus le droit à la protection contre les fouilles, les perquisitions ou les saisies abusives. La Cour suprême du Canada a reconnu un droit général à l’anonymat et un droit à la vie privée dans l’espace public.
- L’absence d’une législation expressément applicable à l’utilisation de la RF par les corps policiers contraste avec la Loi sur l’identification par les empreintes génétiques et la Loi sur l’identification des criminels, qui régissent la collecte, l’utilisation, la communication et la destruction des échantillons d’ADN, des empreintes digitales et des photos signalétiques.
Contexte
- Au Québec, la Loi concernant le cadre juridique des technologies de l’information régit l’utilisation de la biométrie. Le projet de loi 64 oblige les organisations à divulguer à la Commission d’accès à l’information de cette province dans les soixante (60) jours précédant sa mise en service la création d’une base de données contenant des caractéristiques biométriques.
- En vertu de l’article 8 de la Charte canadienne des droits et libertés, à moins qu’une fouille ou une perquisition soit autorisée par la loi, elle sera illégale si un individu a des attentes raisonnables en matière de vie privée. L’anonymat fait partie du droit à la vie privée (R. c. Spencer, 2014 CSC 43) et le fait de se trouver dans un lieu public n’entraîne pas une renonciation à l’attente de protection en matière de vie privée (R. c. Jarvis, 2019 CSC 10).
- La Loi sur l’identification par les empreintes génétiques et la Loi sur l’identification des criminelsétablissent des seuils pour la collecte des caractéristiques biométriques relevant de leur portée ainsi que des conditions pour la collecte (entre autres les renseignements personnels fournis sous la contrainte et les mandats judiciaires). La Loi sur l’identification des criminelsétablit des règles particulières pour limiter les modes d’utilisation de la Banque nationale de données génétiques. Cela démontre la sensibilité des renseignements personnels.
Préparé par : Services juridiques
Projet de loi C-11: Nécessité d’un cadre fondé sur les droits
Principaux messages
- Notre enquête sur Clearview AI a mis en évidence les lacunes de la législation actuelle, dont bon nombre n’ont pas été corrigées par le projet de loi C-11.
- Le projet de loi C-11 prévoit que le droit à la vie privée et les intérêts commerciaux constituent des intérêts concurrents qu’il faut soupeser au lieu de reconnaitre la vie privée comme un droit humain.
- Nos lois doivent mieux régir l’utilisation de la reconnaissance faciale et d’autres nouvelles technologies et garantir que le droit à la vie privée des Canadiens prévaudra en cas de conflit entre des objectifs commerciaux et la protection de la vie privée.
- Nous avons proposé de modifier l’énoncé d’objet de notre loi sur la protection des renseignements personnels dans le secteur privé de manière à accorder plus de poids au droit à la vie privée en y ajoutant des considérations pour contrebalancer les nouveaux facteurs économiques. Cet article devrait aussi contenir une déclaration plus claire de l’objet de la loi et de son fondement constitutionnel pour renforcer la validité constitutionnelle de la loi. Il me ferait plaisir de vous fournir ce texte.
Contexte
L’énoncé d’objet proposé :
Dans une ère où une part importante de l’activité économique repose sur l’analyse, la circulation et l’échange de renseignements personnels et le mouvement de ces renseignements au-delà des frontières provinciales et internationales, la présente loi a pour objet
de fixer des règles régissant la protection des renseignements personnels,d’accroître la confiance à l’égard du commerce axé sur l’information et, par conséquent, de favoriser la durabilité de ce commerce en fixant des règlesrégissant la protectionpour assurer la collecte, l’utilisation et la communication licites, justes, proportionnelles, transparentes et responsables de renseignements personnelsd’une manièrequi tiennent compte :
- du droit fondamental à la vie privée des individus;
quant aux renseignements personnelsqui les concernent et du besoin des organisations de recueillir, d’utiliser ou de communiquer des renseignements personnels à des fins et d’une manière qu’une personne raisonnable estimerait acceptables dans les circonstances;- du fait que le niveau de protection garanti par le droit canadien ne doit pas être compromis lorsque des renseignements personnels sont transférés à l’extérieur du Canada.
Préparé par : PRAP
Projet de loi C-11 : SAP
Principaux messages
- En dépit de notre conclusion selon laquelle elle avait contrevenu à la loi canadienne, Clearview a refusé de supprimer les images recueillies auprès d’individus au Canada comme nous le lui avions recommandé.
- Des outils de réglementation plus efficaces, notamment le pouvoir de rendre des ordonnances et d’imposer des sanctions administratives pécuniaires, s’imposent pour nous aider à obtenir la conformité d’entreprises comme Clearview.
- Le projet de loi C-11 ne corrige pas adéquatement ces lacunes, car les dispositions proposées relativement aux sanctions administratives pécuniaires ne se seraient pas appliquées aux infractions commises par Clearview et le processus judiciaire entraînerait des retards dans l’application de ces sanctions.
- Le législateur pourrait s’inspirer de modèles, par exemple la Data Protection Act du Royaume-Uni, afin d’imposer des sanctions pour un plus large éventail d’infractions. Selon ce modèle, le commissaire pourrait, dans les cas qui s’y prêtent, donner à l’organisation un avis d’exécution précisant la nature de la violation avant de recommander ou d’imposer une pénalité.
Contexte
- Clearview a cessé d’offrir ses services à des Canadiens. Au terme de notre enquête, Clearview a refusé de suivre la moindre des recommandations formulées par les commissariats ayant mené l’enquête, c’est-à-dire i) s’engager à ne pas revenir sur le marché canadien; (ii) mettre fin à la collecte, à l’utilisation et à la communication d’images et de matrices biométriques; et, (iii) supprime les images et les matrices biométriques en sa possession.
- Un examen des régimes de sanctions administratives pécuniaires en place au Royaume-Uni, en Australie, à Singapour, au Québec (projet de loi 64), en Ontario (en vertu de la Loi sur la protection des renseignements personnels sur la santé) et en Californie n’a révélé aucun cas où seules les infractions figurant sur une liste si restreinte d’exigences de la loi peuvent donner lieu à des sanctions.
- Au Royaume-Uni, le régime de sanctions administratives pécuniaires comprend un processus optionnel en deux étapes. Lorsque le commissaire à l’information est [TRADUCTION] « convaincu qu’une personne a commis un manquement » (qu’il y a eu violation), il peut donner immédiatement [TRADUCTION] « un avis de paiement » obligeant la personne à verser une somme d’argent précise (art. 155). Toutefois, le commissaire peut également donner [TRADUCTION] « un avis d’exécution » , qui exige que l’organisation prenne les mesures, ou s’abstienne de prendre les mesures, énoncées dans l’avis (art. 149). À défaut de satisfaire aux conditions énoncées dans l’avis d’exécution, l’organisation pourrait recevoir un avis de paiement.
Préparé par : PRAP
Réforme de la LPRP
Principaux messages
- Plusieurs propositions du ministère de la Justice portant sur la réforme de la Loi sur la protection des renseignements personnels apporteraient des améliorations à la loi en ce qui concerne la gestion des risques d’atteinte à la vie privée associées aux technologies émergentes comme la RF.
- Par exemple, la proposition visant à définir la collecte et l’utilisation de renseignements personnels auxquels le public a accès et à les régir plus clairement en faisant en sorte que toutes les règles établies dans la loi s’appliquent à ces renseignements, ce qui n’est pas le cas à l’heure actuelle.
- Les obligations en matière de « protection de la vie privée dès la conception », d’EFVP et de surveillance (notamment les pouvoirs de vérification proactive) sont également des mesures nécessaires pour promouvoir et assurer la conformité à l’égard des initiatives de RF.
- Dans notre mémoire à l’intention du ministère de la Justice, nous avons formulé plusieurs recommandations qui seront importantes pour assurer une réglementation efficace de la RF. À cet égard, nous avons recommandé de déterminer les éléments clés pour la réglementation de l’IA, de proposer des modifications destinées à relever le seuil justifiant la collecte et de préciser la définition proposée de l’expression « renseignements personnels auxquels le public a accès ».
Contexte
- Cadre applicable aux renseignements personnels « auxquels le public a accès » : Le Commissariat recommande que la définition proposée par le ministère de la Justice soit améliorée par l'ajout explicite du fait que les renseignements personnels accessibles au public n’incluent pas les renseignements à l’égard desquels une personne a des attentes raisonnables en matière de vie privée.
- Intelligence artificielle : Nous recommandons d’énoncer dans la Loi une définition de « prise de décisions automatisée », de prévoir un droit à une explication valable et à une intervention humaine, d’établir une norme quant à l’explication requise et d’imposer des obligations en matière de traçabilité.
- Seuil justifiant la collecte : Nous estimons que le critère selon lequel la collecte doit être « raisonnablement requise » permet généralement d’atteindre un juste équilibre, mais nous avons proposé des modifications importantes pour clarifier le libellé de la Loi en ce qui concerne les fins déterminées et la proportionnalité.
Préparé par : PRAP
Réforme de la LPRP : Propositions sur l’IA
Principaux messages
- D’après le document de consultation du ministère de la Justice, la loi devrait prévoir certains droits et certaines exigences en matière de responsabilisation se rapportant expressément à la prise de décisions automatisée prévue dans la loi et les exigences en question pourraient être harmonisées avec celles d’instruments stratégiques fédéraux se rapportant aux systèmes décisionnels automatisés.
- Considérant les risques particuliers pour la protection de la vie privée qui sont associés à de tels systèmes, nous considérons cette approche acceptable. Pour respecter la justice naturelle, il serait particulièrement important de consacrer dans la Loi le droit à une explication et à une intervention humaine, prévu par la directive du SCT sur la prise de décisions automatisée, dans le contexte du secteur public.
- Nous recommandons toutefois d’établir dans la Loi une norme précise concernant l’explication requise pour permettre aux individus de comprendre comment leurs renseignements ont conduit à une décision particulière et d’exiger que les institutions consignent l’utilisation de renseignements personnels pour la prise de décisions automatisée et qu’ils en gardent la trace.
Contexte
- Déductions : Nous soutenons la proposition de Justice Canada de tirer des déductions (inférences) à propos d’un individu constitue une collecte de renseignements personnels.
- Norme concernant les explications : (i) la nature de la décision dont ils font l’objet, et les renseignements personnels en cause, et (ii) les règles qui définissent le traitement et les caractéristiques principales de la décision.
- Traçabilité : La loi devrait également exiger la traçabilité, ce qui permettrait à une institution de retrouver les renseignements personnels utilisés par une machine pour prendre une décision. Le projet de loi 64 du Québec, la loi sur l’IA proposée par l’UE et les modifications récemment apportées à la LPRPS de l’Ontario comprennent des exigences en matière de traçabilité.
- Seuil justifiant la collecte : Le ministère de la Justice propose aussi d’assouplir le seuil justifiant la collecte aux renseignements « raisonnablement requis », en partie pour l’IA. Toutefois, selon des participants à notre consultation sur l’IA, la minimisation des données est réaliste, en particulier compte tenu de la souplesse accrue pour l’utilisation des renseignements anonymisés. Comme le ministère de la Justice propose également un cadre approprié pour l’anonymisation, il n’est pas nécessaire d’élargir le seuil justifiant la collecte pour utiliser l’IA.
Préparé par : PRAP
Ailleurs dans le monde
Principaux messages
- La plupart des tribunaux et des organismes de réglementation s’efforcent d’appliquer les lois en vigueur régissant la protection de la vie privée et les renseignements biométriques, mais les décideurs politiques examinent la forme que devrait prendre une réglementation supplémentaire le cas échéant.
- Les lois existantes régissant la biométrie entraînent généralement des obligations renforcées en matière de protection de la vie privée, par exemple l’enregistrement et la protection de bases de données biométriques, comme c’est le cas au Québec, ou le droit d’intenter des poursuites pour collecte de renseignements biométriques sans consentement, comme c’est le cas en Illinois.
- La Californie et l’Oregon ont interdit l’utilisation de la RF sur les caméras corporelles portées par les policiers. San Francisco, la Virginie et Oakland en ont interdit l’utilisation par les corps policiers et les autres organismes publics.
- Le parlement australien travaille à l’élaboration d’un projet de loi qui créerait une base de données nationale sur la RF aux fins d’utilisation par le gouvernement.
Contexte
- En vertu du Règlement général sur la protection des données de l’Union européenne, les données biométriques constituent une catégorie particulière de données à caractère personnel. L’article 9 interdit le traitement des catégories particulières sauf dans les cas où l’une des conditions prévues est remplie. Une évaluation de l’incidence sur la protection des données est exigée pour tout type de traitement susceptible de présenter un risque élevé, si bien qu’elle est généralement obligatoire pour le traitement de données biométriques.
- En 2019, San Francisco a interdit l’utilisation de logiciels de RF par les corps policiers, les organismes de transport en commun et les autres organismes. Oakland a rendu une ordonnance interdisant l’acquisition, l’obtention, la conservation et la demande d’images de RF, ainsi que l’accès à celles-ci.
- Un projet de loi australien, le Identity-matching Services Bill, permettrait la communication de renseignements d’identification, notamment des images faciales, entre l’administration fédérale, les États et les territoires aux fins de la concordance d’identité pour prévenir le vol d’identité, appuyer l’application de la loi, assurer la sécurité nationale et améliorer la prestation de services.
Préparé par : PRAP
L’interdiction de l’Union européenne
Principaux messages
- Si elle était adoptée, la loi sur l’intelligence artificielle proposée par l’Union européenne interdirait clairement et explicitement les applications de l’IA préjudiciables qui sont incompatibles avec les droits de la personne.
- L’Union européenne propose d’interdire les systèmes d’IA utilisés pour la surveillance de masse, notamment l’identification biométrique à distance en temps réel par les organismes d’application de la loi (sous réserve d’exceptions).
- Nous ne sommes pas favorables à une interdiction complète de l’utilisation de la RF, mais nous estimons qu’il faudrait envisager des zones interdites. Même en l’absence de ce type de zones, le Commissariat devrait jouer un rôle de surveillance pour faire respecter les règles, par exemple les principes de nécessité et de proportionnalité, pour assurer une utilisation appropriée de la RF.
Contexte
- La loi proposée par l’Union européenne interdit une IA qui a recours à des « techniques subliminales » pour la manipulation du comportement (entre autres pour exploiter les vulnérabilités de groupes), la notation sociale par les autorités publiques et l’identification biométrique à distance en temps réel dans l’espace public aux fins du maintien de l’ordre.
- Des exceptions à l’interdiction de l’identification biométrique à distance sont prévues pour 1) la recherche de victimes; 2) la prévention du terrorisme ou d’une menace particulière grave et imminente pour la vie ou la sécurité et 3) l’identification de personnes soupçonnées d’une infraction criminelle passible d’une peine d’au moins trois ans.
- Toutes les autres techniques d’identification biométrique à distance, dont celles des organisations commerciales, sont considérées comme présentant un « niveau de risque élevé » et sont assujetties à un certain nombre d’exigences : évaluation du risque et de la qualité, consignation et tenue de registres pour la traçabilité; surveillance humaine, données exactes et représentatives pour l’entraînement de l’IA, évaluation de la conformité ex ante et responsabilité démontrable.
- Voici quelques-unes de nos recommandations sur l’IA : la réalisation d’une évaluation des facteurs relatifs à la vie privée afin de cerner le risque; un critère de pondération pour évaluer la finalité, la nécessité et la proportionnalité de la mesure et prendre en compte les intérêts et droits fondamentaux de l’individu; le recours à la désidentification dans la mesure du possible; un droit d’obtenir une explication valable et de contester; traçabilité; et une responsabilité démontrable, entre autres.
Préparé par : PRAP
- Date de modification :