Projets en cours financés par le Programme des contributions
Le 30 août 2024, le Commissariat à la protection de la vie privée du Canada a annoncé l’octroi de fonds pour une nouvelle série de projets de recherche indépendante et de transfert des connaissances financés par le Programme des contributions. Ces projets se termineront d’ici le 31 mars 2025. Le Commissariat affichera un résumé des projets menés à bien ainsi que des liens conduisant aux résultats une fois les projets terminés et examinés par le Commissariat.
Bénéficiaires du financement dans le cadre du Programme des contributions pour 2024-2025
Organisation : Université Concordia
Titre du projet : Préoccupations concernant la protection de la vie privée dans les écosystèmes de connexion au moyen de compte de médias sociaux
Montant demandé : 50 000 $
Chef de projet : Mohammad Mannan et Amr Youssef
Résumé du projet :
La connexion au moyen de compte de médias sociaux, qui est une forme d’authentification unique, est devenue une fonctionnalité omniprésente sur les sites Web et les applications mobiles. Elle permet aux utilisateurs d’ouvrir une session sur des plateformes ou de s’inscrire à celles-ci en utilisant les identifiants de leur compte de médias sociaux comme Facebook, Google, LinkedIn, X (anciennement Twitter) et Apple. Bien que la connexion au moyen de compte de médias sociaux présente des avantages, comme la simplification de la connexion et le soulagement de la fatigue liée aux mots de passe, elle soulève également des préoccupations en matière de sécurité et de protection de la vie privée.
L’objectif du projet est d’étudier, au moyen d’une étude technique ou expérimentale complète et systématique, l’écosystème de connexion au moyen de compte de médias sociaux dans les sites Web et les applications Android. Les chercheurs prévoient de concevoir et de mettre en œuvre un cadre d’analyse de la vie privée et de la sécurité pour trouver et analyser ces sites Web et ces applications. À l’aide de ce cadre, les chercheurs compareront les pratiques d’échange de données de réelles applications offrant une connexion au moyen de compte de médias sociaux afin de mieux comprendre leur incidence sur la vie privée des utilisateurs. Compte tenu de ce qui précède, les chercheurs produiront un rapport public résumant les conclusions de leur enquête. Le rapport présentera des recommandations pour améliorer la sécurité et la confidentialité des solutions de connexion au moyen de compte de médias sociaux. Il comprendra des lignes directrices faciles à suivre pour les Canadiennes et les Canadiens qui utilisent la connexion au moyen de compte de médias sociaux sur les sites Web et les applications. Les chercheurs prépareront également un document technique détaillant la méthode complète, les conclusions et les recommandations techniques.
Organisation : Université de l’île de Vancouver
Titre du projet : Protéger le paysage des données de demain : Perspectives des jeunes citoyens numériques sur la protection de la vie privée dans les systèmes d’IA
Montant demandé : 86 601,90 $
Chef de projet : Ajay Shrestha
Équipe de projet : Ankur Barthwal, Molly Campbell, Austin Shouli et Saad Syed
Résumé du projet :
Dans le paysage numérique en constante évolution où l’intelligence artificielle (IA) joue un rôle central, il est crucial de se pencher sur l’incidence des technologies émergentes sur la vie privée. Le projet de recherche vise à explorer les complexités de l’incidence de l’IA sur la vie privée; il s’attache surtout à comprendre les préoccupations des jeunes qui utilisent le numérique et à protéger le droit à la vie privée des enfants.
Des sondages, des entrevues et des groupes de discussion seront organisés pour recueillir les points de vue des jeunes utilisateurs, des éducateurs, des parents, des développeurs d’IA et des chercheurs, et ainsi étudier leurs perspectives sur le contrôle des données et les facteurs qui influencent la perception de la vie privée dans les applications de l’IA.
En comprenant les perceptions et les attentes des jeunes utilisateurs en ce qui concerne la vie privée dans les applications de l’IA, les responsables du projet s’efforcent de contribuer à l’intégration responsable des technologies de l’IA dans la vie des jeunes utilisateurs, et ce, par la défense d’une utilisation éthique de l’IA et la protection de la vie privée à l’ère numérique. Dans le cadre de la recherche, les niveaux de littératie numérique et les interactions antérieures avec les technologies de l’IA seront également examinés afin de permettra d’élaboration de lignes directrices visant à répondre à des préoccupations précises des jeunes utilisateurs.
Dans le cadre du projet, les jeunes citoyens numériques participeront à des ateliers et à des activités qui leur permettront de s’outiller et d’exprimer leur point de vue à l’égard de la protection de la vie privée dans les systèmes d’IA.
Organisation : Internet of Things Privacy Forum
Titre du projet : L’enfant lisible par machine : Gouvernance de l’IA émotionnelle utilisée chez les enfants canadiens
Montant demandé : 81 464,10 $
Chef de projet : Gilad Rosner
Équipe de projet : Andrew McStay
Résumé du projet :
Les responsables du projet de recherche évalueront si la Loi sur la protection des renseignements personnels et les documents électroniques est adaptée pour régir l’utilisation de l’IA émotionnelle auprès des enfants, en soulignant les lacunes et en proposant des suggestions, le cas échéant. Ils se pencheront sur les défis en matière de protection de la vie privée que pose l’utilisation des technologies d’IA émotionnelle. Ils apporteront également une aide pratique aux fabricants, aux vendeurs et aux évaluateurs de technologies d’IA émotionnelle utilisées par les enfants. Pour ce faire, ils élaboreront des modules pour les évaluations des facteurs relatifs à la vie privée ainsi que des lignes directrices destinées au développement commercial, au déploiement et à l’utilisation de ces produits et ces services au Canada. Ils élaboreront également les pratiques exemplaires à suivre pour faire en sorte que les systèmes d’IA émotionnelle qui recueillent les données des enfants canadiens respectent les principes d’équité, de responsabilisation et de transparence.
L’IA émotionnelle est un sous-ensemble de l’IA qui mesure, comprend et simule les émotions humaines et qui réagit à celles-ci. Il s’agit d’un système d’IA qui prétend déterminer l’état émotionnel d’une personne en analysant une image faciale ou d’autres caractéristiques et renseignements. L’IA émotionnelle est de plus en plus utilisée pour comprendre les réactions émotionnelles et psychophysiologiques et y réagir. Par détection des émotions et IA émotionnelle, nous entendons les technologies qui utilisent l’informatique affective, l’IA et les techniques d’apprentissage automatique pour détecter et connaître la vie émotionnelle des personnes et interagir avec celle-ci. Cependant, ces technologies sont relativement nouvelles et souvent mal comprises par les parents, les enfants, les administrateurs scolaires, les organismes de réglementation et les législateurs. Elles présentent certainement des avantages, mais, lorsqu’elles sont utilisées par des enfants, les technologies de détection des émotions et de l’humeur deviennent hautement problématiques d’un point de vue éthique et peuvent ne pas être dans l’intérêt supérieur de l’enfant.
Organisation : Université du Québec à Montréal
Titre du projet : Jeu dangereux : la protection de la vie privée des enfants de moins de 13 ans dans les jeux mobiles
Montant demandé : 89 906 $
Chef de projet : Maude Bonenfant
Équipe de projet : Sara Grimes, Thomas Burelli, Hafedh Mili, Alexandra Dumont, et Cédric Duchaineau
Résumé du projet :
La pratique du jeu vidéo mobile est en forte hausse chez les jeunes Canadiens et Canadiennes, même chez les tout-petits. Parallèlement, l’industrie mondiale du jeu mobile connaît une croissance exponentielle. Dans cette industrie du mobile, plusieurs modèles économiques existent, mais un des modes de rentabilisation est la collecte de données personnelles pour faire du ciblage publicitaire.
Si la collecte des données dans les jeux mobiles est encadrée par les conditions générales d’utilisation, ces dernières sont longues, fastidieuses à lire et complexes à comprendre, voire impossibles à trouver lorsqu’il s’agit des tiers. De ce fait, les termes sont difficiles à comprendre pour les jeunes et les parents qui sont obligés d’accepter les termes et conditions proposés par le jeu pour y avoir accès. Les plus jeunes enfants ne sont ainsi pas protégés comme ils le devraient.
Cette recherche sera axée sur l’analyse des applications de jeux mobiles et leur comparaison avec les critères de conformité de la Children’s Online Privacy Protection Act (loi sur la protection de la vie privée des enfants en ligne, COPPA) afin de cerner les bonnes et les mauvaises pratiques en matière de protection de la vie privée des enfants en ce qui a trait aux jeux vidéo.
Organisation : Université d’Ottawa
Titre du projet : Analyse comparative des grands modèles de langage et de protection de la vie privée
Montant demandé : 83 680 $
Chef de projet : Rafal Kulik
Résumé du projet :
À l’ère numérique actuelle, la croissance rapide des données générées par les personnes a stimulé les progrès dans le domaine de l’intelligence artificielle (IA), en particulier l’élaboration et le déploiement de grands modèles de langage (GML). Les systèmes d’IA sophistiqués, capables de comprendre et de produire le langage humain, en plus d’interagir avec l’humain en imitant les processus de pensée humains, deviennent partie intégrante des applications (p. ex. la création de contenu personnalisé et la découverte de médicaments). Étant donné que ces modèles sont de plus en plus profondément intégrés dans les fonctions quotidiennes de la société, il est essentiel de protéger la vie privée des personnes qui utilisent ces systèmes.
Le développement rapide des GML et la vitesse à laquelle ces outils évoluent représentent un défi important dans la définition des lignes directrices actuelles et pratiques qui peuvent traiter dans les faits l’utilisation et le déploiement de ces systèmes. Compte tenu des capacités et des risques uniques associés aux GML, il est de plus en plus nécessaire d’établir des normes solides en matière de protection de la vie privée qui sont adaptées à ces technologies en particulier.
Dans le cadre du projet, les responsables proposeront une introduction pratique aux GML et étudieront les défis liés à la protection de la vie privée que les experts dans les domaines juridique et politique doivent relever ainsi que le rôle des technologies visant à améliorer la confidentialité. Les chercheurs interrogeront des experts dans les domaines juridique, politique et technique, ainsi que des groupes de la société civile, pour étudier les avantages et les possibilités de ces technologies. Ils fourniront également des recommandations et du matériel pédagogique au public.
Organisation : Université de Waterloo
Titre du projet : Atténuation des préjudices en matière de vie privée causés par la conception trompeuse dans la réalité virtuelle
Montant demandé : 58 708 $
Chef de projet : Leah Zhang-Kennedy et Lennart Nacke
Équipe de projet : Hilda Hadan
Résumé du projet :
La conception trompeuse dans la réalité virtuelle est une préoccupation en matière de protection de la vie privée qui évolue rapidement. Cette recherche explorera les effets de la conception trompeuse sur la protection des renseignements personnels des utilisateurs dans les applications commerciales de réalité virtuelle. En identifiant et en classifiant les mécanismes de conception trompeuse de la réalité virtuelle qui minent et corrompent la protection de la vie privée des utilisateurs, les chercheurs visent à élaborer des contre-mesures et des lignes directrices pour contrer leur impact négatif, accroître la sensibilisation et fournir des lignes directrices et des recommandations en matière de conception et de politiques à l’intention des concepteurs de réalité virtuelle, des décideurs et du gouvernement.
Les chercheurs prévoient d’évaluer la conception des applications de réalité virtuelle afin de déterminer les stratégies de manipulation et d’effectuer une analyse à grande échelle des perceptions et des expériences des utilisateurs à l’égard de la vie privée et de la conception trompeuse. Ils prévoient également de documenter systématiquement les différentes pratiques et mécanismes de conception trompeuse dans la réalité virtuelle, de noter les conséquences pour la vie privée et de suggérer des stratégies d’atténuation.
Les chercheurs s’attendent à ce que leur projet permette d’améliorer la conception des applications de réalité virtuelle et de formuler des recommandations pour les règlements relatifs à la protection de la vie privée afin de mieux protéger la population canadienne. Ils prévoient de créer un dépôt public et de concevoir des lignes directrices et des ressources éducatives destinées au public, entre autres produits livrables.
Organisation : Université métropolitaine de Toronto
Titre du projet : IA générative, politique en matière de protection de la vie privée et jeunes Canadiens
Montant demandé : 49 640 $
Chef de projet : Karim Bardeesy
Équipe de projet : Sam Andrey, André Côté, Tiffany Kwok et Christelle Tessono
Résumé du projet :
Dans le cadre du projet, les chercheurs souhaitent comprendre l’incidence des technologies d’intelligence artificielle (IA) générative sur la vie privée, particulièrement les répercussions sur les mineurs, afin d’éclairer l’application de la législation canadienne actuelle et proposée en matière de protection de la vie privée ainsi que des politiques et des pratiques administratives de préservation de la vie privée.
Le projet comprendra trois volets principaux. Tout d’abord, les chercheurs mèneront des entrevues auprès des experts de l’IA et de la protection de la vie privée afin de mieux comprendre les conséquences de l’IA sur la vie privée en général, notamment sur celle des mineurs, ainsi que la meilleure façon de les atténuer. Deuxièmement, ils analyseront les lois et les politiques afin d’évaluer les lois actuelles et proposées en matière de protection de la vie privée en ce qui concerne leur capacité à traiter efficacement les risques posés par l’IA générative. Troisièmement, les chercheurs effectueront une analyse comparative des lois sur la protection de la vie privée et des données dans d’autres pays ainsi que des interventions techniques (p. ex. le contrôle de l’âge, l’interdiction de recueillir des données sur les jeunes ainsi que les politiques et les interdictions des conseils scolaires). L’approche comparative permettra aux chercheurs de tirer des enseignements des démarches entamées par d’autres pays pour gérer et atténuer les risques d’atteinte à la vie privée propres à l’IA.
- Date de modification :