Sélection de la langue

Recherche

hide

Résultats réels Vol. 4

Octobre 2023

La recherche innovatrice pour protéger
les droits relatifs à la vie privée

Grandir avec l’IA : quels sont les risques d’atteinte à la vie privée pour les enfants?

L’intelligence artificielle (IA) joue un rôle croissant dans la vie des enfants, remodelant fondamentalement leurs expériences et leurs lieux quotidiens – de leur maison à leur école, en passant par d’autres services et espaces publics. Mais quel effet cette situation a-t-elle sur leur droit à la vie privée?

 

L’intelligence artificielle, ou « IA », comme on l’appelle communément, est une technologie nouvelle qui peut susciter des réactions intenses quant à ses applications potentielles, allant de l’enthousiasme à la peur. Mais un sujet est rarement évoqué : les répercussions de l’IA sur les enfants.

Les enfants sont déjà entourés de technologies d’IA, qu’il s’agisse de jouets interactifs, d’assistants virtuels, de jeux vidéo ou de logiciels éducatifs. Il est à la fois courant et accepté que des algorithmes fournissent aux enfants des recommandations sur les vidéos qu’ils devraient regarder, sur le contenu en ligne qu’ils devraient lire, sur la musique qu’ils devraient écouter et même sur les personnes avec qui ils devraient être amis.

Certaines applications fonctionnant grâce à l’IA sont plus visibles que d’autres

Selon Noah Zon, l’un des principaux chercheurs d’un projet du Groupe CSA financé par le Commissariat à la protection de la vie privée du Canada (CPVP), intitulé « La vie privée des enfants à l’ère de l’intelligence artificielle », l’IA est présente dans le fonctionnement des applications et des systèmes avec lesquels les enfants de tous âges interagissent, certains de manière moins visible que d’autres.

« Parmi les exemples les moins visibles, on peut citer les algorithmes qui sous-tendent YouTube, YouTube Kids et d’autres services qui diffusent du contenu, prennent des décisions et recueillent des informations à son sujet, note M. Zon. La reconnaissance faciale, qui fonctionne grâce à l’IA, existe tout autour des enfants, mais nous n’en sommes souvent pas conscients. »

De manière plus explicite, explique M. Zon, l’IA est déjà utilisée dans certains jouets interactifs, comme Hello Barbie de Mattel, qui repose sur des aspects de collecte de données algorithmiques et de reconnaissance vocale. L’IA apparaît également dans le domaine de l’éducation : des écoles secondaires utilisent désormais couramment des logiciels antiplagiat fondés sur l’IA, et le programme du Baccalauréat international a eu recours à des services fondés sur l’IA pour évaluer le travail scolaire des jeunes pendant la pandémie.

Risques d’atteinte à la vie privée liés à la portée et à l’ampleur de la collecte de données par l’IA

Bien sûr, les applications fonctionnant grâce à l’IA ne sont pas les premières à recueillir des données sur les enfants. Mais, selon M. Zon, c’est la portée et l’ampleur des fonctions de collecte de données de l’IA qui entraînent de nouveaux risques d’atteinte à la vie privée.

« L’IA repose sur la collecte de grandes quantités de données pour alimenter la prise de décision algorithmique et “entraîner” l’intelligence artificielle, et par conséquent elle encourage cette collecte. Ainsi, elle accumule beaucoup plus de données et des données beaucoup plus sensibles, et manque également de transparence et de surveillance dans la façon dont elle prend ses décisions. »

« Utilisée de manière responsable, la technologie de l’IA a le potentiel d’améliorer le bien-être des enfants », affirme M. Zon. Il cite en exemple les applications d’apprentissage fonctionnant grâce à l’IA, la recherche en santé et en environnement, et la modération du contenu, qui peut rendre les espaces Internet plus sûrs. Mais, en l’absence d’interventions efficaces, cette vaste collecte de données et les « décisions » prises grâce à l’IA qui en découlent pourraient avoir des répercussions négatives importantes sur la vie actuelle et future des enfants.

« L’idée de confier des décisions importantes à l’IA peut avoir des conséquences sur la vie des enfants de différentes manières, dit M. Zon. Il y a des cas dans le système judiciaire et les systèmes de sécurité publique, comme les services de protection de l’enfance, où l’utilisation algorithmique de données sert à attribuer des cotes de risque qui influencent les décisions concernant la protection de l’enfance ou d’autres risques liés à la justice et à la probation, ce qui peut avoir des effets très importants sur la vie des enfants. »

Des réponses stratégiques principalement centrées sur les adultes

Malgré les risques qui subsistent pour les enfants, au Canada, les réponses stratégiques à l’IA et à la protection de la vie privée en ligne sont restées centrées sur les adultes, négligeant les droits spécifiques à la vie privée, les besoins distincts et les circonstances uniques des enfants. Le projet de recherche montre qu’une action ciblée est nécessaire pour combler cette lacune stratégique critique.

« Le Canada, comme de nombreux autres pays, a eu tendance à négliger les droits des enfants et à répondre plus lentement à certains des besoins liés à l’IA que l’Europe ou l’Australie, par exemple. Cependant, nous ne sommes pas les seuls à ne pas avoir intégré fortement les droits des enfants liés à la vie privée en ligne dans les politiques ou les pratiques. », explique M. Zon.

Dans un récent rapport de l’UNICEF (en anglais seulement) cité en référence dans le projet, 20 stratégies nationales en matière d’IA ont été examinées, et les enfants n’y sont que très peu évoqués. Même la loi canadienne sur la protection de la vie privée dans le secteur privé, la Loi sur la protection des renseignements personnels et les documents électroniques, ne mentionne qu’une seule fois les mineurs.

S’appuyant sur un projet de recherche antérieur du Groupe CSA sur La sécurité et la confidentialité des enfants à l’ère numérique, l’équipe de recherche a cherché à combler les lacunes en matière de politiques et de solutions liées à l’adoption croissante de l’intelligence artificielle, et ce, sur deux fronts : la nécessité de mieux comprendre l’évolution de la technologie de l’IA et de ses applications, et la nécessité de combler une lacune de longue date dans la façon d’aborder la vie privée en ligne en tenant compte des besoins, des intérêts et des droits uniques des enfants.

« Il s’agit là de domaines nouveaux et les besoins des enfants en matière de protection de la vie privée sont, par nature, sous-explorés; c’est pourquoi nous voulions obtenir les points de vue de divers experts, déclare M. Zon. L’objectif du Groupe CSA était de mener des recherches sur les politiques et d’élaborer des documents complémentaires susceptibles d’intéresser les décideurs stratégiques à ce sujet. Nous voulions proposer des solutions constructives, ce qui nécessite souvent des approches différentes et plus créatives. »

Afin de réunir divers points de vue, le Groupe CSA a créé un comité consultatif composé de défenseurs des droits des enfants, de chercheurs et d’experts de l’industrie. Ce comité a contribué à l’orientation de la recherche ainsi qu’à l’analyse et aux recommandations du projet.

L’équipe de recherche a également mené des entretiens face à face avec des experts pour comprendre le fonctionnement des systèmes d’IA et leurs répercussions potentielles, et a organisé des ateliers de collaboration pour explorer les répercussions particulières de l’IA sur les enfants. Enfin, le projet a été complété par un examen approfondi de la manière dont d’autres juridictions ont réagi aux questions liées à l’IA ainsi que par un examen exhaustif de la documentation de recherche, provenant de sources universitaires et autres.

Le consentement n’est pas la solution

L’une des principales constatations était que le mécanisme de consentement n’apporte pas de solution aux problèmes de protection de la vie privée liés à l’IA qui peuvent toucher les jeunes. Habituellement, les enfants de moins de 18 ans ou, dans certains cas, de moins de 13 ans ne sont pas en mesure de donner leur consentement en vertu de la loi actuelle. Ce sont les parents qui doivent le faire au nom de leurs enfants, mais le consentement est complexe et de telles décisions pourraient avoir des conséquences à long terme et imprévues pour ces derniers. Et en l’absence de lois sur le « droit à l’oubli », toute collecte de données par l’IA qui en résulterait serait probablement difficile à annuler.

Decorative elementDecorative element

Les parents peuvent consentir à quelque chose qui ne peut pas être annulé par leur enfant, et il n’existe actuellement aucun moyen technique facile de supprimer des données personnelles des systèmes d’IA . »

« Nous devons mieux comprendre que les droits à la vie privée des enfants sont distincts de ceux de leurs parents », commente M. Zon.

Pour l’instant, le rapport recommande que des interventions stratégiques précises aient lieu à trois phases du cycle de vie d’une technologie fondée sur l’IA : avant sa mise en marché, avant son déploiement et pendant son utilisation. En outre, il est nécessaire de mettre en place une surveillance et une responsabilité plus générales.

La protection de la vie privée dès la conception

Intervenir avant la mise en marché d’un produit, pendant la phase de conception, est aussi connu sous le nom de « protection de la vie privée dès la conception ». Il peut s’agir de restreindre la collecte de certains renseignements et d’autres mesures de gouvernance intégrées directement dans le produit.

« Plus nous nous engagerons à protéger la vie privée dès la conception, et plus nous aurons des échanges productifs et constructifs entre les entreprises, les décideurs stratégiques et les organismes de réglementation, moins nous aurons de défis à relever plus tard. Si un produit est conçu en tenant compte des besoins des enfants, il ne recueillera pas plus de données que nécessaire, par exemple, ce qui peut réduire la nécessité de gérer et de régir les données personnelles recueillies à l’avenir. »

La plupart des fabricants de produits pour enfants ne sont pas des concepteurs de logiciels ou des experts en cybersécurité, mais ils intègrent de nouvelles fonctions d’IA à leurs produits. L’existence de pratiques exemplaires et de directives à suivre contribuerait probablement à l’amélioration des résultats.

« Tout comme les parents et les enfants ont besoin de soutien en matière de capacité d’agir et d’information supplémentaires, et les décideurs stratégiques et les organismes de réglementation ont besoin de soutien pour réagir aux changements technologiques rapides et prendre des décisions appropriées, les fabricants ont également besoin de soutien pour concevoir des produits de manière appropriée, » commente M. Zon.

En fin de compte, selon lui, concevoir des produits en pensant aux enfants pourrait avoir des répercussions positives beaucoup plus vastes.

« Il est intéressant de noter qu’un produit bien conçu pour répondre aux besoins des enfants est souvent, en fait, un produit bien conçu pour prendre en compte les choix en matière de protection de la vie privée et le consentement éclairés des personnes de tous âges. »

Decorative element

Que signifie l’intelligence artificielle?

L’intelligence artificielle, aussi appelée intelligence machine, est un domaine de l’informatique qui se concentre sur la création et la gestion de technologies capables d’apprendre à prendre des décisions de manière autonome et à agir pour aider les êtres humains.

L’IA n’est pas une seule technologie. Il s’agit d’un terme générique qui englobe tout type de logiciel ou de composant matériel qui prend en charge l’apprentissage automatique, la vision artificielle, la compréhension du langage naturel et le traitement du langage naturel.

L’IA d’aujourd’hui utilise du matériel conventionnel et les mêmes fonctions algorithmiques de base que les logiciels traditionnels. Les générations futures d’IA devraient inspirer de nouveaux types d’architectures et de circuits eux-mêmes inspirés du cerveau, capables de prendre des décisions fondées sur des données plus rapidement et avec plus de précision qu’un être humain.

Decorative element

Risques d’atteinte à la vie privée des enfants liés à l’IA : Trois principaux domaines

Mother and daughter looking at something online.

Le rapport de recherche issu de ce projet financé par le CPVP a cerné trois principaux domaines de risques d’atteinte à la vie privée des enfants liés à l’IA : les risques liés aux données, les risques liés aux fonctions et les risques liés à la surveillance.

L’IA a besoin d’une grande quantité d’informations, qu’elle utilise pour prendre des décisions d’une manière qui peut être difficile à comprendre pour les humains ou à renverser, et les décisions prises par l’IA peuvent avoir un impact profond sur la vie et les perspectives d’avenir des enfants.

Les auteurs du rapport recommandent des interventions stratégiques pour contrer ces risques tout au long du « cycle de vie » de l’IA, depuis la conception jusqu’aux systèmes de surveillance et de responsabilité, en passant par l’adoption et l’utilisation de la technologie. Pour toutes les mesures recommandées, les décideurs stratégiques doivent tenir compte des besoins uniques des enfants et mobiliser les enfants eux-mêmes dans l’élaboration des politiques.

Autres articles de Résultats réels


Avertissement : Le Programme des contributions du Commissariat finance des projets de recherche indépendants sur la protection de la vie privée et des initiatives d’application des connaissances. Les opinions exprimées par les experts dans la présente publication ne reflètent pas nécessairement celles du Commissariat à la protection de la vie privée du Canada.

Date de modification :