« Recommandé pour vous » : La confidentialité des données et les algorithmes utilisés par les plateformes de diffusion en continu les plus populaires
La surcharge de contenu, dans l’environnement numérique d’aujourd’hui, nous avons tous été confrontés à ce phénomène. Celui-ci est particulièrement répandu sur les plateformes de diffusion en continu, comme YouTube, TikTok ou Spotify. Pour orienter les utilisateurs, ces plateformes utilisent des moteurs de recommandations, ou une technologie de filtrage algorithmique, pour organiser le contenu et nous faire des suggestions. Mais dans ce processus d’automatisation des recommandations de contenu, les données des utilisateurs sont-elles protégées ou violées?
Le phénomène est devenu si omniprésent qu’il passe presque inaperçu : nous lançons nos plateformes de diffusion vidéo ou audio préférées et nous recevons instantanément une pléthore de recommandations sur du contenu qui est censé nous intéresser.
Obtenir de l’aide pour faire le tri dans la masse de contenu disponible semble pratique, voire utile. Mais que se passe-t-il réellement dans les coulisses de ces moteurs de recommandation apparemment inoffensifs? Ne font-ils que nous proposer le contenu qui a le plus de chances de nous intéresser, ou se passe-t-il quelque chose de plus pernicieux? Et quels sont les risques pour la confidentialité de nos données personnelles?
Au cœur de ces services de diffusion en continu se trouvent la technologie de l’intelligence artificielle (IA) et de l’apprentissage automatique (plus précisément les algorithmes) qui compilent des données sur nos habitudes et nos choix en matière de visionnement, puis lancent une série de processus décisionnels automatisés afin de nous recommander du contenu.
Le processus est déclenché lorsque nous nous inscrivons sur une plateforme en tant qu’utilisateurs. Nous indiquons dans notre profil des renseignements sur nos goûts particuliers. Outre ces préférences déclarées, nos habitudes de consommation réelles laissent ensuite une série de traces numériques, des données que les algorithmes des plateformes de diffusion en continu recoupent et auxquelles ils appliquent un filtrage du contenu, afin de nous présenter ce qui est le plus susceptible de nous intéresser.
Destiny Tchéhouali se préoccupe depuis longtemps de la protection des données personnelles des Canadiens. Il est professeur de communication internationale au département de communication sociale et publique de l’Université du Québec à Montréal. C’est toutefois son rôle de président du conseil d’administration de la Société Internet du Québec qui l’a amené à s’intéresser à la façon dont les plateformes de diffusion en continu pourraient se heurter aux lois sur la protection des données en vigueur au Canada.
Grâce au financement du Commissariat à la protection de la vie privée du Canada, M. Tchéhouali a dirigé un projet de recherche appliquée intitulé « Alter Algo : les algorithmes sont-ils vraiment nos alter ego numériques? ». L’équipe a cherché à comprendre comment les Canadiens perçoivent les systèmes de recommandation de contenu des principales plateformes de diffusion en continu, et à analyser les politiques de confidentialité de ces systèmes pour voir s’il existe des failles, notamment pour contourner les cadres réglementaires et législatifs actuels. Elle a également tenté de documenter les pratiques de profilage des plateformes de diffusion de vidéo et de musique en continu, de démystifier l’apprentissage automatique et de voir si l’IA améliore la diversité du contenu que les utilisateurs consomment.
« À notre connaissance, il n’existait aucune recherche concernant la manière dont les citoyens canadiens perçoivent les risques associés à ces processus de recommandation de contenu utilisés par les plateformes de diffusion en continu. Nous nous sommes demandé si les algorithmes étaient réellement nos “alter ego” dans l’environnement numérique — d’où le jeu de mots dans le nom de notre projet — et, le cas échéant, si ces alter ego respectent notre vie privée ou s’ils l’envahissent. »
Méthode de recherche
L’équipe a commencé par examiner de près les recherches actuelles sur les algorithmes et s’est rapidement aperçue qu’elles ne comprenaient généralement pas d’étude sur leurs répercussions sur la vie privée, et que les pratiques des plateformes de partage de musique ou de vidéos relatives à la protection de la vie privée n’avaient pas non plus fait l’objet de recherches approfondies.
Elle a procédé à une vérification comparative des politiques de confidentialité de chaque plateforme, en se concentrant sur leurs conditions générales d’utilisation, afin de déterminer si elles respectaient ou entravaient les processus de collecte et de traitement de données recommandés par le cadre législatif actuellement en vigueur au Canada.
Un autre objectif important de la recherche était d’évaluer la confiance que les utilisateurs canadiens accordent à ces processus de recommandation de contenu et aux plateformes de diffusion en continu.
« Il était important pour l’équipe de connaître la réalité, car il existe très peu de données dans les documents de recherche sur la façon dont les gens se sentent, sur leur sentiment de sécurité et sur leur inquiétude quant à l’exploitation de leurs données en ligne. »
L’équipe a organisé un atelier, invitant un groupe de 30 participants se décrivant comme des utilisateurs des plateformes de diffusion en continu au Canada, et les a interrogés sur leurs connaissances des traces numériques qu’ils laissent sur ces plateformes et sur la manière dont leur identité et leurs données numériques peuvent être exploitées par les plateformes qui recommandent du contenu. Cette série de questions initiales a servi de base à une enquête plus vaste menée auprès de 3 000 Canadiens adultes âgés de 18 ans et plus, tous utilisateurs de plateformes de diffusion en continu.
Le dernier pilier consistait en des entretiens avec des experts des environnements numériques, de la protection des données et de la vie privée, y compris des experts canadiens et européens qui connaissent bien la réglementation canadienne ou européenne en matière de protection des données, afin d’établir des comparaisons avec notre cadre législatif au Canada.
Résultats
« Chambre d’écho » et « dictature de la popularité »
Selon l’étude, les plateformes ne proposaient généralement pas aux utilisateurs de contenu correspondant à leurs centres d’intérêt et n’ont pas non plus diffusé de contenu en fonction de leur historique de visionnement. Les recommandations avaient plutôt tendance à être fondées sur le contenu populaire que la plupart des gens aimaient (c’est-à-dire « le plus populaire » ou « le plus regardé » au Canada), créant ainsi une sorte de « chambre d’écho ».
« Les algorithmes créent une “cartographie” des goûts des utilisateurs, classent tous les utilisateurs dans des catégories, et le moteur envoie des recommandations normalisées. Il n’est plus possible de faire des choix nuancés. Par exemple, si vous allez sur Netflix, vous trouverez le contenu le plus regardé au Canada, une liste qui ne correspond pas aux préférences et aux goûts individuels, mais qui est fondée sur le contenu que les utilisateurs ont regardé au Canada. Cela finit par créer une “dictature” de la popularité, alors que les préférences des utilisateurs ne sont pas prises en compte. »
Cette « chambre d’écho » est devenue encore plus prononcée lorsque des plateformes comme Netflix sont passées d’un système d’évaluation plus nuancé à une approche plus binaire du « j’aime » et du « je n’aime pas ».
Les recommandations de contenu manquent de diversité; les suggestions de contenu régional sont peu nombreuses
Les utilisateurs acceptent de fournir leurs données personnelles et de partager leurs goûts dans l’espoir de se voir recommander du contenu correspondant à leurs préférences. L’équipe a constaté que, s’il n’était pas difficile pour les utilisateurs de trouver du contenu générique, il leur était en revanche ardu d’accéder à du contenu à caractère régional, par exemple en provenance du Québec, même si ces utilisateurs ont déclaré, lorsqu’ils se sont inscrits aux plateformes, qu’ils souhaitaient consommer du contenu québécois.
« Lorsque nous creusons un peu plus, nous constatons qu’il existe un écart réel entre les goûts et les préférences définies des utilisateurs et les recommandations qui leur sont formulées. Au moins 21 % des utilisateurs canadiens déclarent qu’ils ne se sentent pas mieux guidés dans les choix qui leur sont proposés, ce qui les dérange. »
« Bien que 53 % des 3 000 personnes interrogées aient déclaré qu’il était facile de trouver du contenu générique qu’elles aiment sur les plateformes vidéo de diffusion en continu, et 49 % sur les plateformes audio, lorsqu’il s’agit du Québec, seulement 30 % des Québécois pensent qu’il est facile de trouver du contenu québécois sur les plateformes vidéo de diffusion en continu et 36 % sur les plateformes audio. »
Les utilisateurs se disent résignés devant la situation, car ils estiment qu’ils ne peuvent pas changer les algorithmes ou la façon dont ils fonctionnent.
Données personnelles et consentement
Si de nombreux utilisateurs savent que leur historique de navigation permet aux plateformes de leur suggérer du contenu, et si certains utilisateurs ne semblent pas s’en préoccuper, un pourcentage assez important d’entre eux ne croient pas avoir librement consenti à ce que cela se produise. Cet aspect soulève un certain nombre de questions sur la manière dont la notion de consentement libre et éclairé est définie vis-à-vis des plateformes de diffusion en continu.
« Dans notre enquête auprès de 3 500 Canadiens, nous leur avons demandé s’ils savaient que leur historique de navigation et de visionnement permet aux plateformes de leur suggérer du contenu. En effet, 15 % des utilisateurs ne savent pas que toutes les données qu’ils laissent en ligne peuvent être utilisées à des fins de recommandation sur les plateformes. Au moins un tiers d’entre eux, soit 35 %, en sont conscients et déclarent que cela ne les dérange pas.
Toutefois, lorsque nous leur avons demandé s’ils avaient librement consenti à ce que leur historique de navigation soit utilisé à des fins de recommandation de contenu personnalisé, 40 % des personnes interrogées ont répondu qu’elles ne croyaient pas l’avoir fait. Parmi ces dernières, 27 % ont déclaré ne pas savoir comment définir la notion de consentement libre; elles ont demandé s’il s’agissait simplement d’une case à cocher lorsqu’elles acceptent que leur historique de navigation et leurs données d’utilisation soient utilisés par la plateforme. »
Avoir l’impression d’être surveillé
Certains utilisateurs indiquent qu’ils ont tendance à être moins conscients de leurs préoccupations en matière de protection de la vie privée parce qu’ils se concentrent sur les recommandations qu’ils voient à l’écran.
Cependant, selon l’enquête, au moins un Canadien sur trois a l’impression d’être surveillé à l’occasion, et un sur deux dit se sentir surveillé la plupart du temps. Par exemple, peu de temps après avoir discuté avec un ami sur Facebook ou WhatsApp, ils reçoivent des publicités ou des recommandations sur des sujets semblables.
« Il y a une réelle impression d’être surveillé lorsque nous partageons nos renseignements personnels, et que ces renseignements sont rapidement instrumentalisés. Notre recherche a conclu qu’il existe des canaux de communication évidents entre ces plateformes et des ententes tacites pour que les canaux publicitaires réutilisent les données de la plateforme à d’autres fins que la formulation de recommandations. »
Effet de résignation
Dans le cadre de l’enquête, les chercheurs ont fourni de nombreux exemples montrant que les données personnelles des utilisateurs sont utilisées à d’autres fins, mais que ceux-ci ont eu tendance à banaliser leurs répercussions et leur portée, tant qu’ils n’ont pas subi d’atteinte directe à la vie privée concernant leurs propres données. Toutefois, ils ont indiqué qu’ils souhaitaient un cadre juridique plus solide pour les aider à protéger leurs renseignements.
« Les participants semblent résignés à l’idée que leurs données soient utilisées, mais lorsqu’on leur a demandé s’ils étaient “sensibles à la question de la protection des données personnelles à la suite d’incidents révélés ces dernières années par rapport aux plateformes de diffusion en continu”, 57 % ont indiqué l’être et souhaiteraient que soient adoptés des lois et un cadre législatif plus solide afin que leurs renseignements personnels soient mieux protégés. »
En fin de compte, les utilisateurs ne sont cependant pas prêts à renoncer à leurs abonnements, même en cas d’atteinte à la vie privée. Alors que 40 % des répondants à l’enquête ont déclaré qu’ils « se désabonneraient en cas d’atteinte très grave liée à Netflix ou à Spotify », l’équipe de recherche a fait remarquer que les récents scandales impliquant Facebook et Cambridge Analytica n’ont pas donné lieu à une vague de désabonnements des plateformes.
« Les utilisateurs continueront d’adopter ces plateformes parce qu’ils estiment qu’elles sont essentielles à leur vie quotidienne. C’est ainsi que se produit l’“effet de résignation”. Les gens veulent bien être informés sur ces questions et en devenir plus conscients, mais ils se demandent aussi ce qu’ils peuvent faire concrètement pour se protéger contre ceux qui déploient ces mécanismes algorithmiques, qui continuent de contrôler nos choix de consommation et d’exploiter nos données. »
Recommandations énoncées dans le rapport
Habiliter les utilisateurs et « éduquer » les algorithmes
Les recommandations de l’étude font appel à des solutions techniques et réglementaires. L’équipe de recherche soutient que les utilisateurs peuvent être « habilités » à contrôler leurs propres données.
« Notre examen de la documentation démontre clairement que les algorithmes d’“apprentissage automatique” et même d’apprentissage profond peuvent permettre qu’il y ait une nouvelle génération d’algorithmes qui observent une certaine neutralité en ce qui concerne le traitement et l’utilisation des données.
Il est possible de mettre ces algorithmes au service des utilisateurs afin qu’ils puissent agir en fonction de certains paramètres. Par exemple, une théorie a été élaborée par plusieurs chercheurs et auteurs qui parlent de la “jouabilité” des algorithmes, c’est-à-dire la capacité de rendre ces algorithmes faciles à contrôler non seulement par le concepteur, mais aussi par l’utilisateur final, qui, grâce à une sorte de rétro-ingénierie, pourrait définir des critères précis d’utilisation de leurs données personnelles et de leurs données d’utilisation à des fins de recommandations algorithmiques. »
Si les utilisateurs ont la possibilité d’« éduquer » les algorithmes, ils pourront faire des choix de contenu diversifiés et recevoir une variété de recommandations de contenu, au lieu d’être soumis aux impératifs de monétisation ou au modèle d’affaires des propriétaires des plateformes. Cela pourrait modifier la tendance actuelle à la prise de décisions automatisée en veillant à ce que les utilisateurs finaux soient au cœur de la conception des critères et des paramètres qui orientent les recommandations suggérées par les algorithmes.
Améliorer la diversité culturelle et les outils législatifs
L’équipe a souligné l’importance d’accroître la transparence des politiques de confidentialité des plateformes et des modalités de collecte, de traitement, d’utilisation et de communication des données personnelles par ces plateformes.
« C’est nécessaire si nous voulons accroître le contrôle que les citoyens exercent sur leurs renseignements personnels et améliorer le consentement éclairé. »
« Les organismes de réglementation et les législateurs ont de la difficulté à s’adapter aux progrès technologiques. Néanmoins, plusieurs études documentent les failles actuelles de la loi, et nous pouvons commencer à combler ces lacunes en essayant d’être plus exigeants quant à ce que nous attendons de ces plateformes. »
Elle recommande également de trouver des moyens de promouvoir la diversité culturelle. Au Canada, par exemple, les plateformes de diffusion en continu pourraient être tenues de proposer un nombre minimum de recommandations de contenu canadien.
Dernier point, mais non des moindres, une pression accrue devrait être exercée au moyen d’un ensemble d’outils législatifs, afin de s’assurer que les sociétés qui exploitent des plateformes ne sont pas en mesure de trouver des failles ou de contourner les dispositions de la loi.
« Les propriétaires de plateformes se défendent généralement en disant qu’ils respectent la loi; toutefois, nous savons que des violations se produisent et que bon nombre de ces plateformes ne respectent pas les lignes directrices législatives qui leur ont été imposées. »
Autres articles de Résultats réels
Avertissement : Le Programme des contributions du Commissariat finance des projets de recherche indépendants sur la protection de la vie privée et des initiatives d’application des connaissances. Les opinions exprimées par les experts dans la présente publication ne reflètent pas nécessairement celles du Commissariat à la protection de la vie privée du Canada.
- Date de modification :