Sélection de la langue

Recherche

Déclaration sur l’intelligence artificielle et les enfants

Table ronde des autorités de protection des données et de la vie privée du G7

Groupe de travail sur les technologies émergentes

Le 11 octobre 2024

  1. Nous, les autorités de protection des données et de la vie privée du G7Note de bas de page 1, sommes conscientes des questions réglementaires et technologiques actuelles ainsi que des avancées liées à l’intelligence artificielle (IA), où la dignité, l’autonomie et la nécessité de protéger les libertés et les droits fondamentaux des enfants et des jeunes devraient jouer un rôle de premier plan.
  2. Dans le contexte sociotechnologique actuel, qui évolue rapidement et soulève des défis sans précédent pour la protection de la vie privée, des données et d’autres libertés et droits fondamentaux, nous tenons à saluer la reconnaissance prévue dans la Déclaration des ministres de l’Industrie, des Technologies et du Numérique du G7 élaborée à la réunion, selon laquelle il existe des [traduction] « défis complexes en constante évolution que les technologies numériques, y compris l’IA, posent en ce qui concerne la protection des droits de la personne, y compris la vie privée, et des risques pour la protection des données personnelles »Note de bas de page 2.
  3. Nous reconnaissons que l’IA a contribué à des changements novateurs dans notre société et qu’elle est sur le point de transformer notre façon de travailler, de vivre, de communiquer et d’expérimenter le monde numérique. Nous convenons que l’IA, lorsqu’elle est utilisée de manière responsable et dans le respect des droits fondamentaux, peut s’avérer être un outil bénéfique pour les personnes concernées par son utilisation. En fait, l’IA renferme déjà un potentiel immense et peut servir à résoudre certains des problèmes les plus urgents de l’heure, notamment dans les domaines de la recherche et du diagnostic en médecine, des transports et de la logistique, de la productivité sur le lieu de travail, de l'éducation et du perfectionnement des compétences, ainsi que de la production et de la distribution d’énergie.
  4. La génération actuelle d’enfants, soit la « génération Alpha », sera la première à grandir dans un monde fortement influencé par l’IA. Que ce soit par des interactions directes avec des produits fondés sur l’IA ou par des décisions prises par des systèmes automatisés, l’IA aura de lourdes répercussions sur les jeunes. Compte tenu des répercussions de l’IA sur les enfants, il est important d’accorder une attention particulière aux préoccupations axées sur les enfants en ce qui concerne l’utilisation et le développement de l’IA. Une telle approche devrait être envisagée par toutes les parties prenantes du secteur de l’IA.
  5. Tout en reconnaissant les nombreuses possibilités que les technologies numériques, dont l’IA, apportent aux enfants et aux jeunes, nous sommes convaincus qu’il faut surveiller de près l’étendue de leurs répercussions possibles sur la protection des données, le droit à la vie privée et les libertés en raison de la vulnérabilité des enfants et des jeunes à l’égard de ces technologies. Une telle vulnérabilité est attribuable en particulier à une compréhension limitée de la protection de la vie privée en ligne, au stade de développement des enfants et à l’expérience limitée de la vie de ces derniers.
  6. Dans le contexte actuel de développement de l’IA par rapport aux enfants, les autorités de protection des données et de la vie privée jouent un rôle important dans la désignation des atteintes potentielles à la vie privée et dans la sensibilisation aux risques qui pèsent sur le droit à la vie privée. Dans le cadre de leur travail, ces autorités accordent une attention particulière aux droits des enfants et des jeunes en matière de protection des données et de la vie privée, en appliquant les lois sur la protection des données, en élaborant des codes de pratique adaptés à l’âge et en publiant des lignes directrices qui visent à fournir des orientations pratiques concernant la protection et la vie privée des enfants et des jeunes.
  7. Bien que les droits des enfants, y compris le droit à la vie privée et à la protection des données, soient clairement défendus dans les conventions internationales, notre expérience récente en tant qu’autorités de contrôle nous a amenés à nous préoccuper des atteintes potentielles à la vie privée et à la protection des données liées à l’utilisation de systèmes d’intelligence artificielle, qui pourraient avoir de graves conséquences chez les enfants et les jeunes. En gardant à l’esprit les risques actuels et potentiels, nous tenons à préciser les domaines de préoccupation suivants :
    1. Processus décisionnel fondé sur l’IA : La complexité des systèmes d’IA ainsi que le manque de transparence dans le traitement des données à l’appui du processus décisionnel peuvent présenter des risques importants, en particulier pour les droits et libertés des enfants. Les enfants et les personnes qui s’occupent d’eux peuvent ne pas être suffisamment informés pour savoir comment contester des décisions, ce qui par la suite peut avoir de lourdes conséquences pour eux. Cette situation peut au bout du compte causer des préjugés discriminatoires involontaires dans le processus décisionnel global fondé sur l’IA.
    2. Manipulation et tromperie : Les outils d’IA pourraient servir à inciter des personnes à prendre des mesures qu’ils n’auraient pas prises autrement, notamment celles qui pourraient aller à l’encontre de leurs intérêts. L’accès à des outils assistés par l’IA qui sont capables de générer du contenu manipulateur, trompeur ou susceptible de mettre en péril l’état émotionnel et la prise de décision des utilisateurs expose les enfants à de graves risques. Un enfant peut être particulièrement vulnérable s’il est moins à même de se rendre compte de ces situations ou de se poser des questions lorsque de telles situations se produisent. Voici quelques exemples d’outils et d’applications de ce genre :
      • L’IA dans les jouets / les compagnons de l’IA : les enfants et les jeunes pourraient être plus enclins à créer des liens avec des jouets ou des compagnons en ligne intégrant l’IA, ce qui pourrait les amener à communiquer des renseignements personnels sensibles ou à être manipulés autrement;
      • L’hypertrucage : les enfants et les jeunes peuvent être particulièrement vulnérables aux effets de l’information truquée axée sur leurs données personnelles, incluant mais sans s’y limiter, la production d’images à caractère sexuel ou autrement inappropriées qui prétendent représenter ladite jeune personne (dénudation par hypertrucage).
    3. Entraînement des modèles d’IA :l’entraînement des modèles et des algorithmes joue un rôle essentiel dans l’efficacité et la fiabilité des outils d’IA, ce qui a une incidence sur leur cycle de vie global. La collecte et l’utilisation de données personnelles d’enfants pour entraîner des modèles d’IA, y compris des données provenant de sources accessibles au public ou saisies à partir d’appareils connectés, peuvent porter atteinte au droit à la vie privée des enfants et avoir des conséquences néfastes.
  8. Conformément à la notion d’intérêt supérieur de l’enfant, qui est largement répandue au-delà de nos juridictions et qui constitue une base solide pour tenir une discussion collective à l’échelle internationale en raison de la portée mondiale des systèmes d’IA, nous soulignons qu’il faut « promouvoir le développement et l’utilisation des technologies émergentes de façon à renforcer la confiance et le respect de la vie privée » conformément au plan d’action des autorités de protection des données et de la vie privéeNote de bas de page 3. Nous encourageons l’adoption d’une solution vers une IA digne de confiance et adaptée aux enfants, qui permet aux enfants et aux jeunes de tirer parti en toute sécurité des nombreuses possibilités offertes par cette technologie révolutionnaire, et ce, à l’échelle mondiale.
  9. Compte tenu des préoccupations susmentionnées :
    • Nous saluons les initiatives en cours à l’échelle mondiale, qui regroupent des points de vue multidisciplinaires et visent directement les enfants et les jeunes, le cas échéant, afin de renforcer la coopération internationale dans ce domaine et de prendre des mesures pour répondre aux préoccupations soulevées précédemment. Parmi ces initiatives, mentionnons l’élaboration et la mise à jour régulière de codes de conduite visant à garantir aux enfants un monde numérique sécuritaire, notamment lorsqu’il y a recours à l’IA.
    • Nous reconnaissons la nécessité pour les développeurs et les utilisateurs de systèmes d’IA de prendre en compte des mesures particulières adaptées à l’âge afin de permettre aux enfants et aux jeunes d’utiliser en toute sécurité les technologies fondées sur l’IA. Ces mesures, conformes aux principes et aux lois sur la protection de la vie privée et des données, devraient :
      • orienter les technologies fondées sur l’IA, notamment lorsqu’elles sont directement destinées aux enfants ou susceptibles d’être consultées par eux, en appliquant le principe de la protection de la vie privée dès la conception en gardant à l’esprit en particulier (mais pas uniquement) les préoccupations soulignées précédemment;
      • veiller à ce que les systèmes d’IA atténuent de manière adéquate les risques de dépendance, de manipulation ou de discrimination en ligne;
      • protéger les enfants contre l’exploitation commerciale préjudiciable, notamment contre le ciblage ou le profilage d’enfants à des fins commerciales;
      • veiller à ce que les modèles d’IA qui sont susceptibles d’avoir des répercussions sur les enfants soient conçus dans l’intérêt supérieur de ces derniers. Il s’agit notamment de mettre en œuvre et de consigner en dossier les contraintes liées à la collecte et à l’utilisation des données d’entraînement concernant les enfants, ainsi qu’aux résultats (in)adéquats du modèle;
      • intégrer une analyse étayée des risques éventuels, au moyen d’une évaluation des facteurs relatifs à la vie privée, afin de permettre, « dès la conception et par défaut », le développement de technologies fondées sur l’IA qui sont sécuritaires pour les enfants. Dans ce contexte, la différenciation des services devrait être considérée comme une stratégie possible, dans le but de déployer des outils d’IA conçus précisément pour les enfants;
      • respecter fermement le principe de transparence dans le traitement des données personnelles et dans les activités de recherche et de développement de modèles d’IA, en vue de soutenir le concept d’IA explicable. L’adoption de modèles transparents – qui visent à assurer la traçabilité et à expliquer comment un algorithme produit certains résultats – permet aux jeunes et aux personnes qui s’occupent d’eux de prendre des décisions judicieuses concernant la transmission et l’utilisation de leurs données personnelles. Cette approche permet de démontrer plus clairement l’existence de mesures de protection intégrées, ce qui peut renforcer la confiance et encourager une utilisation plus large et plus efficace de l’IA pour les enfants.
    • Nous insistons sur le fait que les risques et les facteurs à prendre en considération pour les enfants, notamment ceux qui sont susmentionnés, devraient être pris en compte au moment d’élaborer des normes nationales et internationales pertinentes concernant la conception, le déploiement et la commercialisation des applications d’IA.
    • Nous encourageons la mise en valeur de la « littératie numérique » dans les cadres de politique sur l’innovation numérique. Cette démarche peut contribuer à mieux faire connaître les occasions qui existent, mais aussi les risques auxquels les systèmes d’IA exposent les enfants et les jeunes. Elle peut aussi contribuer à garantir que l’utilisation de l’IA pour ce qui touche  les enfants et dans les systèmes d’éducation repose non seulement sur des connaissances et des compétences adéquates, mais aussi sur un respect et une compréhension véritables des droits et des responsabilités en matière de protection des données. Cela s’applique également à la formation du personnel relativement à l’utilisation de l’IA dans un contexte d’enseignement.
  10. Nous tenons à souligner que les autorités de protection des données et de la vie privée doivent jouer un rôle de premier plan afin de désigner les risques éventuels liés à l’utilisation de l’IA pour ce qui touche les enfants. Il s’agit notamment de continuer à mener des activités de surveillance et d’application de loi ainsi que d’assumer la responsabilité visant à exécuter des activités de sensibilisation et à formuler des recommandations aux parties prenantes. Ces activités devraient s’appuyer, le cas échéant, sur un exercice de mobilisation important entre les organismes de réglementation, les décideurs politiques, les éducateurs et les parties prenantes.

Notes

Date de modification :