Les grands modèles de langage et la disparition de la sphère privée
Organisation
Université Queen’s
Publication
2024
Responsable du projet
Catherine Stinson, Ph. D.
Résumé
Les grands modèles de langage sont soudainement devenus une source d’intérêt (ou de consternation) pour les enseignants, les écrivains, les chefs d’entreprise, les utilisateurs d’Internet, les chercheurs du domaine de l’IA et les décideurs politiques. Il reste à voir si ces outils révolutionneront l’industrie ou s’ils deviendront peu à peu des outils comparables aux simples vérificateurs d’orthographe. Parallèlement, ces outils ont suscité diverses questions sur le droit à la vie privée, le droit d’auteur et les méthodes de recherche. Les chercheurs se sont appuyés sur leurs connaissances de l’IA, de l’éthique de la recherche et des politiques en matière de technologie pour examiner les considérations techniques, éthiques et stratégiques des grands modèles de langage.
Ce rapport commence par une introduction accessible sur la technologie et le contexte réglementaire. Les chercheurs ont par la suite produit un rapport sur un sondage mené auprès d’experts universitaires canadiens de l’éthique de la recherche. Dans le cadre du sondage, les experts devaient évaluer la manière dont les comités de révision de l’éthique de la recherche traitent actuellement la recherche sur l’IA et le moissonnage du Web et proposer des modifications à apporter aux pratiques actuelles. Les chercheurs ont ensuite procédé à une analyse documentaire de la littérature technique sur les fuites de renseignements personnels causées par les grands modèles de langage et ont mené des expériences supplémentaires, qui ont permis de combler certaines lacunes dans la recherche existante. Ils se sont également penchés sur les lacunes dans les politiques concernant la recherche sur l’IA des trois conseils et ont formulé des recommandations à l’intention de ces derniers et des comités institutionnels d’éthique de la recherche. Ils ont ensuite examiné les lacunes qui subsistent dans les travaux techniques sur l’atténuation des fuites de renseignements personnels et formulé des recommandations à l’intention des développeurs d’IA et des utilisateurs des grands modèles de langage. Enfin, les chercheurs ont présenté aux décideurs politiques des recommandations fondées sur les travaux réalisés antérieurement par le Commissariat à la protection de la vie privée du Canada.
Accessibles dans la langue suivante
Anglais
Projet financé par le CPVP
Ce projet a été financé dans le cadre du Programme des contributions du Commissariat à la protection de la vie privée du Canada. Les opinions exprimées dans les résumés et les rapports sont celles des auteurs et ne reflètent pas nécessairement l’opinion du Commissariat. Les résumés ont été fournis par les auteurs des projets. Veuillez noter que les projets sont publiés dans leur langue d’origine.
Coordonnées
Catherine Stinson, Ph. D.
Boursière nationale de l’Université Queen’s pour les répercussions
philosophiques de l’intelligence artificielle
Professeure adjointe, Département de philosophie et École d’informatique
Université Queen’s
Courriel : c.stinson@queensu.ca
- Date de modification :