Sélection de la langue

Recherche

hide

Résultats réels Vol. 4

Octobre 2023

La recherche innovatrice pour protéger
les droits relatifs à la vie privée

Questions et réponses : L’IA et l’avenir des soins de santé

La course au déploiement des applications d’intelligence artificielle (IA) est lancée dans le domaine des soins de santé. Comme elles comptent sur des quantités massives de renseignements sur la santé des patients, de nombreuses applications sont mises au point par des entreprises privées et reposent sur des partenariats public-privé ainsi que sur des accords de partage de données. Quelle incidence cela aura-t-il sur la vie privée des patients? Pour en savoir plus, l’équipe de Résultats réels a interviewé Tim Caulfield, chercheur principal de « Vie privée et intelligence artificielle : protéger les renseignements sur la santé dans une nouvelle ère », un projet financé par le Commissariat à la protection de la vie privée du Canada.

Pourquoi étudier l’utilisation de l’IA dans les soins de santé?

Il ne fait aucun doute que l’IA fera partie de l’avenir des soins de santé. Elle est déjà présente dans le contexte de la recherche, et on espère de plus en plus qu’elle sera utilisée dans le contexte clinique — du diagnostic et de l’interprétation d’images comme les examens IRM et les rayons X jusqu’à la prise de décisions sur les soins et les cheminements cliniques. Cela englobe tout, du don d’organes à l’usage pharmaceutique. Il faut le reconnaître, la recherche se poursuit sur la façon exacte dont l’IA sera utilisée. C’est l’une des raisons pour lesquelles notre équipe s’est beaucoup intéressée à ce sujet — et aussi parce que c’est un gros marché.

Quelle est l’envergure de ce marché, étant donné qu’à fortiori il s’agit de soins de santé?

Les grandes entreprises de technologie participeront dans ce domaine parce que, bien entendu, d’énormes ensembles de données sur les patients sont nécessaires. Pour que l’IA soit efficace dans le contexte des soins cliniques, il faut avoir accès à un énorme ensemble de renseignements personnels sur les patients. Essentiellement, on remplit des « boîtes noires » avec des renseignements personnels sur les clients afin de créer des algorithmes pour les soins aux patients. Bien sûr, cela soulève des questions très intéressantes au sujet du consentement et de la vie privée.

Quels genres de questions?

Commençons par le consentement. Nous devons nous assurer que le consentement complet est obtenu pour que les données d’un patient soient utilisées dans le contexte de l’IA, surtout si les données ne sont pas réellement anonymes ou dépersonnalisées, ce qui soulève des défis assez paradoxaux.

Même si le consentement est obtenu, comment les données seront-elles utilisées au bout du compte? Lorsqu’il s’agit de grandes entreprises privées, nous devons nous assurer qu’elles demandent à nouveau le consentement si les données finissent par être utilisées d’une façon qui n’était pas prévue dans le consentement initial. Cela devrait faire partie du fondement même du droit et des principes de protection de la vie privée.

Quels sont les « défis paradoxaux » à relever pour s’assurer que les données d’un patient sont réellement dépersonnalisées?

Tout d’abord, les atteintes à la protection des données traditionnelles peuvent se produire chaque fois que vous avez de grands ensembles de données qui contiennent beaucoup de renseignements sur les patients, ce qui est préoccupant, point final. Toutefois, la réalité est qu’il est de plus en plus difficile de dépersonnaliser les données et de les rendre vraiment anonymes. C’est une question fascinante, parce que l’un des outils stratégiques courants déployés dans le contexte de la protection de la vie privée est l’anonymisation des données. Toutefois, pour que les données soient utiles aux chercheurs en IA, elles doivent contenir des renseignements utiles.

Voilà un paradoxe…

Decorative elementDecorative element

L’idée que l’on puisse vraiment dépersonnaliser les données devient de plus en plus illusoire et constitue donc un outil stratégique moins efficace pour relever les défis en matière de protection de la vie privée qui se posent dans des domaines comme l’intelligence artificielle.

On ne peut donc dépersonnaliser les données que dans une certaine mesure. La raison pour laquelle il s’agit d’un défi paradoxal dans le contexte de l’IA est que la nouvelle technologie en IA facilite la réidentification des personnes. Certaines études intéressantes sur les grandes biobanques, par exemple, ont démontré qu’il ne faut pas beaucoup de données sur les patients pour réidentifier quelqu’un.

Y a-t-il d’autres risques liés au fait que des entreprises privées ou des partenariats public-privé participent à des applications de soins de santé fondées sur l’IA?

Qu’il s’agisse de Google ou d’autres entreprises de technologie, par « public-privé » on entend que les entreprises privées accèdent aux renseignements sur les patients qui font partie du système public. Les entreprises peuvent également établir des partenariats avec des chercheurs qui sont financés par des organismes publics, comme les Instituts de recherche en santé du Canada ou des universités publiques. Ces collaborations entre les secteurs public et privé peuvent créer des défis en matière de réglementation lorsqu’un ensemble de lois et de règlements s’appliquent à un domaine, mais pas autant à un autre, et vice versa. Notre projet vise à éclaircir la façon dont le régime de réglementation s’appliquerait dans ce contexte.

Vous avez mentionné la possibilité d’atteintes à la vie privée, mais quels autres types d’utilisation ou de communication inappropriées des renseignements personnels sur la santé pourraient survenir?

Une personne devrait avoir un contrôle constant sur les renseignements permettant de l’identifier. Toutefois, prenons une situation hypothétique où vous pourriez avoir donné votre consentement à ce que vos données soient utilisées pour l’IA en pensant qu’elles serviront pour le bien commun, comme la recherche en santé ou peut-être même le développement d’un outil clinique puissant et utile. Mais, les données finissent par être utilisées pour quelque chose de moins sérieux dans le seul but de faire des profits.

Le fondement des principes juridiques, éthiques et d’éthique de la recherche est d’assurer le droit permanent de retirer votre consentement à l’égard des renseignements qui continuent d’être liés à vous. Cela devient plus difficile lorsqu’il s’agit de l’agrégation de vos renseignements par Google, par exemple, dans le cadre d’une initiative massive d’intelligence artificielle. Comment peut-on mettre en pratique ces principes? C’est une question très intéressante, que nous abordons dans le rapport.

Comment la recherche s’est-elle déroulée pour ce projet?

Tout a commencé par une volonté de mieux comprendre le rôle de l’IA. Nous voulions avoir une bonne idée de la façon dont l’IA était présente à l’heure actuelle et comment elle pourrait être utilisée à l’avenir. Nous voulions aussi nous assurer que notre travail soit fondé sur des données scientifiques. Nous ne voulions pas que nos recommandations en matière de politique soient fondées sur un battage scientifique ou des spéculations, comme nous l’avons vu par le passé avec des questions comme le clonage humain.

Nous avons examiné le cadre juridique et politique canadien en nous concentrant sur deux questions : la possibilité que les renseignements personnels sur la santé soient traités, utilisés ou communiqués de façon inappropriée par des entreprises privées d’IA et la possibilité d’atteintes à la vie privée avec de nouvelles méthodes d’IA pour réidentifier les renseignements sur la santé des patients.

Nous avons aussi analysé la législation canadienne, en se concentrant sur la Loi sur la protection des renseignements personnels et les documents électroniques ainsi que sur la common law applicable en matière de délits et d’obligations fiduciaires et les principales politiques canadiennes en matière d’éthique de la recherche, à savoir l’Énoncé de politique des trois conseils : Éthique de la recherche avec des êtres humains. L’objectif était de brosser un tableau complet des enjeux pertinents.

Quelles ont été certaines des principales constatations et recommandations?

Nos principales recommandations portent sur la nécessité d’un consentement approprié et sur la nécessité de veiller à l’élaboration de cadres réglementaires complets qui tiennent compte des intervenants publics et privés concernés. Nous avons également formulé des recommandations sur la façon de mettre en pratique le droit de retirer le consentement dans le contexte de l’IA, et certaines d’entre elles couvrent les renseignements ne permettant pas d’identifier une personne — afin de déterminer comment le concept de consentement sera utilisé à l’avenir, car il commence à s’évaporer lentement lorsqu’il n’a plus cette signification tangible.

Quelles sont les prochaines étapes de cette recherche?

Notre objectif est de traduire notre travail de diverses façons. L’un des membres de l’équipe de recherche, Blake Murdoch, est en train de devenir un porte-parole national sur ce sujet. Nous avons également créé du contenu à partager pour les médias sociaux, dont des infographies, et nous prévoyons d’en créer davantage à l’avenir. Il est important de penser à des façons uniques de faire participer un large éventail de collectivités à nos recommandations.

Decorative element

Comment le public réagit-il à l’IA?

Selon la recherche actuelle, le public demeure sceptique quant à l’utilisation de l’IA dans le contexte des décisions en matière de soins de santé, ce qui montre une préférence pour l’intervention humaine. À l’instar de la technologie automobile sans conducteur, où, même si des données démontrent des résultats potentiellement plus sûrs que pour les voitures à conduite humaine, le public veut tout de même que les humains participent à la conduite — il en va de même pour la façon dont le public perçoit les soins de santé.

Des questions juridiques se posent également : si quelque chose tourne mal dans une décision de soins de santé, qui est responsable? Deux études récentes abordent ces questions. Dans une étude intitulée « Attitudes and perception of artificial intelligence in healthcare: A cross-sectional survey among patients (en anglais seulement) », les chercheurs ont constaté que « […] les patients insistent pour qu’un médecin supervise l’intelligence artificielle et conserve la responsabilité ultime du diagnostic et de la thérapie ». La confiance est une question fondamentale. Dans un récent sondage intitulé « Do People Favor Artificial Intelligence Over Physicians? (en anglais seulement) », les chercheurs ont conclu que « la population en général se méfie davantage de l’IA en médecine, contrairement aux opinions optimistes exprimées dans les médias ».

Autres articles de Résultats réels


Avertissement : Le Programme des contributions du Commissariat finance des projets de recherche indépendants sur la protection de la vie privée et des initiatives d’application des connaissances. Les opinions exprimées par les experts dans la présente publication ne reflètent pas nécessairement celles du Commissariat à la protection de la vie privée du Canada.

Date de modification :