ARTICLE
5 May 2025

Instruments médicaux basés sur l'IA — Transformation et réglementation

MT
McCarthy Tétrault LLP

Contributor

McCarthy Tétrault LLP provides a broad range of legal services, advising on large and complex assignments for Canadian and international interests. The firm has substantial presence in Canada’s major commercial centres and in New York City, US and London, UK.
L'utilisation de l'intelligence artificielle (l'« IA ») dans le cadre de la prestation de soins de santé crée des opportunités transformationnelles pour l'amélioration des systèmes et des soins...
Canada Food, Drugs, Healthcare, Life Sciences

L'utilisation de l'intelligence artificielle (l'« IA ») dans le cadre de la prestation de soins de santé crée des opportunités transformationnelles pour l'amélioration des systèmes et des soins, tout en mettant à l'épreuve les procédures réglementaires existantes et en permettant l'émergence de nouvelles approches pour l'approbation des instruments médicaux basés sur l'IA. Bien que les procédures d'approbation réglementaire pour les instruments médicaux basés sur l'apprentissage machine (les « IMAM ») et les instruments médicaux basés sur l'IA au Canada et aux États-Unis présentent des différences subtiles, les approches suivies par Santé Canada et la Food & Drug Administration des États-Unis (la » FDA ») présentent certaines similitudes et les deux organismes de réglementation ont publié des lignes directrices se chevauchant. Ainsi, les fabricants d'instruments médicaux et les concepteurs de logiciels médicaux peuvent s'attendre à préparer et à présenter des informations similaires dans les demandes qu'ils présentent à la FDA et à Santé Canada.

Procédures réglementaires applicables aux instruments médicaux basés sur l'IA

Le système et le marché des soins de santé aux États-Unis sont souvent pris en compte dans la recherche et le développement de nouveaux instruments médicaux au Canada. Il n'est pas rare que des sociétés canadiennes se tournent vers les États-Unis pour obtenir l'approbation réglementaire de leurs instruments, même avant de demander des approbations semblables au Canada. Par conséquent, nous présentons de manière générale la procédure réglementaire de la FDA avant notre discussion sur le processus de Santé Canada.

La Food & Drug Administration des États-Unis

Au 25 mars 2025, date de la dernière mise à jour de la FDA, celle-ci avait autorisé 1 016 instruments médicaux basés sur l'AI ou l'apprentissage machine1.

Lorsqu'on navigue dans le régime de réglementation américain, il est tout d'abord important de déterminer si un produit est classé comme un « instrument médical » au sens de « medical device » en vertu du Federal Food, Drug, and Cosmetic Act (le « FD&CA »).

Par exemple, un logiciel peut être considéré comme un instrument médical. Un type courant de logiciel pouvant entrer dans cette catégorie et qui est prêt pour l'intégration de l'AI est le logiciel d'aide à la décision clinique (l'« ADC »). La FDA a publié des lignes directrices permettant d'aider à déterminer si le logiciel d'ADC respecte les critères énoncés à l'article 520(o)(1)(E) du FD&CA, soit des critères et des exemples non exhaustifs permettant de déterminer si un logiciel d'ADC donné peut être considéré comme un instrument (Device) ou un logiciel d'ADC qui n'est pas un instrument (Non-Device CDS)2.

Si la fonction logicielle d'ADC satisfait à chacun des critères de fonction logicielle qui n'est pas un instrument (Non-Device CDS), elle sera exclue de la définition d'un instrument par l'effet de l'article 520(o)(1)E) du FD&CA. Si l'un de ces critères n'est pas rempli, la fonction logicielle d'ADC est alors considérée comme un instrument en vertu du FD&CA et sera traitée comme tel. À ce titre, une attention particulière doit être accordée au stade de la recherche et du développement afin de planifier de manière adéquate les exigences appropriées relatives à chaque procédure d'approbation.

Une fois qu'il est établi qu'un produit basé sur l'IA ou l'AM est un instrument médical, la procédure d'approbation préalable à la mise en marché applicable doit être choisie. La FDA offre trois procédures différentes d'approbation préalable à la mise en marché pour les instruments médicaux, dont certaines ne sont ouvertes que pour certaines catégories d'instruments :

Notification préalable à la mise en marché (en vertu de l'alinéa 510(k))3

Une notification selon l'alinéa 510(k) du FD&CA est une demande préalable à la mise en marché adressée à la FDA pour démontrer que l'instrument devant être commercialisé est aussi sûr et efficace qu'un instrument préexistant déjà légalement commercialisé ou qu'il est « essentiellement équivalent » (au sens de substantially equivalent) à un tel instrument4. Les instruments des classes I, II et III destinés à l'usage humain, pour lesquels une demande d'approbation préalable à la mise en marché (une « DAP ») n'est pas requise, doivent soumettre à la FDA une demande selon l'alinéa 510(k), sauf si l'instrument est dispensé de l'application des exigences de l'alinéa 510(k). Avant de commercialiser un instrument aux États-Unis, chaque déposant doit d'abord recevoir une ordonnance de la FDA qui indique que l'instrument est essentiellement équivalent, autorisant ainsi la distribution commerciale de l'instrument5.

Tout instrument commercialisé légalement peut être utilisé à titre d'instrument de référence (predicate device en anglais) (y compris un instrument qui a lui-même été autorisé en vertu de la procédure prévue à l'alinéa 510(k)), tant que cet instrument ne contrevient pas alors au FD&CA. L'équivalence essentielle est déterminée en comparant l'instrument à un instrument de référence et en constatant ce qui suit :

  • il a la même utilisation prévue que l'instrument de référence; et
  • il présente les mêmes caractéristiques technologiques ou la même utilisation prévue que l'instrument de référence; et
  • il peut présenter des caractéristiques technologiques différentes, mais ne soulève pas de questions différentes en matière de sécurité et d'efficacité; et
  • les renseignements présentés à la FDA démontrent que l'instrument est aussi sûr et efficace que l'instrument légalement commercialisé.

Même si la croissance des capacités et de la technologie de l'IA est encore relativement récente, un article révisé par des pairs fait observer qu'un nombre croissant d'instruments médicaux basés sur l'IA/AM sont approuvés dans le cadre de la procédure prévue à l'alinéa 510(k)6. Cela montre qu'un grand nombre de sociétés existantes tirent parti de l'IA pour réaffecter des logiciels existants et d'autres éléments de propriété intellectuelle, et utilisent la procédure d'approbation préalable à la mise en marché prévue à l'alinéa 510(k) pour obtenir l'approbation d'instruments médicaux basés sur l'IA/AM et faire ainsi avancer leurs intérêts commerciaux7.

Classification de novo

Si un fabricant d'un instrument détermine qu'il n'existe pas d'instrument de référence approprié ou reçoit de la FDA une conclusion générale selon laquelle l'instrument n'est pas essentiellement équivalent en réponse à une demande en vertu de l'alinéa 510(k), la classification de novo doit être choisie pour les instruments de classe I ou de classe II8. La demande de novo offre une voie de commercialisation pour classer les nouveaux instruments médicaux selon des mécanismes de contrôle visant à offrir une assurance raisonnable de sécurité et d'efficacité pour l'utilisation prévue.

Si les données et l'information démontrent que les mécanismes de contrôle généraux et spéciaux sont suffisants pour offrir une assurance raisonnable de sécurité et d'efficacité et que les avantages probables l'emportent sur les risques éventuels liés à l'instrument, la FDA autorisera la mise en marché de l'instrument en conformité avec les mécanismes de contrôle réglementaires applicables et établira un nouveau règlement de classification pour le nouveau type d'instrument9. Une fois l'autorisation accordée, le nouvel instrument peut aussi servir d'instrument de référence pour les demandes présentées en vertu de l'alinéa 510(k).

Approbation préalable à la mise en marché (article 515 du FD&CA)

Les instruments de classe III sont ceux qui soutiennent ou maintiennent la vie humaine, qui sont d'une grande importance dans la prévention des troubles de la santé humaine ou qui présentent un risque éventuel et déraisonnable de maladie ou de blessures10. En raison du niveau plus élevé de risque associé aux instruments de classe III, en plus de l'utilisation de mécanismes de contrôle généraux et spéciaux, ces instruments requièrent le dépôt d'une DAP en vertu de l'article 515 du FD&CA, soit la procédure la plus rigoureuse exigée par la FDA. À ce titre, les fabricants et les concepteurs de logiciels qui envisagent de lancer un nouvel instrument médical de classe III doté d'une technologie d'IA véritablement novatrice, et qui ne disposent pas d'instruments de référence appropriés devraient être préparés aux coûts, aux délais et aux risques de rejets inhérents à la présentation d'une DAP.

Une DAP vise à présenter à la FDA la documentation scientifique prévue par la réglementation qui démontre la sécurité et l'efficacité d'un instrument de classe III. Les sections techniques de la DAP comprendront des données et des renseignements étayant la demande provenant d'études cliniques et non cliniques en laboratoire ainsi que des essais de fiabilité des algorithmes, en particulier des modèles adaptatifs. Plusieurs lignes directrices de la FDA décrivant les exigences précises en matière de données applicables aux DAP sont disponibles, et les protocoles d'étude doivent inclure tous les éléments applicables décrits dans les lignes directrices visant l'instrument particulier11.

Lignes directrices particulières à l'AI et aux IMAM

Au début de 2021, la FDA a publié un plan d'action sur les logiciels basés sur l'AI/AM en tant qu'instruments médicaux intitulé AI/ML-Based Software as a Medical Device (SaMD) Action Plan, qui visait à décrire les principes fondamentaux, établis par la FDA, qui sous-tendent l'examen préalable à la mise en marché et la surveillance du contrôle du rendement et l'évaluation des instruments médicaux basés sur l'AI et des IMAM12. Dans la lignée du plan d'action, la FDA a depuis publié d'autres documents et lignes directrices, en collaboration avec Santé Canada, la Medicines and Healthcare products Regulatory Agency (la « MHRA ») du Royaume-Uni et l'International Medical Device Regulators Forum (l'« IMDRF »), qui sont plus amplement décrits ci-après.

En juin 2024, la FDA a publié ses dernières lignes directrices : Final Guidance: Marketing Submission Recommendations for a Predetermined Change Control Plan for Artificial Intelligence-Enabled Device Software Functions13. Comme l'indique la FDA, les recommandations qui figurent dans ces lignes directrices visent à soutenir l'amélioration itérative par des modifications apportées aux instruments basés sur l'IA tout en continuant de fournir une assurance raisonnable de sécurité et d'efficacité des instruments au moyen d'un plan de contrôle des changements préétabli intitulé Predetermined Change Control Plan (un « PCCP »). La FDA examine le PCCP d'un fabricant dans le cadre d'une demande de mise en marché d'un instrument basé sur l'AI afin d'assurer la sécurité et l'efficacité permanentes de l'instrument sans qu'il soit nécessaire de présenter des demandes de mise en marché en continu pour la mise en œuvre de chaque modification décrite dans le PCCP.

Le 6 janvier 2025, la FDA a publié un projet de lignes directrices intitulé Guidance: Artificial Intelligence-Enabling Device Software Functions: Lifcycle Management and Marketing Soumissions Recommendations14. Ce projet de lignes directrices propose à la fois des considérations relatives au cycle de vie et des recommandations particulières pour le soutien des demandes d'approbation préalable à la mise en marché pour les instruments médicaux basés sur l'IA. Le projet de lignes directrices met l'accent sur les recommandations formulées dans d'autres lignes directrices de la FDA afin d'aider les fabricants à appliquer ces recommandations aux instruments basés sur l'IA, et fournit des recommandations supplémentaires sur des sujets particuliers liés à l'IA. Une fois définitives, ces lignes directrices devront être utilisées en complément des autres lignes directrices de la FDA applicables à un instrument donné.

Santé Canada

En matière d'instruments médicaux, Santé Canada s'appuie sur la Loi sur les aliments et drogues (la « LAD ») et le Règlement sur les instruments médicaux (le « RIM ») qui l'accompagne.

À l'instar de la procédure de la FDA, déterminer ce qui constitue un instrument médical aux termes du RIM du Canada est une première étape importante. Un instrument médical est défini comme « tout instrument, appareil, dispositif ou article semblable ou tout réactif in vitro, y compris tout composant, partie ou accessoire de l'un ou l'autre de ceux-ci, fabriqué ou vendu pour servir à l'une ou l'autre des fins ci-après ou présenté comme pouvant y servir : a) le diagnostic, le traitement, l'atténuation ou la prévention d'une maladie, d'un désordre ou d'un état physique anormal ou de leurs symptômes, chez l'être humain ou les animaux […] »15.

Pour Santé Canada, les IMAM sont classés dans les classes I à IV, et comprennent à la fois des logiciels autonomes ou des instruments médicaux comprenant des logiciels, ainsi que des instruments de diagnostic in vitro ou autres. Lorsqu'ils présentent une demande à Santé Canada, les fabricants doivent être clairs dans leur lettre de présentation au sujet de ce qui suit :

  • la déclaration que leur instrument utilise l'AM pour toutes les demandes visant un IMAM de classe II, III ou IV;
  • si un PCCP est introduit ou exigé, l'indication que l'instrument comprend un PCCP;
  • une justification de la classification proposée pour l'instrument médical s'appliquant à l'IMAM en fonction des règles énoncées à l'annexe 1 du Règlement16.

Les demandes doivent démontrer que l'IMAM (et les PCCP qui l'accompagnent) respecte et continuera de respecter les exigences applicables en matière de sécurité et d'efficacité, et qu'il présente un avantage thérapeutique qui l'emporte sur le niveau de risque acceptable. Tous les instruments médicaux doivent satisfaire aux exigences applicables prévues aux articles 10 à 20 du RIM, tandis que les demandes visant les classes II à IV doivent également comprendre l'information précisée à l'article 3217. Les fabricants doivent fournir des preuves cliniques appropriées pour appuyer l'utilisation clinique sûre et efficace d'un IMAM de classe III et IV. Les demandeurs doivent toujours être prêts à fournir plus d'informations lors de l'examen d'une demande ou après la délivrance d'une homologation pour un instrument.

Santé Canada adopte une approche du cycle de vie des produits pour évaluer la sécurité et l'efficacité d'un IMAM, et il convient d'accorder l'attention nécessaire aux Lignes directrices préalables à la mise en marché pour les instruments médicaux fondés sur l'apprentissage machine18 et aux Bonnes pratiques d'apprentissage machine pour le développement des instruments médicaux : Principes directeurs19 afin de respecter ces normes. Ces lignes directrices traitent d'aspects essentiels tels que la gestion des risques (y compris les biais, soulignant en particulier la nécessité d'une analyse fondée sur le sexe et le genre plus), la qualité des ensembles de données, les méthodes d'entraînement, les essais de rendement, la transparence (y compris les considérations liées à l'étiquetage) et ce qui devrait être inclus dans le champ d'application d'un PCCP. Même après l'approbation, les fabricants devraient entreprendre un suivi rigoureux du rendement après la mise en marché et envisager d'inclure une description des processus et des mesures d'atténuation des risques mis en place pour réagir aux modifications éventuelles apportées aux données d'entrée du modèle d'AM ou à la manière dont les données de sortie du système d'AM sont traitées par des produits compatibles. Les fabricants doivent également fournir des copies des modes ou instructions d'emploi de l'instrument, qui doivent être conformes aux exigences en matière d'étiquetage prévues aux articles 21 à 23 du RIM.

Selon Santé Canada, un PCCP est la documentation qui caractérise un instrument, ses limites, les modifications prévues au système d'AM et le protocole de gestion des modifications20. Des lignes directrices détaillées sur les PCCP figurent dans le document intitulé Lignes directrices préalables à la mise en marché pour les instruments médicaux fondés sur l'apprentissage machine de Santé Canada. Les PCCP doivent être fondés sur les risques et être étayés par des éléments de preuve afin de rassurer et de démontrer que l'appareil continuera de fonctionner dans le cadre de son utilisation prévue, même s'il évolue au fil du temps.

Les lignes directrices de Santé Canada indiquent également que les données utilisées par les fabricants devraient représenter adéquatement la population et les pratiques cliniques du Canada en ce qui concerne les différences biologiques entre les sexes et la pigmentation de la peau, par exemple21. À l'instar de la FDA, Santé Canada a également publié des lignes directrices sur les exigences précises en matière de preuves cliniques pour les instruments médicaux, qui donne des renseignements sur le moment où les données et les preuves cliniques sont requises et sur la manière de comparer adéquatement les instruments22. Des lignes directrices intitulées Sur les exigences relatives à la cybersécurité des instruments médicaux avant leur mise en marché sont également disponibles, préconisant un examen précoce de la cybersécurité dans le cycle de vie du produit, la gestion des risques propres à un instrument et des procédures de tests de vérification et de validation rigoureuses23.

Perspectives mondiales

La FDA, Santé Canada, la Medicines and Healthcare products Regulatory Agency (la « MHRA ») du Royaume-Uni et l'International Medical Device Regulators Forum (l'« IMDRF ») ont également publié des lignes directrices conjointes dans ce domaine. Bien que des documents tels que le cadre Quality Management System for Software as a Medical Device de l'IMDRF24 ne constituent pas une réglementation qui contraignante, ils fournissent aux organismes de réglementation des principes harmonisés de gestion de la qualité qu'ils peuvent adopter en fonction de leur propre cadre de réglementation. Il existe également une volonté manifeste de la part des autorités territoriales d'apprendre les unes des autres et d'adopter les meilleures pratiques et les principes reconnus à l'échelle mondiale.

La FDA, Santé Canada et la MHRA ont conjointement défini 10 principes directeurs avec l'IMDRF pour guider l'élaboration de bonnes pratiques d'apprentissage machine (les « BPAM ») et traiter des considérations particulières des IMAM itératifs, qui devraient être examinés au début du cycle de vie d'un produit25. Se fondant sur les principes des BPAM, la FDA, Santé Canada et la MHRA ont publié d'autres documents sur les principes directeurs applicables aux PCCP26 et sur la promotion d'une transparence appropriée pour les IMAM27.

Même si les PCCP peuvent être élaborés et utilisés de diverses manières selon les pays, l'un des principaux objectifs des principes directeurs applicables aux PCCP est de fournir un cadre fondateur qui met en évidence les caractéristiques de PCCP robustes, en favorisant expressément l'harmonisation des règles à l'échelle internationale28.

Dans ce contexte, la « transparence » désigne la mesure dans laquelle l'information appropriée relative à un IMAM est communiquée de façon claire aux publics pertinents. Une transparence efficace suppose que l'information qui peut avoir une incidence sur les patients soit communiquée, et ce, d'une manière adaptée au contexte et reposant sur une compréhension globale des utilisateurs et des environnements. Il est recommandé d'adopter une approche de développement centrée sur l'humain qui tienne compte des besoins d'informations à chaque étape du cycle de vie du produit, et de procéder à des notifications et à des mises à jour logicielles en temps utile lorsque des limitations sont découvertes.

Les fournisseurs qui cherchent à commercialiser des IMAM dans l'UE seront assujettis à la Loi sur l'IA de l'UE et trouveront des principes familiers tirés des régimes américain et canadien. Les IMAM sont classés dans la catégorie de risque la plus élevée pour les utilisations autorisées de l'IA, ce qui suppose le respect des obligations énoncées à l'article 8 de cette loi. La mise en œuvre de systèmes appropriés de gestion des risques qui permettent d'identifier, d'évaluer et d'atténuer de manière adéquate les risques raisonnables et prévisibles que présentent les IMAM pour la santé, la sécurité et la protection de la vie privée, est également soulignée en plus de l'obligation pour les fournisseurs de mettre en œuvre un système de gestion de la qualité de l'IA pour garantir la conformité29. Les obligations en matière de gouvernance des données s'étendent également au-delà des données sur les patients et englobent les exigences propres à l'IA comme l'entraînement, la validation et les ensembles de données d'essais30. Les fournisseurs extérieurs à l'UE doivent également désigner un représentant agréé par l'UE.

Considérations

Les prestataires de soins de santé peu familiers avec le fonctionnement de l'IA peuvent être réticents à lui faire confiance et ne pas vouloir en adopter l'utilisation, ce qui entraîne une sous-utilisation de technologies potentiellement bénéfiques31. En revanche, le risque de biais d'automatisation ne doit pas être ignoré, soit la tendance des humains à faire trop confiance aux recommandations générées par des machines, s'appuyant de façon réfléchie sur un outil d'IA sans délibération et prise de décision indépendantes32. Certains experts craignent à juste titre que les médecins se sentent même contraints de recourir à l'IA contre leur jugement professionnel si l'utilisation de l'IA devient la norme de soins et que le fait de ne pas utiliser l'IA peut engager leur responsabilité33. Le blocage des outils d'IA pour les empêcher d'apprendre de manière itérative contribue à maximiser les garanties de sécurité et d'efficacité après l'entrée sur le marché et à réduire les coûts de surveillance, mais cette approche mine également la possibilité de répercuter les avantages de l'IA sur la santé publique et la perspective de maîtrise des coûts offerte par les logiciels d'AM34.

Les considérations qui suivent doivent être prises en compte dans le cadre de la procédure d'approbation réglementaire afin de vérifier que des systèmes et des mécanismes de contrôle suffisants sont en place pour les instruments médicaux basés sur l'IA et les IMAM :

Dilemme de la boîte noire

La capacité limitée des logiciels de démontrer à un observateur externe (même aux propres concepteurs35 d'un système d'IA) comment et pourquoi ils ont pu prendre une décision a été appelée le dilemme de la « boîte noire » en IA, d'où les appels à une plus grande « explicabilité » ou une plus grande interprétabilité dans la conception des logiciels36. L'explicabilité est un aspect de la transparence. Elle a été définie dans le document Transparency Guiding Principles for MLMDs de la FDA, de Santé Canada et de la MHRA, comme la mesure dans laquelle un résultat a été obtenu ou le fondement d'une décision ou d'une action peut être expliqué d'une manière compréhensible à une personne37. Être en mesure de comprendre ses capacités décisionnelles est impératif pour s'assurer qu'un algorithme adaptatif ne commencerait pas à apprendre des nouvelles hypothèses erronées et à les intégrer dans des diagnostics ultérieurs.

Toutefois, même si une IA explicable ne résoudra peut-être pas ces questions, car les « explications » fournissent souvent une indication du fonctionnement de l'IA plutôt qu'une compréhension directe, et que certains outils peuvent être sûrs et efficaces même s'ils ne sont pas explicables38. Non seulement cela crée une certaine incertitude dans les résultats de l'IA, mais la dépendance à l'égard de cette information peut créer des difficultés lorsqu'il s'agit de répartir la responsabilité entre les professionnels de la santé, les hôpitaux et les fabricants de logiciels en cas de négligence découlant de la dépendance à l'égard de résultats défectueux.

Biais algorithmique et de données

L'expression « biais algorithmique » a été définie comme une distorsion injustifiée des résultats découlant d'un problème de conception algorithmique39. Les concepteurs ont vu des boucles de rétroaction positives dans lesquelles une application d'AM adaptative devient de plus en plus optimisée pour les données auxquelles elle est exposée à des fréquences plus élevées40. Si les ensembles de données d'entraînement utilisés par les programmeurs en IA sous-représentent systématiquement des groupes particuliers comme les personnes et les femmes du groupe PANDC, les données sur lesquelles l'algorithme est fondé sont alors faussées en conséquence41.

Malheureusement, malgré les bonnes intentions d'innovateurs, de nombreux ensembles de données accessibles actuellement utilisés pour former des applications d'IA dans le domaine de la santé sont relativement homogènes sur les plans racial, géographique et socioéconomique et ne représentent donc pas suffisamment de nombreuses populations de patients vulnérables et marginalisées42. Par exemple, MIMIC-III est une vaste base de données publique aux États-Unis qui a été utilisée pour la conception de plus de 1 300 applications dans le domaine des soins critiques pour adultes43. Toutefois, ces données proviennent d'un grand hôpital de soins tertiaires à Boston (États-Unis) et, à ce titre, une application d'IA fondée sur les données du MIMIC-III pourrait être biaisée en faveur des personnes avantagées sur le plan socioéconomique et des sous-populations de patients qui n'ont pas accès à ces soins (particulièrement aux États‑Unis).

Ces questions n'ont pas été ignorées par les législateurs. La Directive sur la prise de décisions automatisée (la « Directive PDA ») du gouvernement fédéral indique que les cadres réglementaires canadiens exigeront probablement aussi que toute technologie d'IA en matière de santé garantisse que toutes les données soient soumises à des tests de partialité et de non-discrimination dans le cadre de la surveillance humaine qui intervient avant la prise de décisions en matière de soins44. Certaines exigences de la Directive PDA en matière d'atténuation des risques sont proportionnellement ciblées sur l'incidence variable de la décision automatisée, dont l'obligation d'utiliser des ensembles de données d'entraînement adéquatement représentatifs. Toutefois, la seule validation des données d'entraînement ne suffit pas pour atténuer le risque de biais algorithmique, car le logiciel d'AM peut lui-même « apprendre » à être biaisé au fil du temps.

Préoccupations relatives à la protection de la vie privée et autres lois applicables

La compétence en matière de protection de la vie privée, dans le domaine de la santé et de manière plus générale, est partagée entre les gouvernements provinciaux et fédéral. La Loi sur la protection des renseignements personnels et les documents électroniques (la « LPRPDE ») s'applique à la protection de la vie privée dans le contexte des instruments médicaux commerciaux. Les lois provinciales sur la protection de la vie privée et certaines lois sur la protection de la vie privée dans le secteur de la santé régissent également les renseignements sur la santé d'une personne ou ceux relatifs à la prestation de soins de santé à une personne. En outre, il convient de tenir dûment compte des exigences internationales et interprovinciales en matière de partage de données et de limiter le risque que des outils d'IA permettent de réidentifier des données déjà dépersonnalisées45. Ainsi, dans le contexte des IMAM adaptatifs, l'autonomie des patients devrait également être protégée en demandant expressément un consentement libre et éclairé pour la collecte de renseignements sur la santé des patients à des fins allant au-delà de la stricte prise de décision de diagnostic (c.-à-d. pour l'entraînement d'algorithmes), afin de veiller à ce que les patients qui refusent ces étapes supplémentaires ne se voient pas refuser l'accès à de tels outils cliniques.

Le gouvernement fédéral avait présenté le projet de loi C-27, qui comprenait la Loi sur l'intelligence artificielle et les données (la « LIAD »), qui visait à réglementer le commerce international et interprovincial dans le secteur des systèmes d'IA. Toutefois, la LIAD est morte au feuilleton lors de la prorogation du Parlement le 6 janvier 2025. Si la LIAD avait reçu la sanction royale telle quelle, elle aurait établi des exigences communes en matière de conception, de développement et d'utilisation de systèmes d'IA, y compris des mesures visant à atténuer les risques de préjudice et de résultats biaisés. Toutefois, il convient de noter que l'article 3(1) de la LIAD indiquait que la Loi ne s'appliquait pas aux « institutions fédérales » au sens de l'article 3 de la LRPDE, qui comprennent le ministère de la Santé et l'Agence de la santé publique du Canada.

En Ontario, la Loi de 2024 visant à renforcer la cybersécurité et la confiance dans le secteur public a récemment reçu la sanction royale, bien qu'une date d'entrée en vigueur n'ait pas encore été fixée. Cette loi promulgue la Loi de 2024 visant à renforcer la sécurité et la confiance en matière numérique et modifie la Loi sur l'accès à l'information et la protection de la vie privée. La Loi de 2024 visant à renforcer la sécurité et la confiance en matière numérique prévoit de nouvelles obligations importantes concernant l'utilisation de l'IA par des entités du secteur public prescrites, notamment les hôpitaux et les organismes de santé provinciaux. Les entités du secteur public visées dans les règlements qui doivent encore être publiés seront tenues de faire ce qui suit en ce qui concerne l'utilisation des systèmes d'IA :

  • fournir au public des renseignements au sujet de l'utilisation de tels systèmes;
  • établir et mettre en œuvre un cadre de responsabilisation et prendre des mesures en matière de gestion des risques;
  • dans certaines circonstances, divulguer des renseignements et veiller à ce qu'un particulier assure la surveillance de l'utilisation d'un système d'IA;
  • se conformer aux normes techniques relatives aux systèmes d'IA.

Chacune de ces exigences sera prescrite de façon plus détaillée dans les règlements qui n'ont pas encore été publiés. Les institutions qui envisagent de mettre en œuvre des instruments médicaux basés sur l'IA ou des IMAM devraient garder un œil sur l'entrée en vigueur de cette législation et la publication des règlements correspondants.

Conclusion

La possibilité que des instruments médicaux basés sur l'IA et des IMAM révolutionnent les soins de santé est bien connue, mais elle n'est pas sans risques. Les concepteurs et les fabricants d'instruments médicaux qui explorent l'utilisation de cette technologie doivent s'attendre à ce que les organismes de réglementation fassent preuve de prudence et à ce que les exigences réglementaires continuent d'évoluer au fur et à mesure que nous en apprenons davantage sur la façon dont les instruments seront déployés dans le contexte des soins de santé.

Comme cela a été le cas depuis longtemps, nous nous attendons à ce que la FDA et Santé Canada continuent à communiquer et à collaborer, et qu'ils alignent de façon générale leurs approches réglementaires respectives. Cela étant dit, la FDA semble avoir pris l'initiative dans ce domaine, et nous continuerons de suivre les prochaines démarches de Santé Canada.

Footnotes

1. https://www.fda.gov/medical-devices/software-medical-device-samd/artificial-intelligence-and-machine-learning-aiml-enabled-medical-devices

2. https://www.fda.gov/media/109618/download

e.arket-submissions-selecting-and-preparing-correct-submission/premarket-notification-510k">https://www.fda.gov/medical-devices/premarket-submissions-selecting-and-preparing-correct-submission/premarket-notification-510k; version intégrale : https://www.fda.gov/media/82395/download

4. Sous-alinéa 513(i)(1)(A) du FD&CA.

5. https://www.fda.gov/media/99812/download

6. https://www.thelancet.com/journals/landig/article/PIIS2589-7500(23)00126-7/fulltext

7. Il ressort de cet article qu'à partir de 2019-2021, plus d'un tiers des instruments basés sur l'IA/AM provenaient d'instruments de référence non basés sur l'IA/AM.

8. https://www.fda.gov/medical-devices/premarket-submissions-selecting-and-preparing-correct-submission/de-novo-classification-request

9. https://www.fda.gov/medical-devices/premarket-submissions-selecting-and-preparing-correct-submission/de-novo-classification-request

10. https://www.fda.gov/medical-devices/premarket-submissions-selecting-and-preparing-correct-submission/premarket-approval-pma

11. https://www.fda.gov/medical-devices/device-advice-comprehensive-regulatory-assistance/guidance-documents-medical-devices-and-radiation-emitting-products

12. https://www.fda.gov/news-events/press-announcements/fda-releases-artificial-intelligencemachine-learning-action-plan

13. https://www.fda.gov/regulatory-information/search-fda-guidance-documents/marketing-submission-recommendations-predetermined-change-control-plan-artificial-intelligence

14. https://www.fda.gov/regulatory-information/search-fda-guidance-documents/artificial-intelligence-enabled-device-software-functions-lifecycle-management-and-marketing

15. Article 2 du RIM.

16.https://laws-lois.justice.gc.ca/fra/reglements/DORS-98-282/page-12.html

17. https://www.canada.ca/fr/sante-canada/services/medicaments-produits-sante/instruments-medicaux/information-demandes/lignes-directrices/prealables-mise-marche-instruments-medicaux-fondes-apprentissage-machine.html

18. https://www.canada.ca/content/dam/hc-sc/documents/services/drugs-health-products/medical-devices/application-information/guidance-documents/pre-market-guidance-machine-learning-enabled-medical-devices/prealables-mise-marche-instruments-medicaux-fondes-apprentissage-machine.pdf

19. https://www.canada.ca/fr/sante-canada/services/medicaments-produits-sante/instruments-medicaux/bonnes-pratiques-apprentissage-automatique-developpement-dispositifs-medicaux.html

20. https://www.canada.ca/fr/sante-canada/services/medicaments-produits-sante/instruments-medicaux/information-demandes/lignes-directrices/prealables-mise-marche-instruments-medicaux-fondes-apprentissage-machine.html

21. https://www.canada.ca/fr/sante-canada/services/medicaments-produits-sante/instruments-medicaux/information-demandes/lignes-directrices/prealables-mise-marche-instruments-medicaux-fondes-apprentissage-machine.html

22.https://www.canada.ca/fr/sante-canada/services/medicaments-produits-sante/instruments-medicaux/information-demandes/lignes-directrices/exigences-matiere-preuves-cliniques-instruments-medicaux.html

23. https://www.canada.ca/fr/sante-canada/services/medicaments-produits-sante/instruments-medicaux/information-demandes/lignes-directrices/cybersecurite/document.html#a2.1

24. https://www.imdrf.org/sites/default/files/docs/imdrf/final/technical/imdrf-tech-151002-samd-qms.pdf

25. https://www.fda.gov/media/153486/download

26. https://www.fda.gov/media/173206/download?attachment

27. https://www.fda.gov/media/179269/download?attachment

28. https://www.fda.gov/medical-devices/software-medical-device-samd/predetermined-change-control-plans-machine-learning-enabled-medical-devices-guiding-principles

29. https://www.nature.com/articles/s41746-024-01232-3

30. Loi sur l'IA, article 10.

en.pour la sécurité des patients (2017), en ligne : https://www.patientsafetyinstitute.ca/en/About/Documents/The%20Case%20for%20Investing%20in%20Patient%20Safety.pdf.

32. David Lyell & Enrico Coiera, Automation Bias and Vérification Complexity: A Systemic Review (2017) 24:2 Journal of the American Medical Informatics Association 423.

33. A. Michael Froomkin, Ian Kerr et Joelle Pineau, When AIs Outperform Doctors: Confronting the Challenges of a Tort-Induced Over-Reliance on Machine Learning (2019) 61 Ariz L Rev 3.

34. Walter G. Johnson, Flexible regulation for dynamic products? « The case of applying principles-based regulation to medical products using artificial intelligence (2022) 14:2 Law, Innovation and Technology 210.

35. Frank Pasquale, The Black Box Society: The Secret Algorithms And Information (Boston : Harvard UP, 2015).

36. Tim Miller, Exploration in Artificial Intelligence : Insights from the Social Sciences (2019) 267 Artificial Intelligence 1.

37. https://www.fda.gov/media/179269/download?attachment

38. Boris Babic et al., Beware Explications from AI in Health Care (2021) 373(6552) Science 284.

39. Bradley Henderson, Colleen M Flood & Teresa Scassa, Artificial Intelligence in Canadian Healthcare: Will the Law Protect Us from Algorithmic Bias Resulting in Discrimination? (2022) 19:2 CJLT 475.

40. James Zou & Londa Schiebinger, AI Can Be Sexist and Racist — It's Time to Make It Fair (2018) 559 Nature 324.

41. Ziad Obermeyer et al., Dissecting Racial Bias in an Algorithm Used to Manage the Health of Populations (2019) 366 Science 447.

42. Bradley Henderson, Colleen M. Flood & Teresa Scassa, Artificial Intelligence in Canadian Healthcare: Will the Law Protect Us from Algorithmic Bias Resulting in Discrimination? (2022) 19:2 CJLT 475.

43. Sujay Nagaraj et al., From Clinic to Computer and Back Again: Practical Considerations When Designing and Implementing Machine Learning Solutions for Pediatrics (2020) 6 Current Treatment Options in Pediatrics 336.

44. Gouvernement du Canada, Directive sur la prise de décisions automatisées (28 juin 2021), en ligne : [Directive PDA].

45. I. Glenn Cohen & Michelle M Mello, HIPAM and Protecting Health Information in the 21st Century
(2018) 320:3 JAMA 231.

To view the original article click here

The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.

Mondaq uses cookies on this website. By using our website you agree to our use of cookies as set out in our Privacy Policy.

Learn More