La Loi sur l’intelligence artificielle et les données (LIAD) – document complémentaire

Table des matières

Introduction

Les systèmes d'intelligence artificielle (IA) sont prêts d'avoir un impact significatif sur la vie des Canadiens et sur les opérations des entreprises canadiennes. En juin 2022, le gouvernement du Canada a déposé la Loi sur l'intelligence artificielle et les données (LIAD) dans le cadre du projet de loi C-27, la Loi de mise en œuvre de la Charte numérique de 2022. La LIAD représente une étape importante dans la mise en œuvre de la Charte numérique, qui a l'objet de renforcer la confiance des Canadiens envers les technologies numériques qu'ils utilisent au quotidien. La conception, le développement et l'utilisation des systèmes d'IA doivent être sécuritaires et respecter les valeurs des Canadiens.

Le cadre proposé dans la LIAD est la première étape vers un nouveau système de réglementation conçu pour orienter l'innovation en matière d'intelligence artificielle (IA) dans une direction positive et permettre aux Canadiens d'en tirer pleinement parti. Le gouvernement poursuivrait les objectifs de ce cadre par le biais d'un processus d'élaboration de réglementation ouvert et transparent. Les consultations seraient conçues pour recueillir les commentaires des Canadiens, des intervenants intéressés et des experts internationaux afin de s'assurer que les règlements atteignent des résultats conformes aux valeurs canadiennes.

L'interconnexion mondiale de l'économie numérique exige que la réglementation des systèmes d'IA sur le marché soit coordonnée à l'échelle internationale. Le Canada collaborera avec des partenaires internationaux – comme l'Union européenne, le Royaume-Uni et les États-Unis – pour harmoniser les approches, afin de s'assurer que les Canadiens sont protégés à l'échelle mondiale et que les entreprises canadiennes peuvent être reconnues à l'échelle internationale comme respectant des normes rigoureuses.

L'IA est un catalyseur puissant, et le Canada joue un rôle de chef de file dans ce domaine technologique important. C'est pourquoi l'approche proposée par le gouvernement dans ce domaine a suscité beaucoup d'attention. Ce document vise à rassurer les Canadiens de deux façons principales. Premièrement, le gouvernement reconnaît que les Canadiens sont préoccupés par les risques associés à cette technologie émergente et doivent savoir que le gouvernement a un plan pour garantir la sécurité des systèmes d'IA qui ont une incidence importante sur leur vie. Le rapport du Groupe de travail sur la sensibilisation du public du Conseil consultatif en matière de l'IA, récemment publié, révèle un intérêt considérable chez les Canadiens pour les opportunités offertes par l'IA, mais également des préoccupations concernant les dommages potentiels. Près des deux tiers des personnes interrogées pensaient que l'IA pouvait potentiellement nuire à la société, tandis que 71 % pensaient qu'on pouvait lui faire confiance si elle était réglementée par les autorités publiquesNote de bas de page 1. Ainsi, nous visons à rassurer les Canadiens que nous avons un plan réfléchi pour gérer cette technologie émergente et maintenir la confiance dans un secteur en croissance de l'économie.

En même temps, les chercheurs et les innovateurs en IA sont préoccupés par l'incertitude qui existe concernant la future réglementation. Reconnaissant que la réglementation de cette technologie puissante est désormais une norme internationale émergente, de nombreux acteurs du domaine craignent que la réglementation ne soit inflexible ou qu'elle ne stigmatise injustement leur domaine de travail. Un tel résultat aurait des répercussions importantes sur les opportunités pour les Canadiens et sur l'économie canadienne. Ce document vise à rassurer l'écosystème innovateur essentiel de l'IA au Canada que le but de cette loi n'est pas de piéger les acteurs de bonne foi ou de ralentir l'innovation, mais de réglementer les utilisations les plus puissantes de cette technologie qui présentent un risque de préjudices. Plus précisément, ce document vise à répondre à ces deux ensembles de préoccupations et à fournir l'assurance aux Canadiens que les risques posés par les systèmes d'IA ne passeront pas entre les mailles du filet de la législation sur la protection des consommateurs et les droits de la personne, tout en indiquant clairement que le gouvernement a l'intention de adopter une approche agile qui n'étouffera pas l'innovation responsable ni ne ciblera inutilement les développeurs, les chercheurs, les investisseurs ou les entrepreneurs en IA. Ce qui suit est une feuille de route pour la LIAD, expliquant son intention et les principales considérations du gouvernement pour l'opérationnaliser par le biais de réglementation future. Cela vise à faire mieux comprendre aux intervenants et aux Canadiens le projet de loi, ainsi qu'à appuyer l'examen parlementaire.

Le Canada et le paysage mondial de l'intelligence artificielle

Le Canada est un chef de file mondial dans le domaine de l'IA. Le Canada abrite plus de 850 entreprises en démarrage, 20 laboratoires publiques de recherche en IA, 75 accélérateurs d'entreprises et 60 groupes d'investisseurs en IA d'à travers le pays.Note de bas de page 2 Les Canadiens ont joué un rôle clé dans le développement de la technologie de l'IA depuis les années 1970.Note de bas de page 3 Le Canada a été le premier pays au monde à créer une Stratégie pancanadienne en matière d'IA, lancée en 2017, et est membre cofondateur du Partenariat mondial sur l'intelligence artificielle (PMIA). Le gouvernement fédéral a consacré 568 millions de dollars canadiens à l'avancement de la recherche et de l'innovation dans le domaine de l'IA, au développement d'un bassin de talents qualifiés et à la mise au point et de l'adoption de normes industrielles pour les systèmes d'IA.Note de bas de page 4, Note de bas de page 5 Ces investissements ont permis au Canada de se positionner en tant qu'acteur incontournable sur l'échiquier mondial dans la recherche et le commerce de l'IA.Note de bas de page 6

Les revenus du marché mondial de l'intelligence artificielle (IA) sont en hausse et devraient dépasser 680 milliards de dollars en 2023.Note de bas de page 7 Des études de marché ont prévu que le marché mondial de l'IA atteindra une taille de 1,2 billion de dollars canadiens d'ici 2026Note de bas de page 8, et suggère que le marché pourrait atteindre plus de 2 billions de dollars canadiens d'ici 2030.Note de bas de page 9

L'intelligence artificielle permet aux ordinateurs d'apprendre à accomplir des tâches complexes, telles que la génération de contenu ou la prise de décisions et la formulation de recommandations, en reconnaissant et en reproduisant des modèles identifiés dans des données. Au cours des dix dernières années, les capacités des systèmes IA ont connu une progression spectaculaire, au point qu'ils sont en mesure d'effectuer des tâches qui sollicitaient auparavant l'intelligence humaine, comme l'identification et la modification d'images, la traduction, et la génération de contenu original. Ils sont de plus en plus utilisés pour faire des prédictions ou prendre des décisions importantes concernant les personnes, par exemple en matière de crédit, d'embauche et de services en ligne.

Les systèmes d'IA sont développés et utilisés au Canada aujourd'hui pour une variété d'applications qui ajoutent de la valeur à l'économie canadienne et améliorent la vie des Canadiens. Une technologie qui semblait impensable il y a encore peu de temps fait maintenant partie de notre quotidien. L'IA offre une multitude d'avantages aux Canadiens, notamment :

  • Des avancées dans le domaine des soins de santé, comme le dépistage du cancer ou l'amélioration des services de soins à domicileNote de bas de page 10;
  • L'amélioration de la récolte de précision en agricultureNote de bas de page 11 ou l'amélioration de l'efficacité de la chaîne d'approvisionnement énergétiqueNote de bas de page 12;
  • Le lancement de nouveaux produits intelligents et de services personnalisés;
  • L'augmentation des capacités des technologies de traitement des langues, notamment la traduction et la synthèse vocale;
  • L'amélioration de la capacité des citoyens à trouver de l'information et à la traiter.

Pourquoi le moment est-il venu d'adopter un cadre d'IA responsable au Canada

Dans l'économie numérique, les utilisations de l'IA deviennent rapidement omniprésentes. À mesure que ses capacités et son échelle de déploiement se développent, il est important que des normes émergent afin que les entreprises et les consommateurs aient des attentes claires quant à la manière dont les impacts de la technologie doivent être gérés. En l'absence de normes claires, il est difficile pour les consommateurs de faire confiance à la technologie et pour les entreprises de démontrer qu'elles l'utilisent de manière responsable.

Des incidents très médiatisés aux résultats préjudiciables ou discriminatoires ont contribué à une érosion de la confiance, par exemple :

  • Un système d'intelligence artificielle de présélection des CV utilisé par une grande entreprise multinationale pour présélectionner les candidats aux entrevues s'est avéré discriminatoire à l'égard des femmes. Note de bas de page 13
  • Une analyse des systèmes de reconnaissance faciale bien connus a montré des preuves de préjugés contre les femmes et les personnes de couleur. Note de bas de page 14
  • Les systèmes d'IA ont été utilisés pour créer des images et des vidéos « deepfake » qui peuvent causer des préjudices aux individus. Note de bas de page 15

L'importance et la prévalence croissantes de la technologie de l'IA dans les industries d'aujourd'hui, ainsi que l'inquiétude croissante du public quant à ses impacts, ont conduit à une mobilisation internationale rapide autour de la nécessité de guider et de gouverner l'IA.Note de bas de page 16 Depuis 2021, un projet de loi sur l'IA a été introduit dans l'Union européenne, le Royaume-Uni a publié une proposition de réglementation de l'IA et les États-Unis ont publié leur Blueprint for an AI Bill of Rights. Pour prospérer, l'économie des données avancées du Canada a besoin d'un cadre correspondant pour renforcer la confiance des citoyens, encourager l'innovation responsable, et rester interopérable avec les marchés internationaux.

L'approche du Canada et l'échéancier de consultation

Le Canada possède déjà des cadres juridiques solides qui s'appliquent à de nombreuses utilisations de l'IA. La Loi sur la protection des renseignements personnels et les documents électroniques fournit des garde-fous importants sur la façon dont les entreprises utilisent les renseignements personnels, et le gouvernement a proposé la Loi sur la protection de la vie privée des consommateurs dans le cadre du projet de loi C-27 pour moderniser cette loi dans le contexte de l'économie numérique. De plus, un certain nombre d'autres cadres de protection des consommateurs, des droits de la personne et du droit pénal s'appliquent à l'utilisation de l'IA, notamment :

  • La Loi canadienne sur la sécurité des produits de consommation;
  • La Loi sur les aliments et drogues;
  • La Loi sur la sécurité automobile;
  • La Loi sur les banques;
  • La Loi canadienne sur les droits de la personne et les lois provinciales sur les droits de la personne; et
  • Le Code criminel.

En fait, les organismes de réglementation existants ont pris des mesures pour aborder certains de ces impacts dans le cadre de leurs pouvoirs législatifs. Par exemple, Santé Canada a publié des principes directeurs pour le développement d'appareils médicaux qui utilisent l'apprentissage automatiqueNote de bas de page 17, et le Bureau du surintendant des institutions financières travaille à la mise à jour de ses lignes directrices sur les risques liés aux modèles pour tenir compte de l'utilisation des nouvelles technologies, y compris l'IA.Note de bas de page 18 Les commissions des droits de la personne s'efforcent également de comprendre les implications de l'IA pour la discrimination et d'autres enjeux de droits de la personne.Note de bas de page 19

Cependant, le gouvernement est conscient que des lacunes importantes subsistent qui doivent être combler pour renforcer la confiance des Canadiens. Par exemple:

  • Des mécanismes tels que les commissions des droits de la personne prévoient des recours en cas de discrimination, mais les personnes sujettes à des préjugés d'IA peuvent ne jamais être conscientes que cela s'est produit;
  • Compte tenu de la vaste diffusion des systèmes d'IA dans l'économie, de nombreux cas d'utilisation sensibles ne relèvent pas des régulateurs sectoriels existants; et
  • Il faut des normes minimales et une coordination et une expertise accrues pour assurer des protections uniformes pour les Canadiens dans tous les contextes d'utilisation.

Dans cette optique, le gouvernement a développé un cadre visant à assurer l'identification et l'atténuation proactive des risques afin de prévenir les préjudices et les résultats discriminatoires, tout en reconnaissant l'écosystème unique de l'IA et en veillant à ce que la recherche et l'innovation responsable soient soutenues. À mesure que la technologie évolue, de nouvelles capacités et utilisations des systèmes d'IA émergeront, et nous avons besoin d'un cadre capable de s'adapter à l'évolution du paysage. Le gouvernement adopte une approche agile sur la règlementation de l'IA basé sur l'élaboration et l'évaluation de règlements et de lignes directrices selon un cycle régulier en étroite collaboration avec les parties prenantes, ainsi que l'adaptation de l'application aux besoins de l'environnement dynamique. La mise en œuvre d'un premier ensemble de règlements devrait suivre le chemin suivant :

  • Consultation sur la réglementation (6 mois)
  • Élaboration de projets de réglementation (12 mois)
  • Consultation sur le projet de règlement (3 mois)
  • Entrée en vigueur du premier ensemble de règlements (3 mois)

Cela donnerait une période d'au moins deux ans après que le projet de loi C-27 aura reçu la sanction royale avant l'entrée en vigueur de la nouvelle loi, ce qui signifie que les dispositions de la LIAD entreraient en vigueur au plus tôt en 2025.

Comment fonctionnerait la Loi sur l'intelligence artificielle et les données?

La LIAD protégerait les Canadiens, assurera le développement d'une IA responsable au Canada et mettra en évidence les entreprises et les valeurs canadiennes dans le développement mondial de l'IA. L'approche de la LIAD basée sur le risques, y compris les définitions et le concept clés, a été conçu pour refléter et aligner avec l'évolution des normes internationales dans le domaine de l'IA – notamment l'Acte sur l'IA de l'Union Européenne, les principes de l'Organisation de coopération et de développement économiques (OCDE) en matière d'IANote de bas de page 20, et le Risk Management Framework du National Institute of Standards and Technology aux É-U – tout en s'intégrant aux cadres juridiques canadiens existants. Par exemple, la définition des systèmes d'intelligence artificielle dans la LIAD comprend des concepts développés par l'OCDE qui sont également représentés dans la Loi sur l'IA de l'UE. L'interopérabilité avec les cadres juridiques d'autres juridictions serait également un facteur important dans l'élaboration de règlements, afin de faciliter l'accès des entreprises canadiennes aux marchés internationaux.

La LIAD propose l'approche suivante :

  1. S'appuyant sur les lois canadiennes existantes en matière de protection des consommateurs et de droits de la personne, la LIAD garantirait que les systèmes d'IA à incidence élevée répondent aux mêmes attentes en matière de sécurité et de droits de la personne auxquelles les Canadiens sont habitués. Des règlements précisant les les critères pour les systèmes à incidence élevée et les obligations étofferaient la loi et seraient élaborés en consultation avec un vaste groupe d'intervenants afin de veiller à trouver le juste équilibre entre la protection des Canadiens et de leurs intérêts et la promotion de l'industrie canadienne de l'IA.
  2. Le ministre de l'Innovation, des Sciences et de l'Industrie serait habilité à exécuter la Loi et à la faire appliquer, pour faire en sorte que les politiques et les règlements évoluent au diapason au fur et à mesure que la technologie évolue. Un nouveau poste de Commissaire à l'IA et aux données serait créé pour développer une centre d'expertise appuyant à la fois l'élaboration de la réglementation et l'exécution de la Loi. Le rôle subirait une évolution graduelle des fonctions du commissaire, passant uniquement de l'éducation et de l'assistance pour inclure également la conformité et l'application, une fois la loi entrée en vigueur et l'écosystème ajusté.
  3. Interdire l'utilisation insouciant ou malveillant pouvant causer un préjudice grave aux Canadiens ou à leurs intérêts par la création de nouvelles dispositions de droit criminel.

La LIAD garantirait la responsabilité des risques associés aux systèmes d'IA à incidence élevée utilisés lors des échanges et du commerce internationaux et interprovinciaux. Il identifie les activités impliquées dans le cycle de vie d'un système d'IA à incidence élevée et impose des obligations aux entreprises exerçant ces activités afin d'assurer la responsabilité à chaque point où un risque peut être introduit.

Systèmes à incidence élevée – considérations et systèmes d'intérêt

En vertu de la LIAD, les critères pour les systèmes à incidence élevée seraient définis dans les règlements, afin de permettre une identification précise des systèmes qui doivent être réglementés dans ce cadre, l'interopérabilité avec des cadres internationaux, et des mises à jour à mesure que la technologie progresse. Cela permettrait au gouvernement d'éviter d'imposer des impacts indus sur l'écosystème de l'IA.

Le gouvernement considère que les éléments suivants font partie des considérations importantes pour déterminer si une certaine catégorie de systèmes doit être incluse :

  • Des preuves de l'existence de risques de préjudices physiques ou psychologiques, ou d'un risque d'impact négatif sur les droits de la personne, en fonction à la fois de l'objectif et des conséquences potentielles non intentionnelles;
  • L'ampleur de l'utilisation;
  • La gravité des préjudices potentiels;
  • La nature des préjudices ou des impacts négatifs qui ont déjà eu lieu;
  • La mesure dans laquelle, pour des raisons pratiques ou juridiques, il n'est pas raisonnablement possible de se retirer de ce système;
  • Les déséquilibres en matière de pouvoir, de connaissances, de situation économique ou sociale, ou d'âge des personnes touchées;
  • La mesure dans laquelle les risques sont réglementés de façon adéquate en vertu d'une autre loi.

La LIAD aurait-t-elle un impact sur l'accès aux logiciels open source ou aux systèmes d'IA en libre accès?

Un système d'IA nécessite généralement un modèle, ainsi que l'utilisation d'ensembles de données pour entraîner le modèle à effectuer certaines tâches. Il est courant que les chercheurs publient des modèles ou d'autres outils en tant que logiciels open source, qui peuvent ensuite être utilisés par d'autres personnes pour développer des systèmes d'IA basés sur leurs propres données et objectifs. Ces modèles ne constituant pas à eux seuls un système d'IA complet, la distribution de logiciels open source ne serait pas soumise à des obligations de « rendre le système disponible ».

Cependant, ces obligations s'appliqueraient à une personne rendant disponible un système d'IA à incidence élevée pleinement fonctionnel, y compris s'il était rendu disponible en libre accès.

Le gouvernement est conscient que les impacts des systèmes d'IA dépendent de leurs capacités et des contextes dans lesquels ils sont utilisés. Voici des exemples de systèmes qui intéressent le gouvernement en termes d'impacts potentiels :

Les systèmes de présélection qui ont une incidence sur l'accès aux services ou à l'emploi

Ces systèmes d'IA sont destinés à prendre des décisions, à formuler des recommandations ou des prédictions à des fins d'accès à des services, tels que le crédit ou l'emploi. Ils ont le potentiel de produire des résultats discriminatoires, en particulier pour les femmes et les groupes historiquement marginalisés.

Systèmes biométriques utilisés pour l'identification et l'inférence

La reconnaissance faciale et les systèmes d'IA connexes utilisent les données biométriques pour faire certaines prédictions sur les personnes : par exemple, 1) identifier une personne à distance, ou 2) faire des prédictions sur les caractéristiques ou les comportements des individus. De tels systèmes ont le potentiel d'avoir des impacts significatifs sur la santé mentale et l'autonomie.

Des systèmes capables d'influencer le comportement humain à grande échelle

Il a été démontré que des applications telles que les systèmes de recommandation de contenu en ligne alimentés par l'IA ont la capacité d'influencer, et ce à grande échelle, le comportement, l'expression et les émotions des êtres humains. Les risques liés à ces systèmes comprennent les atteintes à la santé psychologique et physique.

Systèmes critiques pour la santé et la sécurité

Certaines applications d'IA sont intégrées dans des fonctions de santé et de sécurité, par exemple pour prendre des décisions ou émettre des recommandations cruciales sur la base de données recueillies à partir de capteurs. Il s'agit notamment des systèmes de conduite autonome et des systèmes faisant des décisions de triage dans le secteur de la santé. Ces systèmes d'IA ont le potentiel de causer des préjudices physiques directs, mais des biais peuvent également se produire si les risques n'ont pas été atténués de manière adéquate.

Préjudices individuels, préjudices collectifs et résultats biaisées

En vertu de la LIAD, deux types de risques associés aux systèmes d'IA à incidence élevée sont abordés. Tout d'abord, il s'agit du risque de préjudice pour les individus. Ensuite, il s'agit du premier cadre juridique au Canada à aborder le risque de biais systémique dans le contexte de l'IA dans le secteur privé.

Les préjudices comprennent les préjudices physiques ou psychologiques subi par un individu, les dommages à ses biens ou les pertes économiques. Il vise à résumer un large éventail d'impacts négatifs qui peuvent survenir à l'échelle de l'économie. Les dommages peuvent être subis par des individus indépendamment ou par des groupes d'individus, augmentant la gravité de l'impact. Par exemple, les groupes plus vulnérables, tels que les enfants, peuvent être exposés à un plus grand risque de préjudice d'un système d'IA à incidence élevée et nécessiter des efforts spécifiques d'atténuation des risques.

Au titre de la LIAD, il y a résultat biaisée lorsqu'il y a une différenciation défavorable injustifiée fondée sur l'un des motifs de distinction interdits dans le cadre de la Loi canadienne sur les droits de la personne.Note de bas de page 21 Cela comprend la différenciation qui se produit directement ou indirectement (par exemple au moyen de variables de substitution). Une différenciation défavorable peut être justifiée si elle est inévitable dans le contexte de facteurs réels influant sur une décision ou une recommandation.Note de bas de page 22 Par exemple, le revenu est généralement en corrélation avec des motifs interdits tels que la race et le sexe, et il est également pertinent pour les décisions ou les recommandations liées au crédit. Le but, dans ce cas, est de s'assurer qu'un système n'utilise pas la race ou le sexe (ou des substituts) comme indicateurs de capacité financière. Si le système amplifie la corrélation sous-jacente ou produit des résultats injustes pour des individus particuliers sur la base des motifs interdits, cela ne serait pas considéré comme justifié.

Comment la LIAD protège-t-elle les Canadiens contre les préjudices collectifs?

À l'heure actuelle, les individus ont des recours en cas de discrimination en vertu de la Loi canadienne sur les droits de la personne (LCDP) ou des lois provinciales sur les droits de la personne.

Cependant, certaines utilisations des systèmes d'IA peuvent présenter des risques de nuire à des communautés historiquement marginalisées à grande échelle si elles ne sont pas correctement évaluées pour les biais. La LIAD traiterait ce risque en exigeant que les entreprises exerçant des activités réglementées évaluent et atténuent de manière proactive le risque de biais pour des motifs interdits par la LCDP.

Activités réglementées

La LIAD exige que des mesures appropriées visant à cerner, à évaluer et à atténuer les risques de préjudices ou de résultats biaisés que pourrait entraîner l'utilisation d'un système à incidence élevée soit mise en place avant que le système soit rendu disponible. Cela vise à faciliter la conformité en établissant des attentes claires pour chaque étape de la cycle de vie.

Les obligations des systèmes d'IA à incidence élevée seraient guidées par les principes suivants, qui s'alignent sur les normes internationales de gouvernance des systèmes d'IA:

Supervision humaine et surveillance

La supervision humaine signifie que les systèmes d'IA à incidence élevée doivent être conçus et développés de façon à permettre aux personnes qui gèrent les opérations du système d'exercer une supervision importante. Cela implique un niveau d'interprétabilité approprié au contexte.

La surveillance, par la mesure et l'évaluation des systèmes d'IA et de leurs résultats, est essentielle pour soutenir une supervision humaine efficace.

Transparence

La transparence signifie fournir au public des informations appropriées sur la manière dont les systèmes d'IA à incidence élevée sont utilisés.

Ces informations devrait être suffisant pour permettre au public de comprendre les capacités, les limites et les impacts potentiels des systèmes.

Justice et équité

La justice et l'équité impliquent de construire des systèmes d'IA à incidence élevée en étant conscient du potentiel de résultats discriminatoires.

Des mesures appropriées doivent êtres prises pour atténuer les résultats discriminatoires pour les individus et les groupes.

Sécurité

La sécurité signifie que les systèmes d'IA à incidence élevée doivent faire l'objet d'une évaluation proactive pour des préjudices qui pourraient résulter de l'utilisation du système, y compris par une utilisation impropre raisonnablement prévisible.

Des mesures doivent être prises pour atténuer le risque de préjudice.

Responsabilité

La responsabilité signifie que les organisations doivent mettre en place les mécanismes de gouvernance nécessaires pour assurer le respect de toutes les obligations légales des systèmes d'IA à incidence élevée dans le contexte dans lequel ils seront utilisés.

Cela comprend la documentation proactive des politiques, des processus et des mesures mises en œuvre.

Validité et robustesse

La validité signifie qu'un système d'IA fonctionne conformément aux objectifs prévus.

La robustesse signifie qu'un système d'IA est stable et résilient dans diverses circonstances.

On s'attendrait à ce que les entreprises mettent en place des mécanismes de responsabilisation appropriés pour assurer le respect de leurs obligations en vertu de la Loi. Ils seraient tenus responsables de la création et de l'application de processus et de politiques de gouvernance interne appropriés pour se conformer à la LIAD.

Les mesures seraient établies par l'entremise des règlements et seraient adaptées aux risques associés à des activités réglementées précises dans la cycle de vie d'un système à incidence élevée. Les activités réglementées prévues dans la LIAD seraient alors associées à des obligations distinctes proportionnelles au risque. Il est important de noter que des activités telles que la recherche ou le développement de méthodologies ne sont pas en elles-mêmes des activités réglementées en vertu de la LIAD. Selon le contexte précis et la configuration particulière de la chaîne de valeur, plusieurs entreprises peuvent participer à la réalisation d'activités réglementées pour un même système d'IA.

Les mesures précises requises seraient établies dans le cadre d'un vaste processus de consultation et seraient basées sur les pratiques exemplaires et les normes internationales afin d'éviter des impacts indus sur l'innovation. En vertu de la LIAD, toute personne mettant en place de telles mesures devraient faire en sorte qu'elle puisse surveiller la conformité avec les mesures ainsi que leur efficacité. Les règlements qui suivraient la sanction royale de la LIAD garantiraient que les responsabilités de surveillance seraient proportionnelles au niveau d'influence qu'un acteur a sur le risque associé au système.

Comment savoir de quoi mon entreprise est responsable?

À l'heure actuelle, il n'y a pas de responsabilités claires au Canada quant à ce que les entreprises devraient faire pour s'assurer que les systèmes d'IA à incidence élevée sont sûrs et non discriminatoires.

En vertu de la LIAD, les entreprises menant des activités réglementées seraient tenues de veiller à ce que les employés mettent en œuvre des mesures pour faire face aux risques associés aux systèmes d'IA à incidence élevée.

  • Les entreprises qui conçoivent ou développent un système d'IA à incidence élevée devront prendre des mesures pour identifier et traiter les risques en matière de préjudice et de biais, documenter l'utilisation appropriée et les limites, et ajuster les mesures si nécessaire.
  • Les entreprises qui mettent à disposition un système d'IA à incidence élevée devront tenir compte des utilisations potentielles lors du déploiement et prendre des mesures pour s'assurer que les utilisateurs sont conscients de toute restriction sur la manière dont le système est censé être utilisé et comprennent ses limites.
  • Les entreprises qui gèrent les opérations d'un système d'IA devront utiliser les systèmes d'IA comme indiqué, évaluer et atténuer les risques et assurer une surveillance continue du système.

Par exemple, certains systèmes d'IA exécutent des fonctions généralement applicables – telles que la génération de texte, audio ou vidéo – et peuvent être utilisés dans une variété de contextes différents. Étant donné que les utilisateurs finaux des systèmes à usage général ont une influence limitée sur le fonctionnement de ces systèmes, les développeurs de systèmes à usage général devraient s'assurer que les risques liés aux biais ou au contenu préjudiciable sont documentés et traités.

Les entreprises impliquées uniquement dans la conception ou le développement d'un système d'IA à incidence élevée mais sans capacité pratique de surveiller le système après le développement auraient des obligations différentes à cet égard de celles qui gèrent ses opérations. On ne s'attendrait pas à ce que les employés individuels soient responsables des obligations associées à l'entreprise dans son ensemble. Outre les obligations relatives à l'évaluation et à l'atténuation des risques, les entités responsables des activités réglementées associées à un système à incidence élevée seraient également tenues d'informer le ministre lorsqu'un système cause un préjudice important ou est susceptible de le faire.

Le tableau ci-dessous illustre les types de mesures qui pourraient s'appliquer à chaque étape du cycle de vie d'un système d'IA. Les exigences de conception et de développement devraient être satisfaites avant qu'un système à incidence élevée ne soit mis à disposition.

 
Activité réglementée dans le contexte d'un système à incidence élevée Exemples de mesures d'évaluation et d'atténuation des risques

Conception du système - comprend la détermination des objectifs du système d'IA et des besoins en données, des méthodologies, ou des modèles basés sur ces objectifs.

  • Réaliser une évaluation initiale des risques potentiels associés à l'utilisation d'un système d'IA dans le contexte et décider si l'utilisation de l'IA est appropriée
  • Évaluer et traiter les biais potentiels découlant de la sélection des ensembles de données
  • Déterminer le degré d'intelligibilité requis et prendre des décisions de conception en conséquence

Développement du système - comprend le traitement d'ensembles de données, la formation de systèmes utilisant les ensembles de données, la modification des paramètres du système, le développement et la modification de méthodologies, ou de modèles utilisés dans le système, ou le test du système.Note de bas de page 23

  • Documentation des jeux de données et des modèles utilisés
  • Effectuer l'évaluation et la validation, y compris le recyclage si nécessaire
  • Intégrer des mécanismes de surveillance et de suivi humains
  • Documenter les utilisations appropriées et les limites

Rendre le système disponible - déploiement d'un système entièrement fonctionnel, que ce soit par la personne qui l'a développé, par le biais d'une transaction commerciale, par le biais d'une interface de programmation d'application (IPA) ou en rendant le système opérationnel accessible au public.Note de bas de page 24

  • Conserver la documentation sur la manière dont les exigences de conception et de développement ont été satisfaites
  • Fournir une documentation appropriée aux utilisateurs concernant les ensembles de données utilisés, les limites et les utilisations appropriées
  • Procéder à une évaluation des risques concernant la façon selon laquelle le système sera rendu disponible

Gérer les opérations du système - la supervision du système pendant son utilisation, y compris le démarrage ou l'arrêt de son fonctionnement, la surveillance et le contrôle de l'accès à sa sortie pendant son fonctionnement, la modification des paramètres relatifs à son fonctionnement dans le contexte.

  • Consigner les résultats du système, comme le contexte l'exige
  • Mettre en place des mécanismes de surveillance appropriés pour permettre une intervention humaine, au besoin, afin de remédier aux problèmes qui pourraient survenir
  • Intervenir au besoin en fonction des paramètres opérationnels

Surveillance et application de la loi

Au cours des premières années suivant son entrée en vigueur, la LIAD mettrait l'accent sur l'éducation, l'établissement de lignes directrices et l'aide aux entreprises pour qu'elles se conforment par des moyens volontaires. Le gouvernement a l'intention de laisser suffisamment de temps à l'écosystème pour s'adapter au nouveau cadre avant d'entreprendre des activités d'application de la loi.

Le ministre de l'Innovation, des Sciences et de l'Industrie serait responsable de l'administration et de l'application de partie 1 de la Loi. En outre, la LIAD crée un nouveau rôle statutaire de commissaire à l'intelligence artificielle et aux données (CIAD), lequel serait chargé d'aider le ministre à s'acquitter de ces responsabilités. La codification du rôle du CIAD dans le contexte de la LIAD sépare les fonctions des autres activités à Innovation, Sciences et Développement économique Canada (ISDE) et permet au CIAD de créer un centre d'expertise pour la réglementation de l'IA. Outre l'administration et l'application de la loi, le travail du commissaire comprendrait le soutien et la coordination avec d'autres organismes de règlementation pour assurer une capacité réglementaire cohérente dans différents contextes, ainsi que le suivi et l'étude des effets systémiques potentiels des systèmes d'IA afin d'éclairer les décisions administratives et politiques.

Le modèle d'application de la loi a été choisi en tenant compte d'un certain nombre de facteurs, étant donné le contexte réglementaire unique de l'IA et les objectifs du régime réglementaire.Note de bas de page 25 La gouvernance et la réglementation de l'IA sont des domaines émergents qui évolueront rapidement dans les années à venir. Par conséquent, les décisions relatives à l'administration et à l'application de la loi ont des implications importantes pour la politique, et les deux fonctions devraient travailler en étroite collaboration dans les premières années du cadre sous la direction du ministre.

Le ministre disposerait également des pouvoirs nécessaires pour intervenir afin d'assurer la sécurité des Canadiens. Dans les cas où un système pourrait entraîner un préjudice ou une sortie biaisée, ou lorsqu'une infraction peut avoir eu lieu, le ministre pourrait prendre des mesures telles que:

  • ordonner la publication de dossiers pour démontrer la conformité;
  • exiger la tenue d'une vérification indépendante;

Dans les cas où il existe un risque de préjudice imminent, le ministre pourrait prendre des mesures telles que :

  • en ordonnant la cessation de l'utilisation d'un système;
  • en divulguant publiquement des informations concernant des infractions à la Loi ou dans le but de prévenir des préjudices

Comment les trois différents mécanismes d'exécution seraient-ils utilisés?

La LIAD prévoit deux types de sanctions en cas de non-conformité à la réglementation – les sanctions administratives pécuniaires (SAP) et la poursuite des infractions réglementaires – ainsi qu'un mécanisme d'application distinct pour les véritables infractions pénales.

Les SAP sont un outil de conformité flexible qui pourrait être utilisé directement par l'organisme de réglementation en réponse à toute violation afin d'encourager le respect des obligations de la Loi. Bien que la Loi permette la création d'un régime de SAP, il faudrait des règlements et des consultations pour entrer en vigueur.

Les infractions réglementaires pourraient être poursuivies dans les cas plus graves de non-respect des obligations réglementaires. En raison de la gravité du processus, la culpabilité doit être prouvée hors de tout doute raisonnable et une entreprise peut se défendre en démontrant qu'elle a fait preuve de diligence dans le respect de ses obligations. Le ministre n'aurait aucune influence sur l'opportunité de poursuivre une infraction, et le Service des poursuites pénales du Canada devrait déterminer qu'une poursuite est dans l'intérêt public avant de pouvoir aller de l'avant. Par exemple, une entreprise pourrait être poursuivie pour avoir commis une infraction réglementaire si elle refusait de se conformer à une obligation réglementaire, même après avoir reçu un arrêté ministériel en vertu de la LIAD.

Les véritables infractions pénales sont distinctes des obligations réglementaires de la LIAD et ne concernent que l'interdiction d'un comportement conscient ou intentionnel lorsqu'un individu cause un préjudice grave. Par exemple, un individu pourrait être poursuivi s'il mettait à disposition un système d'IA causant un préjudice grave et s'il savait qu'il était susceptible de causer un tel préjudice et n'avait pas pris de mesures raisonnables pour l'empêcher.

Il est important de tenir en compte que le ministre n'aurait aucun rôle à jouer pour déterminer qui devrait être poursuivi en vertu de la Loi. Le ministre aurait uniquement le pouvoir de renvoyer des cas au Service des poursuites pénales du Canada, qui pourrait choisir, à sa discrétion, de poursuivre ou non. Les pouvoirs de réglementation du ministre ne pourraient pas être utilisés pour enquêter sur les infractions criminelles, abordées dans la section suivante, qui sont de « crimes véritables » qui nécessitent une intention criminelle et sont passibles d'une peine d'emprisonnement.

La LIAD comprend aussi des dispositions visant à mobiliser l'expertise externe du secteur privé, du milieu universitaire et de la société civile afin de garantir que les activités d'application de la loi suivent l'évolution rapide de l'environnement. Cela serait fait :

  • en désignant des experts externes à titre d'analystes pour soutenir l'administration et l'application de la Loi;
  • en utilisant les vérifications axées sur l'IA réalisées par des vérificateurs indépendants qualifiés;
  • en mettant sur pied un comité consultatif pour aviser le ministre.

Exemple de cas : Un système développé par plusieurs acteurs

Prenons le cas d'un système d'IA avec plusieurs étapes de développement, impliquant à la fois des activités de recherche et des activités commerciales.

  • Étape 1 : Un chercheur d'une université publie un nouveau modèle pouvant être utilisé pour développer des systèmes d'IA – Aucune exigence réglementaire ni responsabilité, car il ne s'agit pas d'une activité commerciale et le modèle seul n'est pas un système d'IA complet.
  • Étape 2 : l'entreprise A utilise ce modèle pour développer un système à incidence élevée en le formant sur les données sous son contrôle, puis en le mettant sur le marché pour utilisation – L'entreprise A devrait se conformer aux exigences de développement et de rendre disponible, qui serait définie dans la réglementation (p. ex., tests, s'assurer que toutes les mesures nécessaires à un fonctionnement sûr et équitable sont en place, fournir des documents aux entreprises qui achètent le système). Si l'entreprise A ne remplissait pas ces obligations, elle pourrait être passible de sanctions, y compris des SAP une fois que le régime a été mis en place par la réglementation. Si l'entreprise A mettait le système à disposition en sachant qu'il était susceptible de causer un préjudice grave, elle pourrait être poursuivie pour une infraction criminelle.
  • Étape 3 : L'entreprise B met le système en service à ses propres fins commerciales et gère les opérations – L'entreprise B devrait se conformer aux exigences de gestion des opérations (p. ex., s'assurer que cette utilisation est appropriée compte tenu des risques et des limites documentés par l'entreprise A, surveillance du système, publication d'une description du système). Si le système d'exploitation cause des préjudices, la responsabilité de l'entreprise B ne serait engagée qu'en cas de non-respect des obligations liées à la gestion des opérations. Si, dans l'exploitation du système, l'entreprise B faisait preuve d'un une insouciance déréglée à l'égard de la sécurité d'autrui, elle pourrait être poursuivie pour une infraction criminelle.

Le CIAD évaluerait les progrès de l'écosystème au fil du temps et veillerait à ce que les activités d'administration et d'application tiennent compte des capacités et de l'ampleur de l'impact des organisations réglementées. Par exemple, on ne s'attendrait pas à ce que les petites entreprises aient des structures de gouvernance, politiques et procédures semblable aux grandes entreprises avec un plus grand nombre d'employés et un plus large éventail d'activités. Les petites et moyennes entreprises bénéficieraient aussi d'une aide particulière pour adopter les pratiques nécessaires pour répondre aux exigences.

Une fois que l'écosystème et le cadre réglementaire auront suffisamment mûri, la Loi permet la création d'un régime de sanctions administratives pécuniaires (SAP) par voie de règlement. Le régime serait conçu de manière à garantir que les sanctions soient calibrées de manière proportionnée à l'objectif d'encourager la conformité, y compris en ce qui concerne la taille relative des entreprises. Par exemple, les SAP pourraient être appliquées dans le cas d'infractions manifestes où d'autres tentatives visant à encourager la conformité ont échoué.

Outre la possibilité de sanctions administratives, le non-respect des exigences règlementaires constituerait également une infraction, conformément à d'autres cadres juridiques destinés à protéger le public contre les préjudices. Les cas de non-conformité les plus flagrants pourraient faire l'objet de poursuites à la discrétion du Service des poursuites pénales du Canada (voir le tableau ci-dessous). Ces infractions visent uniquement ceux qui avait la responsabilité de s'assurer que les exigences étaient respectées. Par exemple, si une entreprise fait obstruction aux tentatives visant à vérifier si elle a respecté ses obligations ou fournit des informations fausses ou trompeuses, elle pourrait faire l'objet de poursuites.

Prohibitions criminelles

Le Code criminel codifie la plupart des infractions criminelles au Canada. Il s'agit de comportements qui sont à la fois suffisamment préjudiciables à la société canadienne et qui sont moralement blâmables de la part de ceux qui les commettent. Par conséquent, ils sont passibles de lourdes peines, y compris l'emprisonnement, et entraînent une stigmatisation sociale importante après leur condamnation. Celles-ci sont distinctes des infractions de non-conformité réglementaire, qui sont principalement liées à un manquement déraisonnable au respect des obligations réglementaires. En raison de la gravité des conséquences d'une condamnation pour une infraction criminelle, la poursuite de ces infractions nécessite la preuve hors de tout doute raisonnable, non seulement qu'un acte particulier a été commis, mais qu'il était intentionnel.

Bien que de nombreuses infractions au Code criminel puissent s'appliquer aux utilisations malveillantes (ou même par négligence grave) des systèmes d'IA, ces infractions ne ciblent pas ce comportement et leur application aux utilisations potentielles de la technologie implique une certaine incertitude et nouveauté. La LIAD crée trois nouvelles infractions criminelles pour interdire et traiter directement des comportements préoccupants spécifiques. Ces infractions criminelles sont complètement distinctes des obligations réglementaires et des infractions connexes abordées dans la section précédente. Ces infractions à caractère criminel visent à interdire et à punir les activités liées à l'IA qui sont commises par une personne consciente du mal qu'elle cause ou risque de causer. Cela comprend notamment les suivantes :

  1. Posséder ou utiliser sciemment des informations personnelles obtenues illégalement pour concevoir, développer, utiliser ou mettre à disposition un système d'IA. Cela pourrait inclure l'utilisation sciemment d'informations personnelles obtenues à partir d'une violation de données pour entrainer un système d'IA.
  2. Rendre un système d'IA disponible, sachant ou ne se souciant pas de savoir, s'il est susceptible de causer des préjudices sérieux ou des dommages substantiels à la propriété, lorsque son utilisation cause effectivement de tels préjudices ou dommages.
  3. Rendre un système d'IA disponible dans l'intention de frauder le public et de causer une perte économique substantielle à un individu, lorsque son utilisation cause réellement cette perte.

Ces crimes pourraient faire l'objet d'une enquête policière et de poursuites, à la discrétion du Service des poursuites pénales du Canada.

Prochaines étapes

La LIAD est l'un des premiers cadres réglementaires nationaux concernant l'IA à être proposé dans le monde. Il est conçu pour protéger les individus et les communautés contre les impacts négatifs associés aux systèmes d'IA à incidence élevées, et pour soutenir le développement et l'adoption responsables de l'IA dans l'ensemble de l'économie canadienne. Elle s'aligne sur le projet de loi de l'Union européenne concernant l'IA, en adoptant une approche fondée sur les risques et serait appuyé par des normes industrielles établies durant les prochaines années.

Après la sanction royale du projet de loi C-27, le gouvernement a l'intention de lancer un vaste processus de consultation inclusif auprès de l'industrie, du milieu universitaire, de la société civile et des communautés canadiennes, dans le but d'orienter la mise en œuvre de la LIAD. Il sera notamment question des points suivants :

  • la détermination des types de systèmes qui devraient être considérés comme ayant une incidence élevée;
  • les types de normes et de certifications à prendre en considération pour garantir que les systèmes d'IA répondent aux attentes des Canadiens;
  • Les priorités dans l'élaboration et l'application des réglementations, y compris en ce qui concerne un régime de SAP;
  • le travail du CIAD;
  • la mise sur pied d'un comité consultatif.

Une fois ce processus terminé, le gouvernement publiera au préalable la réglementation provisoire dans la partie 1 de la Gazette du Canada et lancera un autre processus de consultation d'une durée de 60 jours. L'ensemble initial de règlements sera ensuite publié dans la partie 2 de la Gazette du Canada.ISDE continuera d'évaluer l'efficacité de la réglementation dans le contexte de l'administration et de l'application de la Loi. Il travaillerait également avec et soutiendra d'autres organismes de réglementation opérant dans le domaine de l'IA afin de garantir que les Canadiens sont protégés de manière cohérente et efficace dans tous les contextes réglementaires.