Résumés de réunion : Conseil consultatif en matière d'intelligence artificielle

Le Conseil consultatif sur l'intelligence artificielle (IA) fournit des conseils stratégiques au ministre de l'Innovation, des Sciences et de l'Industrie et au gouvernement du Canada afin d'assurer le leadership mondial du Canada en matière de politique, de gouvernance et d'adoption de l'IA, tout en soutenant la croissance d'un écosystème d'IA robuste, axé sur les valeurs canadiennes.

Vous trouverez ci-dessous les résumés des réunions du Conseil consultatif tenues depuis le début du mois de novembre 2021. Les résumés continueront d'être publiés après chaque réunion du Conseil.

Le 24 novembre 2023 – Résumé de la réunion Le 24 novembre 2023

Endroit : Vidéoconférence

Introduction

  • Cette réunion du Conseil consultatif sur l'intelligence artificielle était présidée par Simon Kennedy, vice-ministre de l'innovation, des sciences et du développement économique (ISDE).
  • Le SM Kennedy a exprimé sa sincère gratitude pour le dévouement, l'expertise et les contributions des membres du Conseil consultatif tout au long du mandat, soulignant leur rôle vital dans l'orientation de la gouvernance de l'intelligence artificielle (IA) au Canada.
  • L'ordre du jour de la réunion portait sur deux principaux champs d'intérêt, notamment une présentation sur le rapport final du Groupe de travail sur la sensibilisation du public sur l'IA et un débat sur le Processus d'IA d'Hiroshima du G-7 et les futures priorités internationales du Canada en matière d'IA.

Présentation sur le projet de mobilisation des Autochtones du Groupe de travail sur la sensibilisation du public

  • Le SM Kennedy a pris note de la prolongation du mandat du Groupe de travail sur la sensibilisation du public en 2021, lequel mandat instruit de collaborer avec les communautés autochtones. Il a souligné que les travaux de Resurgence LLP, qui avaient été confiés à contrat par le Groupe de travail sur la sensibilisation du public pour qu'il organise des séances de sensibilisation à l'IA avec les populations autochtones, étaient au cœur de cet effort.
  • Les représentants de Resurgence LLP ont été invités à présenter un aperçu de leur rapport final et des points de vue tirés des séances de mobilisation.
  • Un coprésident du Groupe de travail sur la sensibilisation du public a noté que le Groupe de travail a approuvé le rapport de Resurgence; il a par ailleurs recommandéque le rapport soit approuvé par le Conseil consultatif.
  • Des représentants d'ISDE ont discuté des prochaines étapes et ont indiqué que le rapport aiderait à appuyer les mesures et les recommandations du gouvernement; ils ont également mis l'accent sur la sensibilisation du public et la confiance dans l'IA, y compris au sein des communautés autochtones.
  • Le Conseil consultatif a approuvé le rapport, en remerciant Resurgence et le Groupe de travail sur la sensibilisation du public pour leur approche inclusive et approfondie. Le rapport sera affiché sur la Page Web du Groupe de travail sur la sensibilisation du public à l'hiver 2024.

Discussion : Le processus d'IA d'Hiroshima du G-7 et les futures priorités internationales du Canada en matière d'IA

  • Le SM Kennedy a présenté le sujet et a souligné l'importance du Processus d'IA d'Hiroshima du G-7 (PIAH du G-7) et de l'élaboration des principes directeurs internationaux du processus d'Hiroshima des G-7 pour les organisations qui développent des systèmes d'IA avancés et le code de conduite international du processus d'Hiroshima pour les organisations qui développent des systèmes d'IA avancés. Le SM a reconnu les contributions antérieures des membres du Conseil consultatif pour appuyer ce processus et a ouvert la parole pour obtenir de la rétroaction et des commentaires sur les efforts internationaux du Canada en matière d'IA.
  • Les membres du Conseil consultatif ont reconnu les nombreux développements en matière de gouvernance de l'IA aux niveaux international, régional et national, citant des initiatives clés telles que le PIAG du G-7, le Sommet de Grande Bretagne sur la sécurité de l'IA, la Loi sur l'AI de l'UE, et l'Executive Order of AI des États-Unis, entre autres. Les membres ont ensuite discuté des priorités stratégiques du Canada dans ce contexte où les choses évoluent rapidement.
  • Les membres du Conseil consultatif ont souligné l'importance d'adopter une approche stratégique et délibérée des priorités de gouvernance de l'IA, compte tenu de l'évolution rapide des technologies et de l'évolution du contexte de gouvernance, y compris au Canada.
  • Les membres du Conseil consultatif ont examiné les aspects de la sécurité de l'IA, des systèmes d'IA à source ouverte, en particulier en matière de protection de la sécurité et de sécurité nationale.  
  • Les membres ont discuté de l'importance d'investir davantage dans la recherche sur la sécurité de l'IA. Ils ont proposé des mesures incitatives réglementaires pour les entreprises afin de démontrer la sécurité de leurs systèmes d'IA. Ils ont souligné les mesures pratiques visant à améliorer la sécurité de l'IA, telles que les évaluations de meilleure qualité et l'exploitation des organisations existantes pour la recherche sur la sécurité de l'IA et l'importance de mettre en place des infrastructures gouvernementales et de personnel pour soutenir la réglementation de l'IA.
  • La discussion a porté sur le leadership initial du Canada en matière d'IA et sur le besoin de continuer à investir dans l'écosystème de l'IA au Canada, surtout compte tenu de la concurrence croissante entre les talents et l'infrastructure en matière d'IA.
  • Les discussions ont porté sur le besoin d'une puissance de calcul souveraine, d'une harmonisation avec les politiques internationales en matière d'IA et de l'élaboration d'autorités de réglementation en matière de gouvernance de l'IA.
  • Des représentants d'ISDE ont précisé les capacités réglementaires possibles en vertu de la Loi sur l'intelligence artificielle et les données (LIAD), y compris les ordonnances d'interdiction et les responsabilités criminelles. Ils ont résumé les défis liés à la mise en place rapide de systèmes de réglementation sophistiqués et à l'approche stratégique de l'AIDA visant à jeter les bases d'un développement futur de la réglementation.

Mot de la fin

  • Le SM Kennedy a conclu la réunion en recommandant au Conseil consultatif de revenir sur ces questions dans le cadre d'une discussion subséquente.
22 septembre 2023 – Résumé de la réunion

Date : 22 septembre avril 2023
Endroit : Vidéoconférence

Introduction et résumé des commentaires

  • Cette réunion du Conseil consultatif sur l'intelligence artificielle (IA) était présidée par Mark Schaan, sous-ministre adjoint principal (SMA) à Innovation, Sciences et Développement économique Canada (ISDE).
  • Le SMA principal Schaan a insisté sur les mesures prises par la communauté internationale pour contrer les risques associés aux systèmes d'IA générative.
  • Il a souligné que le gouvernement du Canada avait lancé une consultation sur un code de conduite pour l'IA générative, ordre de fournir un ensemble de garde-corps avant l'adoption de la Loi sur l'intelligence artificielle et les données (LIAD) et d'informer les contributions du Canada aux efforts internationaux.
  • Il a décrit l'harmonisation du code avec les principes de l'IA responsable au Canada et la demande de ces principes au contexte de l'IA générative.
  • Il a décrit le processus de consultation, y compris les commentaires écrits, les tables rondes et les mémoires, et a demandé aux membres du Conseil consultatif :
    • Dans quelle mesure ils estimaient que leurs commentaires sur le code de conduite avaient été intégrés;
    • Dans quelle mesure ils estimaient que l'écosystème progressait et prenait les bonnes mesures pour gagner la confiance dans cet environnement hautement exigeant
    • Quels conseils pourraient-ils donner sur la façon dont l'ISDE pourrait appuyer l'adoption de ce code de conduite volontaire?

Table ronde

  • Les membres du Conseil consultatif ont formulé des commentaires et discuté de certains aspects du code.
  • ">
  • Les membres ont insisté sur la nécessité d'adopter des mesures de titre même dans les systèmes d'IA génératif non publics, soulignant l'importance de la gouvernance démocratique pour qu'elle corresponde aux valeurs de la société. Ils ont souligné l'importance de la surveillance, tant dans les systèmes publics que dans les systèmes non publics, des considérations liées à l'exclusion des applications interentreprises des exigences rigoureuses, et de la nécessité de tenir compte des entreprises autres que le secteur de la technologie.
  • Les membres ont également souligné l'importance de tenir compte non seulement des utilisations primaires, mais aussi secondaires et tertiaires des systèmes d'IA. Ils ont souligné l'importance de se concentrer sur les dommages potentiels plutôt que de faire la distinction entre les systèmes génératifs et non génératifs.
  • Les membres ont soulevé des questions sur la distinction entre développeurs et gestionnaires ainsi que sur la faisabilité du filigrane, et ont demandé plus de détails sur les obligations juridiques du code.
  • Les membres proposent de reformuler certains aspects du code, notamment :
    • Élargir les principes du code pour inclure les nouvelles obligations d'identification, d'enregistrement et de déclaration d'incidents;
    • Veiller à ce que la justice et l'équité ne soient pas considérées comme un problème de données, étant donné que la conception du modèle est également un problème potentiel;
    • L'utilisation des termes « conflictuel », compte tenu de la nature changeante des relations mondiales, et « cabinet », les membres suggérant que le code devrait s'appliquer également aux organisations;
    • L'demande des exigences liées à la sortie, étant donné que la sortie d'un système n'est souvent pas un événement unique; et
    • La nature normative du test contradictoire décrit au code.
  • Les membres se sont renseignés pour savoir s'il y avait des incitatifs pour que les entreprises se conforment au code, s'il y avait des paramètres concernant les répercussions et les groupes cibles qui définissent le succès du code, et comment ils pouvaient appuyer le gouvernement dans ses efforts de communication concernant le code.

Fermeture

  • Le SMA principal Schaan a clôturé la réunion en exprimant sa gratitude aux membres du Conseil consultatif pour leurs précieuses contributions. Il a souligné l'importance de ces contributions dans le contexte plus large du dialogue international sur les systèmes de l'IA générative.
29 juin 2023 – Résumé de la réunion

Date : 29 juin 2023
Endroit : Vidéoconférence

Aperçu

  • La réunion du 29 juin du Conseil consultatif sur l'intelligence artificielle (IA) était présidée par Mark Schaan, sous-ministre adjoint principal (SMA) à Innovation, Sciences et Développement économique Canada (ISDE).
  • La réunion visait à recueillir des commentaires sur les orientations du gouvernement du Canada concernant l'utilisation de l'IA générative dans le secteur public et à discuter des prochaines étapes pour le Groupe de travail sur la sensibilisation du public.
  • Le Conseil consultatif a reçu un aperçu des lignes directrices proposées par le Secrétariat du Conseil du Trésor du Canada (SCT) à l'intention des institutions fédérales sur l'utilisation de l'IA générative. Un coprésident du Groupe de travail a fait le point par la suite.

Lignes directrices du SCT sur l'IA générative

  • Les fonctionnaires du SCT ont présenté une ébauche de lignes directrices proposées au Conseil consultatif. Ils ont insisté sur l'importance des indications comme première étape de l'établissement de la gouvernance pour l'utilisation de l'IA générative au sein du gouvernement du Canada.
  • Les indications reconnaissent les avantages et les risques juridiques et éthiques associés à l'IA générative. Ces risques comprenaient la protection des données, l'autonomie des fonctionnaires, la qualité du contenu, les questions juridiques et les impacts environnementaux.
  • Les représentants du SCT ont souligné l'importance d'adhérer aux principes PLUS RAPIDE (équitable, responsable, sécurisé, transparent, éduqué et pertinent) et d'assurer la conformité à la Directive sur la prise de décision automatisée et aux autres politiques et lois fédérales pertinentes.

Table ronde

  • Le SMA principal Mark Schaan a dirigé une table ronde au cours de laquelle les membres du Conseil consultatif ont exprimé leur soutien global à l'élaboration de lignes directrices sur l'utilisation de l'IA pour les fonctionnaires. Des questions ont été soulevées au sujet de la portée des indications proposées, plus particulièrement quant à savoir si elles s'appliqueraient aux applications d'IA générative destinées aux consommateurs qui ne sont pas utilisées à l'interne par le gouvernement.
  • Des questions ont été soulevées quant à l'utilisation abusive potentielle des modèles en langage large (MLL), en particulier sur leur capacité à manipuler l'opinion publique ou à cibler des individus occupant des rôles influents.
  • Compte tenu de la progression rapide de la technologie de MLL, les membres ont souligné la nécessité de maintenir l'adaptabilité des guides. Ils ont particulièrement insisté sur l'évolution des méthodes d'interaction avec les MLL et sur l'importance de la validation potentielle par des tiers des modèles d'IA dans les versions futures des lignes directrices.
  • Reconnaissant l'importance d'une mise en œuvre efficace, le SMA principal Schaan a souligné la société de personnes entre ISDE et le SCT avec l'École de la fonction publique du Canada. Cette collaboration vise à s'assurer que les fonctionnaires sont bien formés pour harmoniser l'utilisation de l'IA avec les directives.
  • L'équilibre entre la réglementation et les possibilités économiques pour les entreprises canadiennes de technologie a été souligné. Les membres du Conseil consultatif ont insisté sur l'importance de veiller à ce que la réglementation canadienne en matière d'IA soit en harmonie avec celle de ses partenaires commerciaux, de manière à assurer la croissance économique sans compromettre les pratiques d'IA sécuritaires.
  • L'interaction entre la cybersécurité et l'IA a fait l'objet de discussions, et les membres ont souligné la nécessité d'un système complet qui permet de repérer et de traiter rapidement les vulnérabilités des modèles d'IA.
  • Le SMA principal Schaan a reconnu ces points de vue, soulignant les efforts continus de l'ISDE auprès du secteur privé, surtout en ce qui concerne la certification de la protection des renseignements personnels pour les petites entreprises. Il a également insisté sur l'équilibre entre les possibilités économiques et l'adoption responsable, ce qui explique pourquoi le Canada a opté pour une approche fondée sur les risques et les principes, et qu'il continuera de répéter les directives à mesure que la technologie prendra de l'expansion.

Mise à jour du Groupe de travail sur la sensibilisation du public

  • Un compte rendu de la réunion du 11 mai du Groupe de travail a mis en lumière trois priorités d'action proposées par le gouvernement, fondées sur le rapport du Groupe de travail de janvier 2023. Il s'agit notamment de campagnes publiques de sensibilisation, de financement de l'IA (surtout dans les régions rurales) et d'un engagement des citoyens à l'égard de politiques clés.
  • Les membres du Conseil consultatif ont exprimé leur soutien à ces priorités, et une lettre de recommandation au ministre doit être préparée par les coprésidents du Groupe de travail sur la sensibilisation du public.

Fermeture

  • Le SMA principal Schaan a clôturé la réunion en remerciant les membres pour leurs contributions et en encourageant leur engagement continu auprès d'ISDE et du SCT.
14 avril 2023 – Résumé de la réunion

Date : 14 avril 2023
Endroit : Vidéoconférence

Aperçu

Le sous-ministre (SM) d'Innovation, Sciences et Développement économique (ISDE) Simon Kennedy a présidé la réunion du 14 avril du Conseil consultatif de l'intelligence artificielle (AI) (le Conseil). À la suite du mot d'ouverture, l'honorable François-Philippe Champagne s'est adressé au Conseil, et il a souligné le désir du gouvernement du Canada de répondre efficacement aux préoccupations soulevées par les praticiens de l'intelligence artificielle (IA) au sujet des risques des expériences d'intelligence artificielle géantes pour la société et la démocratie. Ensuite, une table ronde a eu lieu avec le Conseil sur la façon dont le gouvernement du Canada peut atténuer les préjudices et assurer le développement responsable de l'IA au moyen de politiques ou d'autres mesures.

Table ronde

Les membres soulignent qu'il est essentiel d'accélérer les processus réglementaires, étant donné que les capacités en IA ont maintenant dépassé un certain seuil, ce qui rend de plus en plus difficile à les distinguer des humains. Ils ont noté la possibilité que de telles technologies soient manipulées de manière à déstabiliser les démocraties. Ils ont insisté sur la nécessité de prendre des mesures rapides en plus du projet de loi C-27, et ont suggéré de faire du filigrane une mesure.

On s'est inquiété du fait que la récente lettre ouverte sur les cadres de l'IA, publiée récemment, soit elle-même une technologie de l'IA intrinsèquement mauvaise. Les membres ont suggéré de lancer une campagne immédiate de sensibilisation du public pour limiter la propagande et prévenir les attaques contre la démocratie, et de mettre en œuvre des taxes spécifiques et ciblées sur l'utilisation de systèmes qui remplacent les êtres humains. Ils ont noté les préoccupations qu'ils avaient entendues au sujet des effets possibles de l'intelligence artificielle générative dans l'éducation, et ont déclaré que l'action entreprise devait aller au-delà des campagnes publicitaires en raison des risques pour la sécurité nationale qui s'y rattachent. Ils ont expliqué que si une campagne devait être lancée pour traiter des avantages et des inconvénients de ces systèmes, elle devait analyser comment l'utilisation de l'IA pourrait entraîner des répercussions variables dans différents secteurs.

Les membres du Conseil ont souligné l'occasion que la Loi sur l'intelligence artificielle et les données (LIAD) et une nouvelle Stratégie pancanadienne en matière d'intelligence artificielle (SPIA) permettent au Canada de faire preuve de leadership et d'instaurer la confiance dans l'IA, et l'importance d'une coordination internationale immédiate sur les principes et les règlements qui n'étouffent pas l'innovation ou ne stigmatisent pas l'IA. Les membres ont également souligné l'importance d'élaborer des règlements au Canada, tout en notant le travail accompli dans des administrations comme le Royaume-Uni, les États-Unis et l'UE pour passer à la gouvernance de l'intelligence artificielle. Les membres discutent de l'importance de défendre publiquement l'adoption rapide de l'importance artificielle au Parlement.

Le Conseil a discuté des préoccupations soulevées par les entreprises de technologies en démarrage au sujet des répercussions potentielles de la LIAD dans la pratique. Les membres ont fait remarquer que la liberté d'explorer de nouvelles technologies suscite une inquiétude généralisée. Ils ont également expliqué qu'il y a un lourd fardeau en frais généraux requis pour répondre aux exigences même pour les expériences à petite échelle, et que l'incapacité de le faire peut restreindre la capacité des entreprises à attirer des talents.

Les membres ont souligné l'importance d'un message précis et ont fait remarquer que pour maintenir le leadership canadien en IA, le Canada doit investir dans l'IA à la même échelle que les autres pays.

Enfin, on a pris en compte des considérations au sujet de l'adoption de la LIAD, qui laisse entendre qu'elle n'entraînerait pas à elle seule, de réglementation et qu'elle n'était qu'un simple espace réservé pour la réglementation. Prenant note de la plainte déposée auprès du commissaire à la protection de la vie privée au sujet de ChatGPT, les membres ont souligné le rôle que les organismes existants peuvent jouer en donnant suite à l'intelligence artificielle et la nécessité d'enquêter sur l'interaction de l'IA avec d'autres lois.

Le ministre Champagne a terminé la réunion par un mot de clôture, soulignant que le projet de loi C-27 fournirait un cadre législatif important pour permettre des efforts rapides sur la réglementation de l'intelligence artificielle, et a remercié le Conseil de ses commentaires.

14 février 2023 – Résumé de la réunion

Date : 14 février 2022
Endroit : Vidéoconférence

Aperçu

Le sous-ministre (SM) d'Innovation, Sciences et Développement économique (ISDE) Simon Kennedy a présidé la réunion du 14 février du Conseil consultatif de l'intelligence artificielle (IA) (le Conseil). Lors de la réunion, les représentants d'ISDE ont fait le point sur la Loi de 2022 sur la mise en œuvre de la Charte du numérique, et plus particulièrement sur la Loi sur l'intelligence artificielle et les données (LIAD). Les membres du Conseil discutent de la rétroaction recueillie dans le cadre de la mobilisation des intervenants d'ISDE sur la LIAD et les prochaines étapes.

Mise à jour et voie à suivre : Loi sur l'intelligence artificielle et les données (LIAD)

Les représentants d'ISDE ont donné un aperçu des commentaires reçus des intervenants sur la LIAD. Les présentateurs ont ensuite décrit les domaines qui seront abordés dans un document d'accompagnement à venir sur la LIAD, y compris les résultats escomptés relatifs à la LIAD; la définition des systèmes à incidence élevée; et le rôle proposé du commissaire à l'intelligence artificielle et aux données en tant que centre d'expertise et organisme de coordination pour l'application de la réglementation. Ils ont indiqué que la voie à suivre pour la LIAD est destinée à être hautement consultative, avec un échéancier estimatif de deux ans pour les consultations sur la première série de règlements à la suite de la sanction royale.

Discussion ouverte

Les membres du Conseil ont soulevé des questions sur l'approche d'application de la loi proposée et l'application de la LIAD. En réponse à une question concernant l'incidence des infractions, ISDE a précisé que la responsabilité incomberait à la personne responsable de la non-conformité, qu'il s'agisse d'une personne physique ou morale, et que les personnes jouant un rôle mineur à l'égard d'un système, comme un étudiant participant à un programme d'alternance travail-études qui participe à un projet, ne seraient pas responsables.

Les membres demandent si la LIAD s'applique aux entreprises non canadiennes qui déploient des systèmes d'intelligence artificielle au Canada ou à des publics canadiens. En réponse, ISDE a confirmé que l'application extraterritoriale de la LIAD serait semblable à celle de la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE). Si une entité recueille les renseignements personnels d'un grand nombre de Canadiens, elle est généralement assujettie à la LPRPDE. De même, une entreprise qui exploite un système d'intelligence artificielle au Canada serait assujettie à la LIAD.

Les membres du Conseil demandent si la LIAD ne s'attaquera qu'aux préjudices individuels ou s'élargira pour couvrir les préjudices collectifs et environnementaux également. ISDE a indiqué que ces questions ont déjà été soulevées par les intervenants, et ISDE les examine attentivement, tout en tenant compte de la nécessité d'obligations claires qui ne se chevauchent pas avec les cadres existants.

Le Conseil discute ensuite de l'approche proposée pour déterminer et surveiller les systèmes à incidence élevée et de la façon d'attribuer de manière appropriée la responsabilité pour les répercussions. Les membres du Conseil se sont dits préoccupés par le fait que la loi s'est trop concentrée sur la phase de développement du cycle de vie de l'intelligence artificielle, plutôt que sur l'utilisation abusive ou involontaire des systèmes. ISDE a fait remarquer qu'il existe des dispositions dans la LIAD concernant le déploiement du système à incidence élevée.

ISDE a fait remarquer qu'un domaine clé pour la réglementation future sera la délimitation entre la responsabilité du concepteur et du déploiement quant à l'incidence d'un système. Le concepteur devrait documenter l'évaluation et l'atténuation qui ont été mises en place conformément à l'utilisation prévue du système. Si le système est alors mal utilisé pendant son exploitation, la personne qui gère ses opérations en serait alors responsable. ISDE a expliqué que cela ressemble à d'autres règlements existants sur les produits de consommation, et la façon dont les infractions criminelles s'appliqueraient seulement dans les cas d'intention malveillante ou de négligence.

Le Conseil a ensuite cherché à clarifier l'harmonisation entre la Loi sur l'intelligence artificielle et les données (LIAD) et la Loi sur la protection de la vie privée des consommateurs (LPVPC), ainsi que les questions de gouvernance des données soulevées par la LIAD. Les membres du Conseil on fait remarquer que la LIAD a des obligations distinctes à l'égard des données anonymisées utilisées dans l'intelligence artificielle. Ils ont demandé s'il y avait une application étendue de ces obligations liées aux données et s'il pourrait y avoir incohérence entre le libellé de la LIAD et de la LPVPC. ISDE a indiqué qu'ils sont sensibles aux préoccupations relatives à la portée des obligations en vertu de la LIAD et que l'anonymisation a une signification uniforme dans la LPVPC et la LIAD.

On a demandé à ISDE pourquoi ces dispositions relatives aux données n'étaient pas incluses dans la LPVPC, où le commissaire à la protection de la vie privée exercerait une certaine surveillance. ISDE a précisé que l'intention derrière l'inclusion de contrôles sur les données anonymisées dans la LIAD est de fournir aux Canadiens l'assurance que les données seront gérées de façon appropriée dans ce cas d'utilisation sensible. L'obligation de s'assurer que les données utilisées par un système sont conformes à la LIAD incombe au concepteur du système. Les membres ont demandé pourquoi une exigence relative à l'explicabilité des décisions algorithmiques est toujours présente dans la LPVPC, mais pas dans la LIAD. Les membres ont également fait remarquer que la LIAD pourrait porter atteinte à la souveraineté des provinces, en particulier lorsque les systèmes utilisent des données sur la santé. ISDE a expliqué que ces questions seront examinées plus en détail au fur et à mesure que le projet de loi passera à l'étape de l'étude en comité.

Enfin, on s'est dit préoccupé par le fait qu'un délai de deux ans entre la sanction royale et la première application de la loi est trop long et pourrait réduire les investissements dans l'écosystème canadien de l'intelligence artificielle. ISDE a expliqué que des occasions visant à cerner des outils complémentaires comme l'élaboration de normes, des trousses d'outils ou des efforts en matière de code pourraient être envisagées parallèlement à l'élaboration de la réglementation. ISDE a fait remarquer qu'il existe un risque que ce retard affecte le marché, mais que l'incertitude de l'intelligence artificielle réglementée de façon informelle constitue également un risque pour les entreprises.

23 septembre 2022 – Résumé de la réunion

Date : 23 septembre 2022
Heure : De 15 h à 16 h 30 (HE)
Endroit : Vidéoconférence

Aperçu

Le sous-ministre délégué (SMD), Innovation, Sciences et Développement économique Canada (ISDE), Francis Bilodeau, a présidé la réunion du 23 septembre du Conseil consultatif en matière d'intelligence artificielle (IA) (le Conseil). La réunion avait pour objectif de solliciter les opinions du Conseil sur le troisième examen de la Directive du Conseil du Trésor sur la prise de décisions automatisée.

Troisième examen de la Directive du Conseil du Trésor sur la prise de décisions automatisée

Le dirigeant principal des données du Canada et les représentants du Secrétariat du Conseil du Trésor du Canada (SCT) ont donné un aperçu de l'approche du gouvernement du Canada en matière d'intelligence artificielle (IA) responsable, suivi d'une courte présentation sur le troisième examen de la Directive du Conseil du Trésor sur la prise de décisions automatisée. Ils ont décrit en détail les 12 recommandations stratégiques et les modifications connexes à la Directive proposées dans le cadre de l'examen, y compris un élargissement de la portée de la Directive pour y inclure les services internes.

 

Discussion ouverte

Le Conseil a été invité à fournir une rétroaction sur les modifications proposées à la Directive. Dans l'ensemble, les membres appuient l'effort et félicitent le SCT de l'approche qu'il a adoptée pour veiller à l'utilisation responsable de l'IA au gouvernement du Canada.

En ce qui concerne les modifications proposées à l'exigence en matière d'explication, les membres du Conseil ont soulevé le défi que représente la sélection de modèles qui sont compatibles avec les besoins des utilisateurs et capables de fournir des explications adéquates aux clients. Ils ont souligné un compromis possible à faire entre le rendement du modèle et l'explicabilité. Alors qu'un algorithme peut être inacceptable si nous ne sommes pas en mesure de comprendre comment il est arrivé à une décision, un modèle plus explicable peut avoir une précision moindre. Les exigences en matière d'explication doivent tenir compte de ce compromis lorsque l'efficience et la réduction des préjudices sont mises en équilibre.

Les membres du Conseil se sont interrogés sur la possibilité de revenir à des décisions humaines dans les cas où aucune explication n'est disponible dans les modèles d'IA. Les représentants du SCT ont répondu que la Directive exige déjà que des humains prennent la décision finale dans le cas des systèmes décisionnels automatisés à incidence élevée. Les membres du Conseil ont fait part de leurs préoccupations quant à savoir s'il est pratique ou réaliste qu'un humain prenne la décision finale, ce qui pourrait annuler les gains d'efficience obtenus grâce à l'automatisation, et si cela permet d'atténuer efficacement les risques liés à l'IA. Les membres du Conseil et les représentants du SCT ont fait remarquer que les examinateurs humains auraient besoin d'une formation et de connaissances en matière d'IA pour pouvoir porter des jugements éclairés dans un processus décisionnel automatisé.

Les membres du Conseil ont souligné l'importance de veiller à ce que les citoyens aient la possibilité de contester les décisions automatisées. Ils ont demandé qui serait responsable de l'examen du système et si les examens par les pairs seraient fiables et indépendants.

25 mai 2022 – Résumé de la réunion

Date : 25 mai 2022
Heure : De 15 h à 16 h 30 (HE)
Endroit : Vidéoconférence

Aperçu

Le sous-ministre adjoint principal (SMAP) d'Innovation, Sciences et Développement économique (ISDE), Mark Schaan, a présidé la réunion spéciale du 25 mai du Conseil consultatif en matière d'intelligence artificielle (IA) (le Conseil). Cette réunion était un suivi de la réunion du 2 mars, destinée à approfondir la mobilisation des membres du Conseil sur les thèmes clés qui pourraient être à la base du futur travail réglementaire lié à l'IA. Le Conseil a reçu un aperçu des principaux thèmes stratégiques liés à la Charte du numérique, suivi d'une discussion ouverte sur les éléments à prendre en considération pendant la mise en œuvre des cadres stratégiques pour les données et l'IA.

Mise en œuvre de la Charte du numérique

Le SMAP Mark Schaan a donné un aperçu de certaines contraintes et considérations qui s'appliquent pendant l'élaboration d'éventuelles politiques-cadres du marché : entre autres, la division constitutionnelle des pouvoirs et la nécessité de veiller à ce que la politique offre une perspective globale de l'économie adaptée aux réalités des nouveaux environnements technologiques. Charles Taillefer, directeur, Politique sur la vie privée et la protection des données à la Direction générale des politiques-cadres du marché d'ISDE, a ensuite exposé, pour orienter la discussion, trois thèmes stratégiques qui pourraient être à la base de futurs cadres réglementaires : la définition des systèmes d'intelligence artificielle; les systèmes d'IA à risque élevé; et la détermination des éléments et approches clés pour des programmes d'IA responsables, éthiques ou centrés sur l'humain.

Discussion ouverte

La première partie de la discussion a porté sur les considérations relatives à la portée d'un cadre réglementaire de l'IA. Les membres du Conseil ont soulevé les points suivants :

  • Il faut envisager une large portée, vu l'absence d'une frontière claire délimitant les systèmes d'IA des autres systèmes informatiques complexes.
  • La portée devrait tenir compte des changements technologiques possibles.
  • Il est important de définir l'IA dans le but de réglementer les systèmes d'IA en tant que domaine plus large que de simples logiciels. Par exemple, la définition de l'Organisation de coopération et de développement économiques englobe les systèmes automatisés, ce qui est plus large et plus inclusif par rapport aux différents éléments de l'IA.
  • Le travail de définition de la portée d'un tel cadre réglementaire devrait également prendre en compte les perceptions de l'IA que ces définitions créeront inévitablement.

La deuxième partie s'est concentrée sur la détermination et l'atténuation des préjudices qui découlent de l'IA et des systèmes d'IA. Les membres du Conseil ont souligné les points suivants :

  • Plutôt que de se concentrer sur un ensemble précis et discret de préjudices que l'IA peut générer, il est utile de créer plutôt une infrastructure réglementaire souple qui peut être adaptée à tous les ensembles complexes de défis auxquels nous sommes confrontés (p. ex. en intégrant des normes de certification, en créant un régime de licence pour les certificateurs).
  • Le degré de préjudice doit être un facteur clé dans les restrictions imposées à la technologie, en étant axé non pas forcément sur les utilisations particulières de la technologie, mais plutôt sur la direction dans laquelle celle-ci est utilisée.
  • Pour faire face à des préjudices systémiques importants, le biais devrait être inclus dans tout cadre réglementaire de l'IA.

La troisième et dernière partie de la discussion visait à comprendre quels éléments devraient faire partie d'un programme d'IA responsable.

  • Les membres du Conseil ont généralement fait valoir qu'il n'existe pas de liste clairement établie ou exhaustive des éléments qu'il faudrait inclure dans un programme d'IA responsable.
  • Les systèmes d'évaluation des préjugés et les évaluations de l'incidence des algorithmes sont de plus en plus courants dans les programmes d'IA responsable.
  • Des méthodes d'audit plus souples permettraient aux petites et moyennes entreprises (PME) et aux entreprises en démarrage de respecter plus facilement les normes.
  • Certains membres du Conseil ont souligné des principes clés de l'IA responsable tels que l'équité, la responsabilité, l'intervention humaine, le recours et la transparence.
  • En ce qui concerne la transparence, cela pourrait être particulièrement difficile, car les entreprises gardent strictement confidentiels le code et les données qui sous-tendent les systèmes d'IA. Il pourrait être difficile pour les gouvernements ou les auditeurs de savoir ce qu'ils doivent demander pour évaluer les risques. Il sera plutôt important d'en venir à un stade où le code des systèmes d'IA sera visible pour les auditeurs.
2 mars 2022 – Résumé de la réunion

Date : 2 mars 2022
Heure : De 15 h à 16 h 30 (HE)
Endroit : Vidéoconférence

Aperçu

Le sous-ministre adjoint principal (SMAP) d'Innovation, Sciences et Développement économique (ISDE), Mark Schaan, a présidé la réunion spéciale du 2 mars du Conseil consultatif en matière d'intelligence artificielle (IA) (le Conseil). La réunion visait à solliciter les opinions du Conseil au sujet du renforcement des mesures de protection et du soutien à l'innovation responsable dans le contexte de la mise en œuvre des principes de la Charte du numérique. Le Conseil a reçu un aperçu des principales considérations, suivi d'une discussion ouverte sur les recommandations qui pourraient contribuer à renforcer les mesures de protection et à soutenir l'innovation responsable.

Mise en œuvre de la Charte du numérique

Le SMAP Mark Schaan a donné un aperçu des consultations approfondies sur l'innovation responsable qui ont eu lieu précédemment avec l'industrie et les principaux intervenants. Le SMAP Mark Schaan a relevé certains des principaux points à retenir de ces consultations, notamment le fait que les intervenants estiment que le gouvernement du Canada n'en a pas encore fait assez pour aborder les risques liés à la vie privée des mineurs, ainsi que ceux liés à l'évolution rapide du développement et du déploiement des technologies d'AI. Jennifer Miller, directrice générale de la Direction générale des politiques-cadres du marché à ISDE, a ensuite donné un aperçu des principales considérations relatives à de nouvelles approches possibles pour la mise en œuvre des principes de la Charte du numérique, y compris d'éventuelles nouvelles mesures de protection des renseignements personnels des mineurs, en plus d'éventuelles approches pour la gouvernance des données et de l'IA. Les représentants d'ISDE ont souligné l'importance de maintenir une approche fondée sur des principes qui reste suffisamment dissuasive pour les utilisations inappropriées des technologies d'IA qui dépassent la ligne rouge.

Discussion ouverte

Le Conseil a été invité à faire part de ses opinions sur la mise en œuvre de la Charte du numérique. Les principaux points de discussion soulevés comprenaient les suivants :

  • le fardeau du consentement des personnes pour gérer leurs préférences quant à la manière dont leurs données sont analysées et comprises par les systèmes d'IA, et le défaut des organismes de réglementation d'envisager des régimes fondés sur la conformité;
  • le rythme et la portée de la réforme, compte tenu de l'ampleur et de la profondeur éventuelles de la politique de protection de la vie privée, de la politique relative à la protection de la vie privée et de la politique axée sur la technologie. Les membres du Conseil ont reconnu que les approches réglementaires doivent être suffisamment larges pour s'adapter aux réalités actuelles en matière de protection de la vie privée et de transparence, sans être trop denses et trop fastidieuses pour les entreprises canadiennes pendant leur mise en œuvre;
  • la capacité d'auditer de grands ensembles de données et de s'assurer que les méthodes seront conformes aux normes en évolution, en cherchant en particulier à mieux définir l'« explicabilité » de l'IA et les nuances de ce terme dans un cadre réglementaire. Certains membres du Conseil ont fait valoir qu'il pourrait être préférable de mettre en lumière la « justification » plutôt que l'« explicabilité ».
  • La capacité de considérer la façon d'exprimer un modèle de propriété des données qui est sensible et qui convient aux besoins des communautés plutôt qu'à ceux des personnes. De manière générale, les approches réglementaires ont jusqu'à présent considéré les droits et la propriété sur la base d'un modèle de consentement individuel, alors que les communautés autochtones se concentrent souvent sur la capacité d'action et les droits de la communauté;
  • s'assurer que les entreprises canadiennes disposent des outils et du temps nécessaires pour réagir à toute nouvelle réglementation éventuelle, en particulier les petites et moyennes entreprises canadiennes.
  • Le Conseil a noté l'importance des composantes de l'infrastructure sous-jacente en tant que catalyseur essentiel d'une réglementation efficace de l'IA, ainsi que le fait de considérer la pratique et l'application de l'audit et la compréhension des modèles d'IA pour comprendre la robustesse et l'explicabilité.
  • Le Conseil a souligné l'importance de mettre l'accent sur la transparence et la nécessité pour les entreprises de documenter les paramètres clés (données, algorithmes, information sur la formation) de leurs systèmes d'IA.
1 février 2022 – Résumé de la réunion

Date : 1er février 2022
Heure : De 15 h à 16 h 30 (HE)
Endroit : Vidéoconférence

Résumé

À la suite du renouvellement du Conseil en novembre 2021, les membres du Conseil ont participé à une discussion sur leur vision stratégique et l'ordre du jour pour leur nouveau mandat. Le Conseil a également formulé des observations et des recommandations pour éclairer la position du Canada sur le projet de réglementation de l'Union européenne (UE) régissant les technologies de l'intelligence artificielle (IA). 

Renouvellement et vision du Conseil

Les coprésidents ont fait part de leur vision du Conseil renouvelé. Ils ont proposé que le Conseil s'engage rapidement et activement pour influencer l'élaboration d'une politique en matière d'IA et qu'il fournisse des conseils éclairés sur les initiatives liées à l'IA menées par Innovation, Sciences et Développement économique Canada (ISDE) et d'autres ministères fédéraux. Les sujets abordés au cours de la discussion comprenaient la santé, le changement climatique, l'utilisation de l'intelligence artificielle dans les administrations publiques, l'adoption de l'AI et la passation de marchés dans ce domaine. Certains membres ont proposé que le Conseil se penche sur les modèles de réglementation de l'IA, notamment par la mise sur pied d'un groupe de travail dédié à la modernisation de la réglementation de l'IA. Les responsables d'ISDE se sont engagés à collaborer avec les coprésidents à la préparation d'un plan de travail, qui sera présenté lors d'une prochaine réunion. 

Consultation sur l'ébauche de réglementation de l'UE régissant l'IA

Des responsables de la Direction des règlements et obstacles techniques d'Affaires mondiales Canada (AMC) ont tenu une séance d'information sur l'ébauche de réglementation de l'UE régissant l'IA, et ont demandé l'avis du Conseil sur des considérations ou des points précis qui pourraient façonner la position du Canada sur la réglementation. Les principaux points de discussion du Conseil ont porté sur les obstacles qui empêchent les petites et moyennes entreprises canadiennes de développer des technologies et des solutions d'IA, la propriété intellectuelle, les essais de systèmes d'IA par des tiers et le rôle des normes internationales. Les responsables d'AMC se sont engagés à inclure ces considérations dans la rétroaction qu'ils fourniront à l'UE sur le projet de réglementation de l'IA. Les responsables du AMC se sont engagés à prendre en compte ces considérations dans la rétroaction qu'ils fourniront à l'UE sur le projet de réglementation de l'IA.

Sensibilisation du public

Le mandat du groupe de travail sur la sensibilisation du public du Conseil sera prolongé d'une année pour lui permettre de donner suite aux recommandations du groupe de travail et de définir une marche à suivre pour faire progresser la sensibilisation des collectivités autochtones.

17 novembre 2021 – Résumé de la réunion

Date : 17 novembre 2021
Heure : De 15 h 30 à 17 h (HE)
Endroit : Vidéoconférence

Résumé

Des représentants du Service canadien du renseignement de sécurité (SCRS) ont présenté au Conseil une séance d'information sur la sécurité de la recherche en intelligence artificielle (IA). Après la séance d'information, le Conseil a assisté à une présentation et a participé à une discussion sur les recommandations du groupe de travail sur la sensibilisation du public.

Séance d'information sur l'IA et la sécurité de la recherche en IA

Des représentants du SCRS ont tenu une séance d'information non classifiée sur la sécurité de la recherche en IA au Canada. Les membres du Conseil ont souligné l'importance de protéger la propriété intellectuelle, les données et la recherche canadiennes tout en maintenant les engagements pour la science et les données ouvertes. Les représentants du SCRS chercheront d'autres occasions de faire participer le Conseil et de fournir de l'information aux spécialistes canadiens de la recherche sur les menaces à la sécurité de la recherche en IA du Canada.

Recommandations du groupe de travail sur la sensibilisation du public

Les coprésidents du groupe de travail sur la sensibilisation du public ont présenté les premiers résultats des activités pancanadiennes qu'ils ont menées au printemps 2021 pour sensibiliser la population canadienne à l'IA. Le groupe de travail a recommandé un certain nombre de mesures susceptibles d'accroître la sensibilisation aux technologies de l'IA, notamment des campagnes de sensibilisation et de vulgarisation, des dialogues et des engagements continus, ainsi que la mise sur pied d'une communauté de pratique pour la sensibilisation à l'IA qui mettrait l'accent sur la participation de communautés diverses et sous-représentées. Le Conseil a renouvelé le mandat du groupe de travail pour une année afin qu'il puisse mettre en œuvre ces recommandations et faire progresser la sensibilisation les collectivités autochtones.