Résumés de réunion : Conseil consultatif en matière d'intelligence artificielle

Le Conseil consultatif sur l'intelligence artificielle (IA) fournit des conseils stratégiques au ministre de l'Innovation, des Sciences et de l'Industrie et au gouvernement du Canada afin d'assurer le leadership mondial du Canada en matière de politique, de gouvernance et d'adoption de l'IA, tout en soutenant la croissance d'un écosystème d'IA robuste, axé sur les valeurs canadiennes.

Vous trouverez ci-dessous les résumés des réunions du Conseil consultatif tenues depuis le début du mois de novembre 2021. Les résumés continueront d'être publiés après chaque réunion du Conseil.

14 avril 2023 – Résumé de la réunion

Date : 14 avril 2022
Endroit : Vidéoconférence

Aperçu

Le sous-ministre (SM) d'Innovation, Sciences et Développement économique (ISDE) Simon Kennedy a présidé la réunion du 14 avril du Conseil consultatif de l'intelligence artificielle (AI) (le Conseil). À la suite du mot d'ouverture, l'honorable François-Philippe Champagne s'est adressé au Conseil, et il a souligné le désir du gouvernement du Canada de répondre efficacement aux préoccupations soulevées par les praticiens de l'intelligence artificielle (IA) au sujet des risques des expériences d'intelligence artificielle géantes pour la société et la démocratie. Ensuite, une table ronde a eu lieu avec le Conseil sur la façon dont le gouvernement du Canada peut atténuer les préjudices et assurer le développement responsable de l'IA au moyen de politiques ou d'autres mesures.

Table ronde

Les membres soulignent qu'il est essentiel d'accélérer les processus réglementaires, étant donné que les capacités en IA ont maintenant dépassé un certain seuil, ce qui rend de plus en plus difficile à les distinguer des humains. Ils ont noté la possibilité que de telles technologies soient manipulées de manière à déstabiliser les démocraties. Ils ont insisté sur la nécessité de prendre des mesures rapides en plus du projet de loi C-27, et ont suggéré de faire du filigrane une mesure.

On s'est inquiété du fait que la récente lettre ouverte sur les cadres de l'IA, publiée récemment, soit elle-même une technologie de l'IA intrinsèquement mauvaise. Les membres ont suggéré de lancer une campagne immédiate de sensibilisation du public pour limiter la propagande et prévenir les attaques contre la démocratie, et de mettre en œuvre des taxes spécifiques et ciblées sur l'utilisation de systèmes qui remplacent les êtres humains. Ils ont noté les préoccupations qu'ils avaient entendues au sujet des effets possibles de l'intelligence artificielle générative dans l'éducation, et ont déclaré que l'action entreprise devait aller au-delà des campagnes publicitaires en raison des risques pour la sécurité nationale qui s'y rattachent. Ils ont expliqué que si une campagne devait être lancée pour traiter des avantages et des inconvénients de ces systèmes, elle devait analyser comment l'utilisation de l'IA pourrait entraîner des répercussions variables dans différents secteurs.

Les membres du Conseil ont souligné l'occasion que la Loi sur l'intelligence artificielle et les données (LIAD) et une nouvelle Stratégie pancanadienne en matière d'intelligence artificielle (SPIA) permettent au Canada de faire preuve de leadership et d'instaurer la confiance dans l'IA, et l'importance d'une coordination internationale immédiate sur les principes et les règlements qui n'étouffent pas l'innovation ou ne stigmatisent pas l'IA. Les membres ont également souligné l'importance d'élaborer des règlements au Canada, tout en notant le travail accompli dans des administrations comme le Royaume-Uni, les États-Unis et l'UE pour passer à la gouvernance de l'intelligence artificielle. Les membres discutent de l'importance de défendre publiquement l'adoption rapide de l'importance artificielle au Parlement.

Le Conseil a discuté des préoccupations soulevées par les entreprises de technologies en démarrage au sujet des répercussions potentielles de la LIAD dans la pratique. Les membres ont fait remarquer que la liberté d'explorer de nouvelles technologies suscite une inquiétude généralisée. Ils ont également expliqué qu'il y a un lourd fardeau en frais généraux requis pour répondre aux exigences même pour les expériences à petite échelle, et que l'incapacité de le faire peut restreindre la capacité des entreprises à attirer des talents.
Les membres ont souligné l'importance d'un message précis et ont fait remarquer que pour maintenir le leadership canadien en IA, le Canada doit investir dans l'IA à la même échelle que les autres pays.

Enfin, on a pris en compte des considérations au sujet de l'adoption de la LIAD, qui laisse entendre qu'elle n'entraînerait pas à elle seule, de réglementation et qu'elle n'était qu'un simple espace réservé pour la réglementation. Prenant note de la plainte déposée auprès du commissaire à la protection de la vie privée au sujet de ChatGPT, les membres ont souligné le rôle que les organismes existants peuvent jouer en donnant suite à l'intelligence artificielle et la nécessité d'enquêter sur l'interaction de l'IA avec d'autres lois.
Le ministre Champagne a terminé la réunion par un mot de clôture, soulignant que le projet de loi C-27 fournirait un cadre législatif important pour permettre des efforts rapides sur la réglementation de l'intelligence artificielle, et a remercié le Conseil de ses commentaires.

14 février 2023 – Résumé de la réunion

Date : 14 février 2022
Endroit : Vidéoconférence

Aperçu

Le sous-ministre (SM) d'Innovation, Sciences et Développement économique (ISDE) Simon Kennedy a présidé la réunion du 14 février du Conseil consultatif de l'intelligence artificielle (IA) (le Conseil). Lors de la réunion, les représentants d'ISDE ont fait le point sur la Loi de 2022 sur la mise en œuvre de la Charte du numérique, et plus particulièrement sur la Loi sur l'intelligence artificielle et les données (LIAD). Les membres du Conseil discutent de la rétroaction recueillie dans le cadre de la mobilisation des intervenants d'ISDE sur la LIAD et les prochaines étapes.

Mise à jour et voie à suivre : Loi sur l'intelligence artificielle et les données (LIAD)

Les représentants d'ISDE ont donné un aperçu des commentaires reçus des intervenants sur la LIAD. Les présentateurs ont ensuite décrit les domaines qui seront abordés dans un document d'accompagnement à venir sur la LIAD, y compris les résultats escomptés relatifs à la LIAD; la définition des systèmes à incidence élevée; et le rôle proposé du commissaire à l'intelligence artificielle et aux données en tant que centre d'expertise et organisme de coordination pour l'application de la réglementation. Ils ont indiqué que la voie à suivre pour la LIAD est destinée à être hautement consultative, avec un échéancier estimatif de deux ans pour les consultations sur la première série de règlements à la suite de la sanction royale.

Discussion ouverte

Les membres du Conseil ont soulevé des questions sur l'approche d'application de la loi proposée et l'application de la LIAD. En réponse à une question concernant l'incidence des infractions, ISDE a précisé que la responsabilité incomberait à la personne responsable de la non-conformité, qu'il s'agisse d'une personne physique ou morale, et que les personnes jouant un rôle mineur à l'égard d'un système, comme un étudiant participant à un programme d'alternance travail-études qui participe à un projet, ne seraient pas responsables.

Les membres demandent si la LIAD s'applique aux entreprises non canadiennes qui déploient des systèmes d'intelligence artificielle au Canada ou à des publics canadiens. En réponse, ISDE a confirmé que l'application extraterritoriale de la LIAD serait semblable à celle de la Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE). Si une entité recueille les renseignements personnels d'un grand nombre de Canadiens, elle est généralement assujettie à la LPRPDE. De même, une entreprise qui exploite un système d'intelligence artificielle au Canada serait assujettie à la LIAD.

Les membres du Conseil demandent si la LIAD ne s'attaquera qu'aux préjudices individuels ou s'élargira pour couvrir les préjudices collectifs et environnementaux également. ISDE a indiqué que ces questions ont déjà été soulevées par les intervenants, et ISDE les examine attentivement, tout en tenant compte de la nécessité d'obligations claires qui ne se chevauchent pas avec les cadres existants.

Le Conseil discute ensuite de l'approche proposée pour déterminer et surveiller les systèmes à incidence élevée et de la façon d'attribuer de manière appropriée la responsabilité pour les répercussions. Les membres du Conseil se sont dits préoccupés par le fait que la loi s'est trop concentrée sur la phase de développement du cycle de vie de l'intelligence artificielle, plutôt que sur l'utilisation abusive ou involontaire des systèmes. ISDE a fait remarquer qu'il existe des dispositions dans la LIAD concernant le déploiement du système à incidence élevée.

ISDE a fait remarquer qu'un domaine clé pour la réglementation future sera la délimitation entre la responsabilité du concepteur et du déploiement quant à l'incidence d'un système. Le concepteur devrait documenter l'évaluation et l'atténuation qui ont été mises en place conformément à l'utilisation prévue du système. Si le système est alors mal utilisé pendant son exploitation, la personne qui gère ses opérations en serait alors responsable. ISDE a expliqué que cela ressemble à d'autres règlements existants sur les produits de consommation, et la façon dont les infractions criminelles s'appliqueraient seulement dans les cas d'intention malveillante ou de négligence.

Le Conseil a ensuite cherché à clarifier l'harmonisation entre la Loi sur l'intelligence artificielle et les données (LIAD) et la Loi sur la protection de la vie privée des consommateurs (LPVPC), ainsi que les questions de gouvernance des données soulevées par la LIAD. Les membres du Conseil on fait remarquer que la LIAD a des obligations distinctes à l'égard des données anonymisées utilisées dans l'intelligence artificielle. Ils ont demandé s'il y avait une application étendue de ces obligations liées aux données et s'il pourrait y avoir incohérence entre le libellé de la LIAD et de la LPVPC. ISDE a indiqué qu'ils sont sensibles aux préoccupations relatives à la portée des obligations en vertu de la LIAD et que l'anonymisation a une signification uniforme dans la LPVPC et la LIAD.

On a demandé à ISDE pourquoi ces dispositions relatives aux données n'étaient pas incluses dans la LPVPC, où le commissaire à la protection de la vie privée exercerait une certaine surveillance. ISDE a précisé que l'intention derrière l'inclusion de contrôles sur les données anonymisées dans la LIAD est de fournir aux Canadiens l'assurance que les données seront gérées de façon appropriée dans ce cas d'utilisation sensible. L'obligation de s'assurer que les données utilisées par un système sont conformes à la LIAD incombe au concepteur du système. Les membres ont demandé pourquoi une exigence relative à l'explicabilité des décisions algorithmiques est toujours présente dans la LPVPC, mais pas dans la LIAD. Les membres ont également fait remarquer que la LIAD pourrait porter atteinte à la souveraineté des provinces, en particulier lorsque les systèmes utilisent des données sur la santé. ISDE a expliqué que ces questions seront examinées plus en détail au fur et à mesure que le projet de loi passera à l'étape de l'étude en comité.

Enfin, on s'est dit préoccupé par le fait qu'un délai de deux ans entre la sanction royale et la première application de la loi est trop long et pourrait réduire les investissements dans l'écosystème canadien de l'intelligence artificielle. ISDE a expliqué que des occasions visant à cerner des outils complémentaires comme l'élaboration de normes, des trousses d'outils ou des efforts en matière de code pourraient être envisagées parallèlement à l'élaboration de la réglementation. ISDE a fait remarquer qu'il existe un risque que ce retard affecte le marché, mais que l'incertitude de l'intelligence artificielle réglementée de façon informelle constitue également un risque pour les entreprises.

23 septembre 2022 – Résumé de la réunion

Date : 23 septembre 2022
Heure : De 15 h à 16 h 30 (HE)
Endroit : Vidéoconférence

Aperçu

Le sous-ministre délégué (SMD), Innovation, Sciences et Développement économique Canada (ISDE), Francis Bilodeau, a présidé la réunion du 23 septembre du Conseil consultatif en matière d’intelligence artificielle (IA) (le Conseil). La réunion avait pour objectif de solliciter les opinions du Conseil sur le troisième examen de la Directive du Conseil du Trésor sur la prise de décisions automatisée.

Troisième examen de la Directive du Conseil du Trésor sur la prise de décisions automatisée

Le dirigeant principal des données du Canada et les représentants du Secrétariat du Conseil du Trésor du Canada (SCT) ont donné un aperçu de l’approche du gouvernement du Canada en matière d’intelligence artificielle (IA) responsable, suivi d’une courte présentation sur le troisième examen de la Directive du Conseil du Trésor sur la prise de décisions automatisée. Ils ont décrit en détail les 12 recommandations stratégiques et les modifications connexes à la Directive proposées dans le cadre de l’examen, y compris un élargissement de la portée de la Directive pour y inclure les services internes.

 

Discussion ouverte

Le Conseil a été invité à fournir une rétroaction sur les modifications proposées à la Directive. Dans l’ensemble, les membres appuient l’effort et félicitent le SCT de l’approche qu’il a adoptée pour veiller à l’utilisation responsable de l’IA au gouvernement du Canada.

En ce qui concerne les modifications proposées à l’exigence en matière d’explication, les membres du Conseil ont soulevé le défi que représente la sélection de modèles qui sont compatibles avec les besoins des utilisateurs et capables de fournir des explications adéquates aux clients. Ils ont souligné un compromis possible à faire entre le rendement du modèle et l’explicabilité. Alors qu’un algorithme peut être inacceptable si nous ne sommes pas en mesure de comprendre comment il est arrivé à une décision, un modèle plus explicable peut avoir une précision moindre. Les exigences en matière d’explication doivent tenir compte de ce compromis lorsque l’efficience et la réduction des préjudices sont mises en équilibre.

Les membres du Conseil se sont interrogés sur la possibilité de revenir à des décisions humaines dans les cas où aucune explication n’est disponible dans les modèles d’IA. Les représentants du SCT ont répondu que la Directive exige déjà que des humains prennent la décision finale dans le cas des systèmes décisionnels automatisés à incidence élevée. Les membres du Conseil ont fait part de leurs préoccupations quant à savoir s’il est pratique ou réaliste qu’un humain prenne la décision finale, ce qui pourrait annuler les gains d’efficience obtenus grâce à l’automatisation, et si cela permet d’atténuer efficacement les risques liés à l’IA. Les membres du Conseil et les représentants du SCT ont fait remarquer que les examinateurs humains auraient besoin d’une formation et de connaissances en matière d’IA pour pouvoir porter des jugements éclairés dans un processus décisionnel automatisé.

Les membres du Conseil ont souligné l’importance de veiller à ce que les citoyens aient la possibilité de contester les décisions automatisées. Ils ont demandé qui serait responsable de l’examen du système et si les examens par les pairs seraient fiables et indépendants.

25 mai 2022 – Résumé de la réunion

Date : 25 mai 2022
Heure : De 15 h à 16 h 30 (HE)
Endroit : Vidéoconférence

Aperçu

Le sous-ministre adjoint principal (SMAP) d’Innovation, Sciences et Développement économique (ISDE), Mark Schaan, a présidé la réunion spéciale du 25 mai du Conseil consultatif en matière d’intelligence artificielle (IA) (le Conseil). Cette réunion était un suivi de la réunion du 2 mars, destinée à approfondir la mobilisation des membres du Conseil sur les thèmes clés qui pourraient être à la base du futur travail réglementaire lié à l’IA. Le Conseil a reçu un aperçu des principaux thèmes stratégiques liés à la Charte du numérique, suivi d’une discussion ouverte sur les éléments à prendre en considération pendant la mise en œuvre des cadres stratégiques pour les données et l’IA.

Mise en œuvre de la Charte du numérique

Le SMAP Mark Schaan a donné un aperçu de certaines contraintes et considérations qui s’appliquent pendant l’élaboration d’éventuelles politiques-cadres du marché : entre autres, la division constitutionnelle des pouvoirs et la nécessité de veiller à ce que la politique offre une perspective globale de l’économie adaptée aux réalités des nouveaux environnements technologiques. Charles Taillefer, directeur, Politique sur la vie privée et la protection des données à la Direction générale des politiques-cadres du marché d’ISDE, a ensuite exposé, pour orienter la discussion, trois thèmes stratégiques qui pourraient être à la base de futurs cadres réglementaires : la définition des systèmes d’intelligence artificielle; les systèmes d’IA à risque élevé; et la détermination des éléments et approches clés pour des programmes d’IA responsables, éthiques ou centrés sur l’humain.

Discussion ouverte

La première partie de la discussion a porté sur les considérations relatives à la portée d’un cadre réglementaire de l’IA. Les membres du Conseil ont soulevé les points suivants :

  • Il faut envisager une large portée, vu l’absence d’une frontière claire délimitant les systèmes d’IA des autres systèmes informatiques complexes.
  • La portée devrait tenir compte des changements technologiques possibles.
  • Il est important de définir l’IA dans le but de réglementer les systèmes d’IA en tant que domaine plus large que de simples logiciels. Par exemple, la définition de l’Organisation de coopération et de développement économiques englobe les systèmes automatisés, ce qui est plus large et plus inclusif par rapport aux différents éléments de l’IA.
  • Le travail de définition de la portée d’un tel cadre réglementaire devrait également prendre en compte les perceptions de l’IA que ces définitions créeront inévitablement.

La deuxième partie s’est concentrée sur la détermination et l’atténuation des préjudices qui découlent de l’IA et des systèmes d’IA. Les membres du Conseil ont souligné les points suivants :

  • Plutôt que de se concentrer sur un ensemble précis et discret de préjudices que l’IA peut générer, il est utile de créer plutôt une infrastructure réglementaire souple qui peut être adaptée à tous les ensembles complexes de défis auxquels nous sommes confrontés (p. ex. en intégrant des normes de certification, en créant un régime de licence pour les certificateurs).
  • Le degré de préjudice doit être un facteur clé dans les restrictions imposées à la technologie, en étant axé non pas forcément sur les utilisations particulières de la technologie, mais plutôt sur la direction dans laquelle celle-ci est utilisée.
  • Pour faire face à des préjudices systémiques importants, le biais devrait être inclus dans tout cadre réglementaire de l’IA.

La troisième et dernière partie de la discussion visait à comprendre quels éléments devraient faire partie d’un programme d’IA responsable.

  • Les membres du Conseil ont généralement fait valoir qu’il n’existe pas de liste clairement établie ou exhaustive des éléments qu’il faudrait inclure dans un programme d’IA responsable.
  • Les systèmes d’évaluation des préjugés et les évaluations de l’incidence des algorithmes sont de plus en plus courants dans les programmes d’IA responsable.
  • Des méthodes d’audit plus souples permettraient aux petites et moyennes entreprises (PME) et aux entreprises en démarrage de respecter plus facilement les normes.
  • Certains membres du Conseil ont souligné des principes clés de l’IA responsable tels que l’équité, la responsabilité, l’intervention humaine, le recours et la transparence.
  • En ce qui concerne la transparence, cela pourrait être particulièrement difficile, car les entreprises gardent strictement confidentiels le code et les données qui sous-tendent les systèmes d’IA. Il pourrait être difficile pour les gouvernements ou les auditeurs de savoir ce qu’ils doivent demander pour évaluer les risques. Il sera plutôt important d’en venir à un stade où le code des systèmes d’IA sera visible pour les auditeurs.
2 mars 2022 – Résumé de la réunion

Date : 2 mars 2022
Heure : De 15 h à 16 h 30 (HE)
Endroit : Vidéoconférence

Aperçu

Le sous-ministre adjoint principal (SMAP) d’Innovation, Sciences et Développement économique (ISDE), Mark Schaan, a présidé la réunion spéciale du 2 mars du Conseil consultatif en matière d’intelligence artificielle (IA) (le Conseil). La réunion visait à solliciter les opinions du Conseil au sujet du renforcement des mesures de protection et du soutien à l’innovation responsable dans le contexte de la mise en œuvre des principes de la Charte du numérique. Le Conseil a reçu un aperçu des principales considérations, suivi d’une discussion ouverte sur les recommandations qui pourraient contribuer à renforcer les mesures de protection et à soutenir l’innovation responsable.

Mise en œuvre de la Charte du numérique

Le SMAP Mark Schaan a donné un aperçu des consultations approfondies sur l’innovation responsable qui ont eu lieu précédemment avec l’industrie et les principaux intervenants. Le SMAP Mark Schaan a relevé certains des principaux points à retenir de ces consultations, notamment le fait que les intervenants estiment que le gouvernement du Canada n’en a pas encore fait assez pour aborder les risques liés à la vie privée des mineurs, ainsi que ceux liés à l’évolution rapide du développement et du déploiement des technologies d’AI. Jennifer Miller, directrice générale de la Direction générale des politiques-cadres du marché à ISDE, a ensuite donné un aperçu des principales considérations relatives à de nouvelles approches possibles pour la mise en œuvre des principes de la Charte du numérique, y compris d’éventuelles nouvelles mesures de protection des renseignements personnels des mineurs, en plus d’éventuelles approches pour la gouvernance des données et de l’IA. Les représentants d’ISDE ont souligné l’importance de maintenir une approche fondée sur des principes qui reste suffisamment dissuasive pour les utilisations inappropriées des technologies d’IA qui dépassent la ligne rouge.

Discussion ouverte

Le Conseil a été invité à faire part de ses opinions sur la mise en œuvre de la Charte du numérique. Les principaux points de discussion soulevés comprenaient les suivants :

  • le fardeau du consentement des personnes pour gérer leurs préférences quant à la manière dont leurs données sont analysées et comprises par les systèmes d’IA, et le défaut des organismes de réglementation d’envisager des régimes fondés sur la conformité;
  • le rythme et la portée de la réforme, compte tenu de l’ampleur et de la profondeur éventuelles de la politique de protection de la vie privée, de la politique relative à la protection de la vie privée et de la politique axée sur la technologie. Les membres du Conseil ont reconnu que les approches réglementaires doivent être suffisamment larges pour s’adapter aux réalités actuelles en matière de protection de la vie privée et de transparence, sans être trop denses et trop fastidieuses pour les entreprises canadiennes pendant leur mise en œuvre;
  • la capacité d’auditer de grands ensembles de données et de s’assurer que les méthodes seront conformes aux normes en évolution, en cherchant en particulier à mieux définir l’« explicabilité » de l’IA et les nuances de ce terme dans un cadre réglementaire. Certains membres du Conseil ont fait valoir qu’il pourrait être préférable de mettre en lumière la « justification » plutôt que l’« explicabilité ».
  • La capacité de considérer la façon d’exprimer un modèle de propriété des données qui est sensible et qui convient aux besoins des communautés plutôt qu’à ceux des personnes. De manière générale, les approches réglementaires ont jusqu’à présent considéré les droits et la propriété sur la base d’un modèle de consentement individuel, alors que les communautés autochtones se concentrent souvent sur la capacité d’action et les droits de la communauté;
  • s’assurer que les entreprises canadiennes disposent des outils et du temps nécessaires pour réagir à toute nouvelle réglementation éventuelle, en particulier les petites et moyennes entreprises canadiennes.
  • Le Conseil a noté l’importance des composantes de l’infrastructure sous-jacente en tant que catalyseur essentiel d’une réglementation efficace de l’IA, ainsi que le fait de considérer la pratique et l’application de l’audit et la compréhension des modèles d’IA pour comprendre la robustesse et l’explicabilité.
  • Le Conseil a souligné l’importance de mettre l’accent sur la transparence et la nécessité pour les entreprises de documenter les paramètres clés (données, algorithmes, information sur la formation) de leurs systèmes d’IA.
1 février 2022 – Résumé de la réunion

Date : 1er février 2022
Heure : De 15 h à 16 h 30 (HE)
Endroit : Vidéoconférence

Résumé

À la suite du renouvellement du Conseil en novembre 2021, les membres du Conseil ont participé à une discussion sur leur vision stratégique et l'ordre du jour pour leur nouveau mandat. Le Conseil a également formulé des observations et des recommandations pour éclairer la position du Canada sur le projet de réglementation de l'Union européenne (UE) régissant les technologies de l'intelligence artificielle (IA). 

Renouvellement et vision du Conseil

Les coprésidents ont fait part de leur vision du Conseil renouvelé. Ils ont proposé que le Conseil s'engage rapidement et activement pour influencer l'élaboration d'une politique en matière d'IA et qu'il fournisse des conseils éclairés sur les initiatives liées à l'IA menées par Innovation, Sciences et Développement économique Canada (ISDE) et d'autres ministères fédéraux. Les sujets abordés au cours de la discussion comprenaient la santé, le changement climatique, l'utilisation de l'intelligence artificielle dans les administrations publiques, l'adoption de l'AI et la passation de marchés dans ce domaine. Certains membres ont proposé que le Conseil se penche sur les modèles de réglementation de l'IA, notamment par la mise sur pied d'un groupe de travail dédié à la modernisation de la réglementation de l'IA. Les responsables d'ISDE se sont engagés à collaborer avec les coprésidents à la préparation d'un plan de travail, qui sera présenté lors d'une prochaine réunion. 

Consultation sur l'ébauche de réglementation de l'UE régissant l'IA

Des responsables de la Direction des règlements et obstacles techniques d'Affaires mondiales Canada (AMC) ont tenu une séance d'information sur l'ébauche de réglementation de l'UE régissant l'IA, et ont demandé l'avis du Conseil sur des considérations ou des points précis qui pourraient façonner la position du Canada sur la réglementation. Les principaux points de discussion du Conseil ont porté sur les obstacles qui empêchent les petites et moyennes entreprises canadiennes de développer des technologies et des solutions d'IA, la propriété intellectuelle, les essais de systèmes d'IA par des tiers et le rôle des normes internationales. Les responsables d'AMC se sont engagés à inclure ces considérations dans la rétroaction qu'ils fourniront à l'UE sur le projet de réglementation de l'IA. Les responsables du AMC se sont engagés à prendre en compte ces considérations dans la rétroaction qu'ils fourniront à l'UE sur le projet de réglementation de l'IA.

Sensibilisation du public

Le mandat du groupe de travail sur la sensibilisation du public du Conseil sera prolongé d'une année pour lui permettre de donner suite aux recommandations du groupe de travail et de définir une marche à suivre pour faire progresser la sensibilisation des collectivités autochtones.

17 novembre 2021 – Résumé de la réunion

Date : 17 novembre 2021
Heure : De 15 h 30 à 17 h (HE)
Endroit : Vidéoconférence

Résumé

Des représentants du Service canadien du renseignement de sécurité (SCRS) ont présenté au Conseil une séance d'information sur la sécurité de la recherche en intelligence artificielle (IA). Après la séance d'information, le Conseil a assisté à une présentation et a participé à une discussion sur les recommandations du groupe de travail sur la sensibilisation du public.

Séance d'information sur l'IA et la sécurité de la recherche en IA

Des représentants du SCRS ont tenu une séance d'information non classifiée sur la sécurité de la recherche en IA au Canada. Les membres du Conseil ont souligné l'importance de protéger la propriété intellectuelle, les données et la recherche canadiennes tout en maintenant les engagements pour la science et les données ouvertes. Les représentants du SCRS chercheront d'autres occasions de faire participer le Conseil et de fournir de l'information aux spécialistes canadiens de la recherche sur les menaces à la sécurité de la recherche en IA du Canada.

Recommandations du groupe de travail sur la sensibilisation du public

Les coprésidents du groupe de travail sur la sensibilisation du public ont présenté les premiers résultats des activités pancanadiennes qu'ils ont menées au printemps 2021 pour sensibiliser la population canadienne à l'IA. Le groupe de travail a recommandé un certain nombre de mesures susceptibles d'accroître la sensibilisation aux technologies de l'IA, notamment des campagnes de sensibilisation et de vulgarisation, des dialogues et des engagements continus, ainsi que la mise sur pied d'une communauté de pratique pour la sensibilisation à l'IA qui mettrait l'accent sur la participation de communautés diverses et sous-représentées. Le Conseil a renouvelé le mandat du groupe de travail pour une année afin qu'il puisse mettre en œuvre ces recommandations et faire progresser la sensibilisation les collectivités autochtones.