Résumés de réunion : Conseil consultatif en matière d'intelligence artificielle

Le Conseil consultatif sur l'intelligence artificielle (IA) fournit des conseils stratégiques au ministre de l'Innovation, des Sciences et de l'Industrie et au gouvernement du Canada afin d'assurer le leadership mondial du Canada en matière de politique, de gouvernance et d'adoption de l'IA, tout en soutenant la croissance d'un écosystème d'IA robuste, axé sur les valeurs canadiennes.

Vous trouverez ci-dessous les résumés des réunions du Conseil consultatif tenues depuis le début du mois de novembre 2021. Les résumés continueront d'être publiés après chaque réunion du Conseil.

23 septembre 2022 – Résumé de la réunion

Date : 23 septembre 2022
Heure : De 15 h à 16 h 30 (HE)
Endroit : Vidéoconférence

Aperçu

Le sous-ministre délégué (SMD), Innovation, Sciences et Développement économique Canada (ISDE), Francis Bilodeau, a présidé la réunion du 23 septembre du Conseil consultatif en matière d’intelligence artificielle (IA) (le Conseil). La réunion avait pour objectif de solliciter les opinions du Conseil sur le troisième examen de la Directive du Conseil du Trésor sur la prise de décisions automatisée.

Troisième examen de la Directive du Conseil du Trésor sur la prise de décisions automatisée

Le dirigeant principal des données du Canada et les représentants du Secrétariat du Conseil du Trésor du Canada (SCT) ont donné un aperçu de l’approche du gouvernement du Canada en matière d’intelligence artificielle (IA) responsable, suivi d’une courte présentation sur le troisième examen de la Directive du Conseil du Trésor sur la prise de décisions automatisée. Ils ont décrit en détail les 12 recommandations stratégiques et les modifications connexes à la Directive proposées dans le cadre de l’examen, y compris un élargissement de la portée de la Directive pour y inclure les services internes.

 

Discussion ouverte

Le Conseil a été invité à fournir une rétroaction sur les modifications proposées à la Directive. Dans l’ensemble, les membres appuient l’effort et félicitent le SCT de l’approche qu’il a adoptée pour veiller à l’utilisation responsable de l’IA au gouvernement du Canada.

En ce qui concerne les modifications proposées à l’exigence en matière d’explication, les membres du Conseil ont soulevé le défi que représente la sélection de modèles qui sont compatibles avec les besoins des utilisateurs et capables de fournir des explications adéquates aux clients. Ils ont souligné un compromis possible à faire entre le rendement du modèle et l’explicabilité. Alors qu’un algorithme peut être inacceptable si nous ne sommes pas en mesure de comprendre comment il est arrivé à une décision, un modèle plus explicable peut avoir une précision moindre. Les exigences en matière d’explication doivent tenir compte de ce compromis lorsque l’efficience et la réduction des préjudices sont mises en équilibre.

Les membres du Conseil se sont interrogés sur la possibilité de revenir à des décisions humaines dans les cas où aucune explication n’est disponible dans les modèles d’IA. Les représentants du SCT ont répondu que la Directive exige déjà que des humains prennent la décision finale dans le cas des systèmes décisionnels automatisés à incidence élevée. Les membres du Conseil ont fait part de leurs préoccupations quant à savoir s’il est pratique ou réaliste qu’un humain prenne la décision finale, ce qui pourrait annuler les gains d’efficience obtenus grâce à l’automatisation, et si cela permet d’atténuer efficacement les risques liés à l’IA. Les membres du Conseil et les représentants du SCT ont fait remarquer que les examinateurs humains auraient besoin d’une formation et de connaissances en matière d’IA pour pouvoir porter des jugements éclairés dans un processus décisionnel automatisé.

Les membres du Conseil ont souligné l’importance de veiller à ce que les citoyens aient la possibilité de contester les décisions automatisées. Ils ont demandé qui serait responsable de l’examen du système et si les examens par les pairs seraient fiables et indépendants.

25 mai 2022 – Résumé de la réunion

Date : 25 mai 2022
Heure : De 15 h à 16 h 30 (HE)
Endroit : Vidéoconférence

Aperçu

Le sous-ministre adjoint principal (SMAP) d’Innovation, Sciences et Développement économique (ISDE), Mark Schaan, a présidé la réunion spéciale du 25 mai du Conseil consultatif en matière d’intelligence artificielle (IA) (le Conseil). Cette réunion était un suivi de la réunion du 2 mars, destinée à approfondir la mobilisation des membres du Conseil sur les thèmes clés qui pourraient être à la base du futur travail réglementaire lié à l’IA. Le Conseil a reçu un aperçu des principaux thèmes stratégiques liés à la Charte du numérique, suivi d’une discussion ouverte sur les éléments à prendre en considération pendant la mise en œuvre des cadres stratégiques pour les données et l’IA.

Mise en œuvre de la Charte du numérique

Le SMAP Mark Schaan a donné un aperçu de certaines contraintes et considérations qui s’appliquent pendant l’élaboration d’éventuelles politiques-cadres du marché : entre autres, la division constitutionnelle des pouvoirs et la nécessité de veiller à ce que la politique offre une perspective globale de l’économie adaptée aux réalités des nouveaux environnements technologiques. Charles Taillefer, directeur, Politique sur la vie privée et la protection des données à la Direction générale des politiques-cadres du marché d’ISDE, a ensuite exposé, pour orienter la discussion, trois thèmes stratégiques qui pourraient être à la base de futurs cadres réglementaires : la définition des systèmes d’intelligence artificielle; les systèmes d’IA à risque élevé; et la détermination des éléments et approches clés pour des programmes d’IA responsables, éthiques ou centrés sur l’humain.

Discussion ouverte

La première partie de la discussion a porté sur les considérations relatives à la portée d’un cadre réglementaire de l’IA. Les membres du Conseil ont soulevé les points suivants :

  • Il faut envisager une large portée, vu l’absence d’une frontière claire délimitant les systèmes d’IA des autres systèmes informatiques complexes.
  • La portée devrait tenir compte des changements technologiques possibles.
  • Il est important de définir l’IA dans le but de réglementer les systèmes d’IA en tant que domaine plus large que de simples logiciels. Par exemple, la définition de l’Organisation de coopération et de développement économiques englobe les systèmes automatisés, ce qui est plus large et plus inclusif par rapport aux différents éléments de l’IA.
  • Le travail de définition de la portée d’un tel cadre réglementaire devrait également prendre en compte les perceptions de l’IA que ces définitions créeront inévitablement.

La deuxième partie s’est concentrée sur la détermination et l’atténuation des préjudices qui découlent de l’IA et des systèmes d’IA. Les membres du Conseil ont souligné les points suivants :

  • Plutôt que de se concentrer sur un ensemble précis et discret de préjudices que l’IA peut générer, il est utile de créer plutôt une infrastructure réglementaire souple qui peut être adaptée à tous les ensembles complexes de défis auxquels nous sommes confrontés (p. ex. en intégrant des normes de certification, en créant un régime de licence pour les certificateurs).
  • Le degré de préjudice doit être un facteur clé dans les restrictions imposées à la technologie, en étant axé non pas forcément sur les utilisations particulières de la technologie, mais plutôt sur la direction dans laquelle celle-ci est utilisée.
  • Pour faire face à des préjudices systémiques importants, le biais devrait être inclus dans tout cadre réglementaire de l’IA.

La troisième et dernière partie de la discussion visait à comprendre quels éléments devraient faire partie d’un programme d’IA responsable.

  • Les membres du Conseil ont généralement fait valoir qu’il n’existe pas de liste clairement établie ou exhaustive des éléments qu’il faudrait inclure dans un programme d’IA responsable.
  • Les systèmes d’évaluation des préjugés et les évaluations de l’incidence des algorithmes sont de plus en plus courants dans les programmes d’IA responsable.
  • Des méthodes d’audit plus souples permettraient aux petites et moyennes entreprises (PME) et aux entreprises en démarrage de respecter plus facilement les normes.
  • Certains membres du Conseil ont souligné des principes clés de l’IA responsable tels que l’équité, la responsabilité, l’intervention humaine, le recours et la transparence.
  • En ce qui concerne la transparence, cela pourrait être particulièrement difficile, car les entreprises gardent strictement confidentiels le code et les données qui sous-tendent les systèmes d’IA. Il pourrait être difficile pour les gouvernements ou les auditeurs de savoir ce qu’ils doivent demander pour évaluer les risques. Il sera plutôt important d’en venir à un stade où le code des systèmes d’IA sera visible pour les auditeurs.
2 mars 2022 – Résumé de la réunion

Date : 2 mars 2022
Heure : De 15 h à 16 h 30 (HE)
Endroit : Vidéoconférence

Aperçu

Le sous-ministre adjoint principal (SMAP) d’Innovation, Sciences et Développement économique (ISDE), Mark Schaan, a présidé la réunion spéciale du 2 mars du Conseil consultatif en matière d’intelligence artificielle (IA) (le Conseil). La réunion visait à solliciter les opinions du Conseil au sujet du renforcement des mesures de protection et du soutien à l’innovation responsable dans le contexte de la mise en œuvre des principes de la Charte du numérique. Le Conseil a reçu un aperçu des principales considérations, suivi d’une discussion ouverte sur les recommandations qui pourraient contribuer à renforcer les mesures de protection et à soutenir l’innovation responsable.

Mise en œuvre de la Charte du numérique

Le SMAP Mark Schaan a donné un aperçu des consultations approfondies sur l’innovation responsable qui ont eu lieu précédemment avec l’industrie et les principaux intervenants. Le SMAP Mark Schaan a relevé certains des principaux points à retenir de ces consultations, notamment le fait que les intervenants estiment que le gouvernement du Canada n’en a pas encore fait assez pour aborder les risques liés à la vie privée des mineurs, ainsi que ceux liés à l’évolution rapide du développement et du déploiement des technologies d’AI. Jennifer Miller, directrice générale de la Direction générale des politiques-cadres du marché à ISDE, a ensuite donné un aperçu des principales considérations relatives à de nouvelles approches possibles pour la mise en œuvre des principes de la Charte du numérique, y compris d’éventuelles nouvelles mesures de protection des renseignements personnels des mineurs, en plus d’éventuelles approches pour la gouvernance des données et de l’IA. Les représentants d’ISDE ont souligné l’importance de maintenir une approche fondée sur des principes qui reste suffisamment dissuasive pour les utilisations inappropriées des technologies d’IA qui dépassent la ligne rouge.

Discussion ouverte

Le Conseil a été invité à faire part de ses opinions sur la mise en œuvre de la Charte du numérique. Les principaux points de discussion soulevés comprenaient les suivants :

  • le fardeau du consentement des personnes pour gérer leurs préférences quant à la manière dont leurs données sont analysées et comprises par les systèmes d’IA, et le défaut des organismes de réglementation d’envisager des régimes fondés sur la conformité;
  • le rythme et la portée de la réforme, compte tenu de l’ampleur et de la profondeur éventuelles de la politique de protection de la vie privée, de la politique relative à la protection de la vie privée et de la politique axée sur la technologie. Les membres du Conseil ont reconnu que les approches réglementaires doivent être suffisamment larges pour s’adapter aux réalités actuelles en matière de protection de la vie privée et de transparence, sans être trop denses et trop fastidieuses pour les entreprises canadiennes pendant leur mise en œuvre;
  • la capacité d’auditer de grands ensembles de données et de s’assurer que les méthodes seront conformes aux normes en évolution, en cherchant en particulier à mieux définir l’« explicabilité » de l’IA et les nuances de ce terme dans un cadre réglementaire. Certains membres du Conseil ont fait valoir qu’il pourrait être préférable de mettre en lumière la « justification » plutôt que l’« explicabilité ».
  • La capacité de considérer la façon d’exprimer un modèle de propriété des données qui est sensible et qui convient aux besoins des communautés plutôt qu’à ceux des personnes. De manière générale, les approches réglementaires ont jusqu’à présent considéré les droits et la propriété sur la base d’un modèle de consentement individuel, alors que les communautés autochtones se concentrent souvent sur la capacité d’action et les droits de la communauté;
  • s’assurer que les entreprises canadiennes disposent des outils et du temps nécessaires pour réagir à toute nouvelle réglementation éventuelle, en particulier les petites et moyennes entreprises canadiennes.
  • Le Conseil a noté l’importance des composantes de l’infrastructure sous-jacente en tant que catalyseur essentiel d’une réglementation efficace de l’IA, ainsi que le fait de considérer la pratique et l’application de l’audit et la compréhension des modèles d’IA pour comprendre la robustesse et l’explicabilité.
  • Le Conseil a souligné l’importance de mettre l’accent sur la transparence et la nécessité pour les entreprises de documenter les paramètres clés (données, algorithmes, information sur la formation) de leurs systèmes d’IA.
1 février 2022 – Résumé de la réunion

Date : 1er février 2022
Heure : De 15 h à 16 h 30 (HE)
Endroit : Vidéoconférence

Résumé

À la suite du renouvellement du Conseil en novembre 2021, les membres du Conseil ont participé à une discussion sur leur vision stratégique et l'ordre du jour pour leur nouveau mandat. Le Conseil a également formulé des observations et des recommandations pour éclairer la position du Canada sur le projet de réglementation de l'Union européenne (UE) régissant les technologies de l'intelligence artificielle (IA). 

Renouvellement et vision du Conseil

Les coprésidents ont fait part de leur vision du Conseil renouvelé. Ils ont proposé que le Conseil s'engage rapidement et activement pour influencer l'élaboration d'une politique en matière d'IA et qu'il fournisse des conseils éclairés sur les initiatives liées à l'IA menées par Innovation, Sciences et Développement économique Canada (ISDE) et d'autres ministères fédéraux. Les sujets abordés au cours de la discussion comprenaient la santé, le changement climatique, l'utilisation de l'intelligence artificielle dans les administrations publiques, l'adoption de l'AI et la passation de marchés dans ce domaine. Certains membres ont proposé que le Conseil se penche sur les modèles de réglementation de l'IA, notamment par la mise sur pied d'un groupe de travail dédié à la modernisation de la réglementation de l'IA. Les responsables d'ISDE se sont engagés à collaborer avec les coprésidents à la préparation d'un plan de travail, qui sera présenté lors d'une prochaine réunion. 

Consultation sur l'ébauche de réglementation de l'UE régissant l'IA

Des responsables de la Direction des règlements et obstacles techniques d'Affaires mondiales Canada (AMC) ont tenu une séance d'information sur l'ébauche de réglementation de l'UE régissant l'IA, et ont demandé l'avis du Conseil sur des considérations ou des points précis qui pourraient façonner la position du Canada sur la réglementation. Les principaux points de discussion du Conseil ont porté sur les obstacles qui empêchent les petites et moyennes entreprises canadiennes de développer des technologies et des solutions d'IA, la propriété intellectuelle, les essais de systèmes d'IA par des tiers et le rôle des normes internationales. Les responsables d'AMC se sont engagés à inclure ces considérations dans la rétroaction qu'ils fourniront à l'UE sur le projet de réglementation de l'IA. Les responsables du AMC se sont engagés à prendre en compte ces considérations dans la rétroaction qu'ils fourniront à l'UE sur le projet de réglementation de l'IA.

Sensibilisation du public

Le mandat du groupe de travail sur la sensibilisation du public du Conseil sera prolongé d'une année pour lui permettre de donner suite aux recommandations du groupe de travail et de définir une marche à suivre pour faire progresser la sensibilisation des collectivités autochtones.

17 novembre 2021 – Résumé de la réunion

Date : 17 novembre 2021
Heure : De 15 h 30 à 17 h (HE)
Endroit : Vidéoconférence

Résumé

Des représentants du Service canadien du renseignement de sécurité (SCRS) ont présenté au Conseil une séance d'information sur la sécurité de la recherche en intelligence artificielle (IA). Après la séance d'information, le Conseil a assisté à une présentation et a participé à une discussion sur les recommandations du groupe de travail sur la sensibilisation du public.

Séance d'information sur l'IA et la sécurité de la recherche en IA

Des représentants du SCRS ont tenu une séance d'information non classifiée sur la sécurité de la recherche en IA au Canada. Les membres du Conseil ont souligné l'importance de protéger la propriété intellectuelle, les données et la recherche canadiennes tout en maintenant les engagements pour la science et les données ouvertes. Les représentants du SCRS chercheront d'autres occasions de faire participer le Conseil et de fournir de l'information aux spécialistes canadiens de la recherche sur les menaces à la sécurité de la recherche en IA du Canada.

Recommandations du groupe de travail sur la sensibilisation du public

Les coprésidents du groupe de travail sur la sensibilisation du public ont présenté les premiers résultats des activités pancanadiennes qu'ils ont menées au printemps 2021 pour sensibiliser la population canadienne à l'IA. Le groupe de travail a recommandé un certain nombre de mesures susceptibles d'accroître la sensibilisation aux technologies de l'IA, notamment des campagnes de sensibilisation et de vulgarisation, des dialogues et des engagements continus, ainsi que la mise sur pied d'une communauté de pratique pour la sensibilisation à l'IA qui mettrait l'accent sur la participation de communautés diverses et sous-représentées. Le Conseil a renouvelé le mandat du groupe de travail pour une année afin qu'il puisse mettre en œuvre ces recommandations et faire progresser la sensibilisation les collectivités autochtones.