Ce que nous avons entendu – Consultation sur l'élaboration d'un code de pratique canadien pour les systèmes d'intelligence artificielle générative

Table de matières

Contexte

Les progrès récents en matière d'intelligence artificielle (IA) ont amené des experts de divers domaines à demander aux gouvernements de prendre des mesures pour veiller à ce que les systèmes d'IA générative offrant de vastes capacités soient mis au point et déployés dans le respect de la santé, de la sûreté et des droits de la personne. Le gouvernement du Canada discute depuis plusieurs mois avec des parties prenantes au pays et à l'étranger en vue d'établir des normes et des mesures de protection en lien avec les systèmes d'IA générative, y compris par le travail à l'appui de la Loi sur l'intelligence artificielle et les données (LIAD). Afin d'appuyer les efforts supplémentaires du Canada dans ce domaine, Innovation, Sciences et Développement économique Canada (ISDE) a lancé des consultations publiques au début du mois d'août 2023 portant sur un code de pratique pour les systèmes d'IA générative. Ce code serait adopté sur une base volontaire par les entreprises canadiennes, avant l'entrée en vigueur de la LIAD. La consultation pour soutenir l'élaboration du code devait également informer et appuyer la contribution du Canada aux nombreuses délibérations internationales sur les codes de conduite émergents pour les systèmes d'IA générative.

Qui s'est exprimé?

La consultation était ouverte au public, et ISDE a cherché à obtenir de la rétroaction d'un large éventail de parties prenantes par l'intermédiaire de tables rondes, de réunions bilatérales et de commentaires écrits. ISDE a organisé sept tables rondes avec des parties prenantes entre le 10 août et le 15 septembre, y compris avec des personnes qui représentent le monde universitaire, la société civile, les instituts de recherche en IA canadiens et les entreprises canadiennes de toutes tailles. ISDE a également reçu 24 soumissions écrites et s'est engagé avec le Conseil consultatif en matière d'intelligence artificielle du Canada. Somme toute, ISDE a reçu des commentaires de 92 individus et groupes de parties prenantes.

Ce que nous avons entendu

Conception du code et objectifs

Plusieurs parties prenantes ont émis des commentaires sur la conception du code et ont demandé des clarifications quant au rôle qu'elles devraient jouer dans l'écosystème. Certaines ont suggéré que le titre « code de pratique » pourrait porter à confusion, puisque de nombreux codes de pratique ont été élaborés par l'industrie et que les codes de pratique sont cernés, dans un contexte particulier, au titre de la Loi sur la protection de la vie privée des consommateurs.

Plusieurs personnes qui ont participé se sont questionnées sur la fonction que le code est censé avoir quant au projet de loi de la LIAD et aux engagements internationaux du Canada en ce qui concerne la gouvernance de l'IA. Par exemple, plusieurs parties prenantes ont demandé des clarifications sur le lien entre le code et les futurs règlements pris en application de la LIAD et le rôle que le code pourrait jouer après l'entrée en vigueur de la LIAD. Les parties prenantes ont également suggéré de veiller à ce que nos démarches cadrent avec celles de pays partageant des valeurs semblables, comme les États‑Unis, dont par l'intermédiaire de forums comme le G7. Ce point est particulièrement important pour les entreprises qui font des affaires en dehors du Canada. Certaines personnes qui ont participé ont également demandé à ce que les termes et définitions utilisés dans le code soient harmonisés avec les normes internationales.

Certains personnes qui ont répondu se disaient sceptiques quant à l'utilité d'un code volontaire; elles se demandaient si l'on peut s'attendre à ce que les entreprises y adhèrent et s'il est possible qu'un code unique s'appliquant à tous les secteurs ne soit pas pertinent pour la gamme d'activités commerciales qui en relèvent.

De plus, un certain nombre de parties prenantes ont émis des commentaires sur la conception du code en ce qui concerne les systèmes d'IA générative. Certaines trouvaient qu'il était trop restreignant, et que les principes et les éléments qui y étaient indiqués seraient pertinents pour tous les systèmes d'IA. D'autres ont indiqué que la catégorie de l'IA générative était trop large pour être utile à la gestion des risques, et que le terme regroupe des systèmes à faible risque qui corrigent l'orthographe et la grammaire en plus de systèmes plus performants. Certaines personnes ont mentionné que le code devrait surtout s'appliquer aux « systèmes d'avant-garde » pour s'aligner sur les mesures prises par les États‑Unis.

Il y avait également des divergences d'opinions plus générales concernant le rôle du code. Certaines parties prenantes ont souligné que le code devrait établir de grands principes directeurs sans fournir de directives précises, tandis que d'autres ont demandé des définitions et des directives plus précises afin de fournir une plus grande certitude concernant la façon dont le code pourrait être mis en œuvre.

Portée et application du code

Les parties prenantes ont également fourni des commentaires détaillés sur la portée en ce qui concerne 1) les types de systèmes à inclure, 2) la façon dont le code devrait être appliqué aux différents acteurs dans la chaîne de valeur (p. ex. développeuse ou développeur, diffuseuse ou diffuseur ou opératrice ou opérateur) et 3) la façon dont le code devrait être appliqué aux différentes catégories de risques.

Certaines parties prenantes ont proposé que le code soit uniquement axé sur les « systèmes d'avant‑garde » (c.-à-d. ceux plus performants que la génération actuelle de systèmes génératifs à usage général). D'autres ont suggéré que le code ne devrait s'appliquer qu'aux systèmes génératifs utilisés dans des contextes à forte incidence, comme les soins de santé et les processus décisionnels de nature délicate. Un certain nombre de personnes ont précisé l'importance de maintenir une approche axée sur les risques cadrant avec celle prescrite par la LIAD afin d'éviter de devoir recommander un ensemble de pratiques pour tous les systèmes auxquels il pourrait ne pas s'appliquer.

En particulier, certaines parties prenantes ont souligné la différence de niveaux de risques entre les systèmes génératifs accessibles au public, comme ChatGPT d'OpenAI, et les systèmes qui sont uniquement rendus disponibles dans un contexte d'entreprise et qui s'accompagnent d'utilisations et d'utilisatrices et d'utilisateurs plus restreints. Certaines ont mentionné que les risques figurant au document de consultation étaient plus pertinents pour les systèmes d'IA générative directement accessibles au grand public et que les systèmes conçus pour être utilisés au sein d'une organisation ne devraient pas être inclus.

De plus, de nombreuses parties prenantes ont indiqué qu'il était nécessaire de fournir des définitions claires des rôles dans le code de pratique cadrant avec les termes utilisés dans le projet de loi de la LIAD. Un certain nombre de participantes et de participants étaient d'avis que la distinction entre les diffuseuses et diffuseurs et les opératrices et opérateurs n'était pas claire, et que les mesures associées à chaque rôle devaient être correctement adaptées aux responsabilités des entreprises participant à chaque étape de la chaîne de valeur.

En ce qui concerne l'éventail d'enjeux que le code devrait couvrir, de nombreux points de vue ont été exprimés. Certaines parties prenantes étaient d'avis qu'il fallait étendre la portée du code afin qu'il soit plus exhaustif, y compris en ce qui concerne la confidentialité, les droits d'auteur et la viabilité environnementale. D'autres étaient opposées à l'élargissement de la portée, en évoquant le fait qu'il existe déjà des lois qui couvrent ces enjeux, dont la Loi sur la protection des renseignements personnels et les documents électroniques et la Loi sur le droit d'auteur. Les inquiétudes quant à l'élargissement de la portée du code étaient principalement liées à un désir que le code soit précis et instructif en ce qui concerne les politiques d'IA avant l'entrée en vigueur de la LIAD, ce qui éviterait la confusion qui pourrait être créée en incluant des directives sur des pratiques de champs déjà soumis à des obligations juridiques.

Un certain nombre de parties prenantes ont mentionné l'importance de faire la distinction entre la sûreté et la sécurité. Certaines ont souligné l'importance de contrer les menaces à la sécurité, y compris les menaces à la cybersécurité pour des systèmes d'IA avancés et les menaces qui pourraient émaner des « systèmes d'avant‑garde » dans le futur.

Défis liés à la mise en œuvre et rétroaction sur des mesures particulières

Dans les commentaires reçus, les parties prenantes ont fait part d'inquiétudes quant à la façon dont les mesures s'appliquent aux organisations qui souhaitent adhérer au code proposé. La principale préoccupation était de savoir si certaines mesures pouvaient être mises en œuvre de façon réaliste par toutes les parties identifiées. Par exemple, une partie prenante a indiqué qu'il serait impossible pour les entreprises de petite taille de mettre en œuvre l'exigence relative aux multiples moyens de défense et que ceux-ci ne seraient pas nécessaires pour les systèmes à faible risque. De plus, les parties prenantes ont demandé des précisions pour savoir où s'arrêtaient les responsabilités d'une organisation et où commençaient celles d'une autre. Des questions quant à savoir si le terme « opératrice ou opérateur » incluait les utilisatrices et les utilisateurs finaux d'un système ou s'il portait exclusivement sur celles et ceux qui gèrent les opérations des systèmes ont également été soulevées. Quelques parties ont indiqué que certaines des mesures ne devraient pas s'appliquer si les utilisatrices et les utilisateurs étaient inclus (p. ex. mise en œuvre de mesures visant à atténuer le risque de résultats biaisés).

Un certain nombre de parties prenantes ont fait part d'inquiétudes concernant la capacité des petites entreprises à se conformer au code, de même que les incidences possibles sur les investissements au Canada. Même si l'application du code se fera sur une base volontaire, certaines personnes qui ont répondu ont indiqué que s'il était considéré comme peu pratique pour les petites entreprises, les investisseuses et les investisseurs pourraient prendre cet aspect en considération. Cette préoccupation était souvent associée à la nécessité de faire la distinction entre les systèmes présentant différents niveaux de risque. Par exemple, certaines personnes ont indiqué que les petites entreprises auraient de la difficulté à mettre en œuvre des mesures comme les multiples moyens de défense ou la méthode de l'équipe rouge, et que ces mesures n'étaient pas nécessaires pour les applications de l'IA générative présentant un faible risque.

Des points de vue divergents ont été exprimés à propos des mesures proposées dans le cadre du pilier de la transparence. Certaines parties prenantes ont souligné l'importance de la transparence concernant les données saisies et la conception du système pour que les tierces parties, comme le milieu universitaire, puissent mieux cerner les risques pour le public. Les partisanes et les partisans de ce point de vue ont préconisé la divulgation des détails de la fonction et de la conception du système à un groupe limité de chercheuses et de chercheurs ayant fait l'objet d'un contrôle, ainsi que la communication des ensembles de données utilisés pour l'entraînement et des méthodes utilisées pour entraîner le système. D'autres répondantes et répondants ont exprimé des inquiétudes quant au fait qu'une partie de cette information est essentiellement une propriété intellectuelle qui pourrait faire l'objet de litiges. De plus, certaines personnes ont suggéré que la transparence devrait être axée sur l'information nécessaire aux utilisatrices et aux utilisateurs et aux entreprises en aval pour déterminer si leur utilisation du système ou le fonctionnement de celui-ci est sécuritaire.

Les parties prenantes ont également fourni une rétroaction sur un certain nombre d'exigences particulières.

  • Certains ont fait remarquer que le peaufinage ne devrait pas être utilisé comme mesure d'atténuation possible, car il pourrait alourdir le biais selon la façon dont il est effectué.
  • D'autres ont suggéré que la mesure sur l'évaluation et la conservation des ensembles de données fasse l'objet d'une révision parce que des termes comme « éviter » et « non représentatif » ne sont pas clairs.
  • Certaines personnes ont également souligné l'importance d'atténuer les sources de biais qui n'étaient pas liées aux données d'entrée, comme le biais du modèle. Plusieurs participantes et participants à la table ronde ont souligné que le code doit être clair et que le biais doit être évalué tout au long du cycle de vie de l'IA, et pas seulement dans les données d'entraînement.
  • Des recommandations précises visant à inclure d'autres mesures pour soutenir l'équité et la sécurité, en établissant des comités d'éthique par exemple, ont également été formulées.

Liste des participantes et des participants

  • AccessPrivacy
  • Advanced Symbolics
  • AI Redefined
  • Alliance of Canadian Cinema, Television and Radio Artists (ACTRA)
  • AltaML
  • Amazon
  • Andrew Clement (Université de Toronto)
  • Anthropic
  • Appen
  • Artificial.Agency
  • Association canadienne des compagnies d'assurances de personnes (ACCAP)
  • Association canadienne du marketing
  • Association des banquiers canadiens
  • Ballet national du Canada et Compagnie d'opéra canadienne (présentation conjointe)
  • Banque Scotia
  • Banque TD
  • BlackBerry
  • Blake Richards (Université McGill)
  • BMO
  • Borealis AI de RBC
  • BrainBox AI
  • Bureau de la publicité interactive du Canada
  • Campaign for AI Safety
  • Canadian Tire
  • Catherine Régis (Université de Montréal)
  • Centre pour l'innovation dans la gouvernance internationale
  • Chambre de commerce du Canada
  • Christelle Tessono (Université de Princeton)
  • CIBC
  • Coalition pour la diversité des expressions culturelles
  • Cohere
  • Colin Bennett (Université de Victoria)
  • Commissariat à la protection de la vie privée
  • Conseil canadien des innovateurs (CCI)
  • Conseil canadien du commerce de détail
  • Conseil de gouvernance numérique
  • Conseil des technologies de l'information et des communications
  • Contextere
  • Davies, Ward, Phillips & Vineberg S.E.N.C.R.L., s.r.l.
  • Desjardins
  • DLA Piper
  • Doina Precup (Université McGill)
  • EmoScienS
  • Fairly.AI
  • Financière Sunlife
  • Golnoosh Farnadi (Université de Montréal)
  • Gouvernance et sécurité de l'IA Canada (GSIA)
  • Groupe de travail sur l'IA/AM du Forum canadien pour la résilience des infrastructures numériques (FCRIN)
  • Guilde des compositeurs canadiens de musique à l'image (SCGC), Songwriters Association of Canada (SAC) et Société professionnelle des auteurs et des compositeurs du Québec (SPACQ) (présentation conjointe)
  • IBM
  • iNovia
  • INQ Law
  • Institut d'éthique de l'IA de Montréal
  • Institut Macdonald-Laurier
  • Jeff Clune (Université de la Colombie-Britannique)
  • Lightspeed Legal
  • Lobana Consulting Group, inc
  • Maroussia Lévesque (Université Harvard)
  • Mastercard
  • Mémoires écrits de Canadiens (trois mémoires, non affiliés)
  • Michael Geist (Université d'Ottawa)
  • Microsoft
  • Monique Crichlow (Schwartz-Reisman Institute de l'Université de Toronto)
  • Moov AI
  • OBVIA
  • OpenText
  • Organisations d'entreprises de femmes du Canada
  • Osler
  • Paladin AI
  • Patrick Pilarski (Université de l'Alberta)
  • Professional Association of Canadian Theatres
  • Questrade
  • Radical Ventures
  • Responsible AI Institute
  • Sam Andrey (Université métropolitaine de Toronto)
  • Samdesk
  • ServiceNow
  • Sonja Solomun (Centre pour les médias, la technologie et la démocratie de l'Université McGill)
  • Telus
  • Teresa Scassa (Université d'Ottawa)
  • TrojAI
  • University of Western Ontario Centre for Digital Justice, Community and Democracy
  • Variational AI
  • Vector Institute
  • Vidcruiter
  • Vooban