Apprendre ensemble pour une intelligence artificielle responsable

Rapport du Groupe de travail sur la sensibilisation du public

2021-2022

Les informations sur la publication

Cette publication est également offerte en ligne : https://ised-isde.canada.ca/site/conseil-consultatif-intelligence-artificielle/fr/groupe-travail-sensibilisation-public
Pour obtenir un exemplaire de cette publication ou un format substitut (Braille, gros caractères, etc.), veuillez remplir le formulaire de demande de publication : www.ic.gc.ca/demande-publication ou communiquer avec :

Centre de services aux citoyens d'ISDE
Innovation, Sciences et Développement économique Canada
Édifice C.D.-Howe
235, rue Queen
Ottawa (Ontario) K1A 0H5
Canada
Téléphone (sans frais au Canada) : 1-800-328-6189
Téléphone (international) : 613-954-5031
TTY (pour les personnes malentendantes) : 1-866-694-8389
Les heures de bureau sont de 8 h 30 à 17 h (heure de l'Est)
Courriel : ISDE@Canada.ca

Autorisation de reproduction

À moins d'indication contraire, l'information contenue dans cette publication peut être reproduite, en tout ou en partie et par quelque moyen que ce soit, sans frais et sans autre permission du ministère de l'Industrie, pourvu qu'une diligence raisonnable soit exercée afin d'assurer l'exactitude de l'information reproduite, que le ministère de l'Industrie soit mentionné comme organisme source et que la reproduction ne soit présentée ni comme une version officielle ni comme une copie ayant été faite en collaboration avec le ministère de l'Industrie ou avec son consentement.
Pour obtenir l'autorisation de reproduire l'information contenue dans cette publication à des fins commerciales, veuillez
demander l'affranchissement du droit d'auteur de la Couronne : www.ic.gc.ca/demande-droitdauteur ou communiquer avec le Centre de services aux citoyens d'ISDE aux coordonnées ci-dessus.
© Sa Majesté la Reine du Chef du Canada, représentée par le ministre de l'Industrie, 2021.

N° de catalogue Iu-173-38/2022F-PDF
ISBN 978-0-660-41697-7
N.B. Dans cette publication, la forme masculine désigne tant les femmes que les hommes.
Also available in English under the title Learning Together for Responsible Artificial Intelligence-Final report of the Public Awareness Working Group.

Table des matières

Liste des acronymes et des abréviations

EDIA Équité, diversité, inclusion et accessibilité
EUIC Enquête sur l'utilisation de l'Internet au Canada
IA Intelligence artificielle
ICRA Institut canadien de recherches avancées 
ISDE Innovation, Sciences et Développement économique Canada
La Stratégie La Stratégie pancanadienne en matière d'intelligence artificielle
Le Conseil Le Conseil consultatif en matière d'IA du gouvernement du Canada
Le Groupe de travail Le Groupe de travail sur la sensibilisation du public
OCDE Organisation de coopération et de développement économiques
SIA Systèmes d'intelligence artificielle

Terminologie importante

Intelligence artificielle (IA)

Il n'existe pas de définition unique de l'IA. L'OCDE définit l'IA comme [traduction] « un système fondé sur une machine qui peut, pour un ensemble donné d'objectifs définis par l'humain, faire des prédictions, des recommandations ou prendre des décisions [...] il est conçu pour fonctionner avec différents degrés d'autonomieNote de bas de page 1 », et décrit les différentes étapes du cycle de vie d'un système d'IA, comme la conception de modèles et la vérification des résultats. Cette définition est large et englobe une grande gamme de techniques et d'applications possibles de l'IA, mais elle est conçue pour des recommandations politiques, plutôt que pour une interprétation par le grand public. Une adaptation en langage clair de cette définition générale était nécessaire. Ainsi, pour les besoins de l'enquête, l'IA a été définie comme suit pour les personnes participantes:

« L'IA est l'ensemble des techniques informatiques qui permettent à une machine (p. ex. un ordinateur ou un téléphone mobile) d'effectuer des tâches qui requièrent généralement de l'intelligence, comme le raisonnement ou l'apprentissage. »

Dans le guide de délibération communiqué en ligne aux personnes participantes et aux membres intéressés du public lors des ateliers « Dialogue ouvert : L'intelligence artificielle au Canada », cette définition est approfondie comme suit :

« L'IA est l'ensemble des techniques informatiques qui permettent à une machine (p. ex. un ordinateur ou un téléphone mobile) d'effectuer des tâches qui requièrent généralement de l'intelligence, comme le raisonnement ou l'apprentissage. On la décrit également comme l'automatisation des tâches intelligentes. Les développements scientifiques de l'IA, comme les techniques d'apprentissage profond, ont permis de concevoir l'accès à d'énormes quantités de données et à une puissance de calcul toujours plus grande. Ces nouvelles techniques ont été rapidement déployées à grande échelle dans tous les domaines de la vie sociale, dans les transports, l'éducation, la culture et la santéNote de bas de page 2. »

Littératie en matière d'IA

La littératie dans une matière correspond aux connaissances et aux compétences requises pour permettre aux individus d'exprimer, de communiquer et de critiquer les idées du domaine. Cependant, les compétences et les connaissances dites essentielles dépendent des priorités des personnes en position d'autorité dans ce domaine. Par conséquent, nous avons fondé nos outils d'évaluation sur une définition plus large élaborée par Mme Long et M. Magerko, qui envisagent la littératie en matière d'IA sous un angle plus global :

« La littératie en matière d'IA est un ensemble de compétences qui permet aux individus d'évaluer de manière critique les technologies d'IA, de communiquer et de collaborer efficacement avec l'IA et d'utiliser l'IA comme un outil en ligne, à la maison et au travailNote de bas de page 3 . »

Cette définition large permet de comprendre que la littératie va au-delà d'une simple compréhension fondamentale du fonctionnement de la technologie pour inclure la connaissance des liens entre cette technologie et une variété de questions sociales, éthiques, économiques et politiques.

Délibération

La délibération est une discussion rationnelle à travers un échange d'arguments pour une décision collective dans le but d'accroître les connaissances de chaque participant et de permettre une meilleure compréhension des intérêts individuels et collectifs. Elle peut modifier nos préférences initiales. Elle ne conduit pas nécessairement à un consensus, mais plutôt à l'identification d'orientations communes à partir des convergences et des divergences d'opinions et des raisons qui les motivent.

Personnes participantes

Tout au long du rapport, le terme « personnes participantes » désigne la population qui a participé au Dialogue ouvert : L'intelligence artificielle au Canada. Les personnes participantes sont à la fois des adultes (18 ans et plus) et des jeunes (14 à 17 ans) qui ont été définis en fonction de leur résidence physique au Canada.

Personnes vivant au Canada

Dès le début du processus de définition des activités du groupe de travail, le choix a été fait de rejeter consciemment l'utilisation de termes tels que « citoyen canadien » ou « Canadien » pour définir notre population cible. Comme ces termes ne traduisent pas adéquatement la relation entre les peuples autochtones et le Canada, et qu'ils ou elles sont parfois utilisés pour exclure les populations marginalisées, nous avons préféré utiliser l'expression « personnes vivant au Canada ».

Personnes répondantes 

Tout au long du rapport, le terme « personnes répondantes » est utilisé pour désigner la population de l'enquête. Bien qu'elle corresponde à la diversité nationale du Canada en ce qui a trait à l'âge, au sexe et à la géographie par province, la population de l'enquête n'est pas représentative de la diversité ethnoculturelle, éducative ou de revenu.

Jeunes

Pour les besoins de la série d'ateliers Dialogue ouvert : L'intelligence artificielle au Canada, les jeunes ont été définis comme étant les personnes âgées de 14 à 17 ans.

Message des coprésidents

L'intelligence artificielle (IA) gagne en importance dans presque tous les secteurs de l'économie canadienne. Elle progresse rapidement tant en sophistication qu'en degré d'intégration dans notre vie quotidienne. L'IA offre de nombreuses possibilités aux personnes vivant au Canada; toutefois, le développement rapide des technologies d'IA dépasse souvent la capacité du public canadien à se tenir au courant des progrès de l'IA et à cerner les promesses et les risques de cette nouvelle technologie en constante évolution.  Il suffit de prendre l'exemple récent des grands modèles d'apprentissage profond ChatGPT et DALL-E 2, qui génèrent respectivement de la prose ou des images sophistiquées à partir de simples invites d'un utilisateur humain.  Ces solutions puissantes ont attiré l'attention des innovateurs, des décideurs politiques et du grand public, car elles démontrent à la fois la possibilité de générer des applications nouvelles et bénéfiques de l'IA et le potentiel d'abus.

Reconnaissant cette lacune, et sachant que l'adoption de l'IA dépend de la confiance du public, le gouvernement du Canada a lancé le Groupe de travail sur la sensibilisation du public en 2020 comme moyen d'écouter et d'informer les citoyens dans le contexte de l'écosystème canadien de l'IA qui évolue rapidement. Jusqu'à présent, le discours médiatique sur l'IA était généralement axé sur l'optimisme et la peur, tout en exagérant parfois les capacités de l'IA. Aucune donnée de base n'a été recueillie sur ce que les personnes vivant au Canada savent actuellement de l'IA, sur ce qui leur inspire de l'espoir et de l'optimisme, et sur les idées qui dominent leurs craintes ou leurs préoccupations.

Le Groupe de travail s'est vu confier le mandat d'examiner les moyens de sensibiliser le public et de favoriser la confiance dans l'IA. L'objectif était d'aider les personnes vivant au Canada à avoir une conversation plus terre à terre sur l'IA, et d'aider les citoyens à mieux comprendre la technologie, ses utilisations potentielles et les risques associés. Le Groupe de travail s'est engagé à inclure toutes les personnes vivant au Canada, quel que soit leur statut de citoyenneté, et à faire participer tous les groupes et communautés qui composent la population canadienne. Nous avons pris des mesures pour atteindre des personnes participantes autres que les intervenants qui sont déjà engagés dans des dialogues sur l'IA.

Nous avons conçu et déployé une enquête nationale suivie d'un ambitieux processus de délibération pancanadien, le Dialogue ouvert : L'intelligence artificielle au Canada, en organisant des ateliers virtuels avec des résidents, y compris des jeunes, d'un océan à l'autre. Nous avons entrepris ces efforts pendant les deuxième et troisième vagues de la pandémie de COVID-19, ce qui a présenté de nombreux défis et a nécessité une participation entièrement virtuelle. Nous reconnaissons que nous avons dû faire face à des contraintes compréhensibles qui ont eu une incidence sur notre capacité à obtenir une représentation solide et diversifiée à la fois dans l'enquête et dans le Dialogue ouvert. Cependant, nous avons beaucoup appris au cours de l'exécution de ces plans, et le présent rapport comprend des recommandations sur la façon dont la diversité et l'inclusion pourraient être mieux prises en compte dans les futures initiatives de mobilisation, dont certaines sont déjà en cours, garantissant une participation significative dans le but de démocratiser la conversation sur une IA responsable et digne de confiance.

Le présent rapport du Groupe de travail ne doit pas être considéré comme exhaustif ou une finalité en soi. Il s'agit plutôt d'un instantané qui reflète les attitudes, les connaissances et les points de vue d'une partie de la population canadienne. De plus, il ne s'agit que d'un point de départ pour de futurs efforts de mobilisation. Nous avons intégré une série de recommandations tangibles et finançables sur lesquelles on peut s'appuyer pour réussir à mobiliser les gens au Canada, à sensibiliser le public à l'IA et à cultiver une société dotée de connaissances suffisantes pour réfléchir de manière critique aux nouvelles technologies. Nous soulignons que l'équité, la diversité, l'inclusion et l'accessibilité doivent être au premier plan de toutes les initiatives futures.

Nous espérons que les leçons apprises, tant dans la façon dont les idées ont été recueillies que dans ce qui a été partagé par les personnes participantes, serviront à inspirer de futurs efforts d'engagement public sur l'IA au Canada.

Catherine Riddell, coprésidente du Groupe de travail sur la sensibilisation du public (2020-21)

Marc-Antoine Dilhac, coprésident du Groupe de travail sur la sensibilisation du public (2020-présent)

1. Sommaire

L'intelligence artificielle : une technologie transformatrice

La croissance de systèmes et de technologies d'intelligence artificielle (IA) puissants, en développement rapide et de plus en plus omniprésents devrait avoir une incidence sur tous les secteurs économiques du Canada au cours des dix prochaines années. Les capacités de prédiction, d'automatisation, d'analyse et d'optimisation des technologies de l'IA offrent des possibilités considérables pour aider à résoudre certains des problèmes les plus difficiles auxquels sont confrontés les personnes vivant au Canada, qu'il s'agisse de l'amélioration des soins de santé et des résultats pour la santé ou de la lutte contre les changements climatiques. L'IA façonne et informe également notre vie quotidienne, que ce soit par des recommandations publicitaires personnalisées ou en répondant à des questions en tant qu' assistances virtuelles de votre téléphone intelligent.

Il existe de réelles possibilités pour le Canada de tirer parti de son leadership précoce en matière d'IA et de créer des avantages économiques et sociaux importants découlant du développement et de l'application responsables de ces technologies. Cependant, à mesure que les technologies d'IA deviennent de plus en plus omniprésentes et leur utilisation de plus en plus répandue, les risques et les défis deviennent de plus en plus apparents. Les questions relatives au développement et au déploiement éthiques, y compris la partialité et la transparence des algorithmes, la protection de la vie privée et la sécurité, la protection des consommateurs et les pertes d'emplois liées à l'automatisation continuent de jouer un rôle prépondérant et essentiel dans le discours public canadien sur l'IA.

Dialogue sur l'IA au Canada : conversations et principales réflexions

Le Canada a développé une expertise de classe mondiale en matière d'IA grâce à des investissements précoces et soutenus dans les talents, l'éducation et la recherche, notamment par l'intermédiaire de la Stratégie pancanadienne sur l'intelligence artificielle qui a été lancée en 2017. Le gouvernement du Canada a également lancé le Conseil consultatif en matière d'intelligence artificielle (le Conseil) en 2019, avec le mandat de déterminer les possibilités de croissance économique tout en favorisant une approche éthique de l'IA fondée sur les droits de la personne, la transparence et l'ouverture. Reconnaissant l'importance d'engager la population canadienne dans un dialogue sur les possibilités, les risques et les défis de l'adoption plus large de l'IA, le Conseil a lancé le Groupe de travail sur la sensibilisation du public (le Groupe de travail) en 2020 pour définir des méthodes et des stratégies pour une sensibilisation et une mobilisation soutenues et efficaces du public sur l'IA.

Ayant pour mandat de formuler des recommandations au Conseil, le Groupe de travail a entrepris ses recherches dans le but d'écouter les personnes vivant au Canada et d'engager un dialogue avec celle-ci au sujet de l'IA. Les objectifs de ce dialogue étaient de comprendre les degrés actuels d'intérêt pour l'IA et de sensibilisation à celle-ci au Canada, de comprendre la perception du public de la technologie et de ses applications potentielles, et de déterminer les initiatives et l'infrastructure nécessaires pour soutenir une sensibilisation et un engagement soutenus et efficaces du public.

Pour s'acquitter efficacement de son mandat, le Groupe de travail a élaboré un processus d'engagement en trois volets afin de faire progresser la conversation avec les gens au Canada :

  1. Une enquête nationale visant à établir un seuil de référence en matière de connaissances sur l'IA et à comprendre les espoirs et les craintes des personnes vivant au Canada à l'égard de l'IA et des systèmes d'IA;
  2. Une série d'ateliers en ligne visant à faire participer les personnes vivant au Canada, y compris les jeunes, de tout le pays au développement responsable de l'IA par la discussion de cas d'utilisation hypothétiques,
  3. Un rapport pour le Conseil qui fournit des recommandations pour le gouvernement du Canada afin d'échanger efficacement avec la population canadienne au sujet de l'IA de façon continue et soutenue.

Comprendre les perceptions de l'IA : échanger avec la population canadienne

En novembre 2020, le groupe de travail a lancé une enquête en ligne élaborée avec l'aide de Nanos Research. L'enquête a mobilisé plus de 1 200 personnes vivant au Canada issus d'un panel non probabiliste sur trois thèmes clés : 1) l'évaluation de la littératie en matière d'IA; 2) l'identification des domaines d'espoir ou d'optimisme en matière d'IA; et 3) l'identification des domaines de crainte ou d'inquiétude en matière d'IA. Plus tard, au printemps 2021, le groupe de travail a lancé l'initiative Dialogue ouvert : L'intelligence artificielle au Canada, une série de 19 ateliers virtuels offerts en français et en anglais. Lancés en partenariat avec l'Institut canadien de recherches avancées (ICRA) et Algora Lab de l'Université de Montréal, ces ateliers pancanadiens ont permis à 437 adultes et jeunes du Canada, dont 149 élèves du secondaire, de partager leurs points de vue et leurs conseils sur l'adoption de l'IA en discutant de divers cas d'utilisation possibles.

Les résultats de l'enquête et des ateliers en ligne sont éclairants. De manière générale, les personnes participantes à l'enquête et à l'atelier ont déclaré avoir une bonne connaissance de l'IA. Les personnes répondantes à l'enquête ont déclaré avoir acquis leurs connaissances principalement à partir de sources en ligne et de médias d'information, plutôt qu'à partir de sources éducatives traditionnelles (c.-à-d. écoles, programmes de formation professionnelle et de perfectionnement, etc.). Les personnes participantes aux délibérations ont noté la nécessité de considérer le développement de la culture de l'IA dans deux domaines distincts, mais complémentaires, en insistant sur le fait que les initiatives de sensibilisation à l'IA doivent prendre en compte non seulement les principes fondamentaux des systèmes d'IA, mais aussi la sensibilisation supplémentaire pour s'engager sur les éléments sociaux, économiques, éthiques et politiques de l'IA.

De même, la perception de l'IA et de ses répercussions était également un facteur clé à prendre en compte dans l'élaboration des campagnes de sensibilisation. Bien que les populations de l'échantillon aient été largement positives quant aux avantages sociaux perçus de l'IA, tant dans l'enquête nationale que dans les ateliers, ce sentiment a changé en fonction du contexte. Les personnes répondantes ont souvent modéré leur optimisme lorsqu'ils et elles ont été mis au défi de passer de concepts d'application généralisés à des évaluations personnelles ou familières des systèmes d'IA, dans des domaines tels que la police, la justice et la santé.

Enfin, l'enquête et les ateliers ont révélé un thème commun : la plupart des personnes participantes sont très favorables à l'amélioration et à l'élargissement des possibilités d'éducation sur l'IA, en particulier celles qui enseignent l'utilisation responsable et l'évaluation critique. Les personnes participantes ont mis en évidence une série d'actions potentielles pour fournir des occasions d'éducation liées à l'IA, y compris des campagnes sur les réseaux sociaux et dans les médias traditionnels ainsi que des occasions sélectionnées et fiables d'apprentissage sur l'IA.

« Les initiatives de sensibilisation à l'IA doivent prendre en compte non seulement les principes fondamentaux des systèmes d'IA, mais aussi la sensibilisation supplémentaire pour s'engager sur les éléments sociaux, économiques, éthiques et politiques de l'IA. »

En arrivant à ces résultats et observations, le groupe de travail reconnaît la présence de diverses limites dans ces deux voies de recherche. Par exemple, étant donné que les ateliers Dialogue ouvert étaient ouverts au public sans critères de sélection, le groupe de travail a constaté que les participants autosélectionnés avaient généralement un niveau de scolarité universitaire supérieur à celui de la population générale du Canada.

Figure 1. Comparaison entre le plus haut niveau de scolarité déclaré par les personnes participantes aux ateliers Dialogue ouvert : L'intelligence artificielle au Canada par rapport à la population générale issue des résultats du Recensement canadien de 2016Note de bas de page 4.

Figure 1 : Version textuelle
Comparaison du plus haut niveau d'études atteint par les participants aux ateliers
« Dialogue ouvert : L'intelligence artificielle au Canada » par rapport à la population canadienne
Niveau d'études le plus élevé Dialogue ouvert : L'intelligence artificielle au Canada Population canadienne
Aucun 1 11,5
Secondaire 3 25,5
Collège 4 23,7
Université 91 28,5

**Sauf indication contraire, la somme des chiffres dans ce rapport peut ne pas être égale à 100, car ils ont été arrondis.

En outre, et vu la nature de leur participation, les participants aux ateliers ont pu consacrer plusieurs heures de leur temps à ces consultations en ligne. Dans le cadre de l'enquête, l'échantillonnage ciblé de la population – qui comprendrait l'assurance d'un échantillonnage suffisant pour rendre compte de la diversité ethnoculturelle et générationnelle, des peuples autochtones et des personnes handicapées – et les méthodes hors ligne, comme la réalisation d'un sondage téléphonique, dépassaient les ressources et la portée de ce premier effort du groupe de travail, bien que la mobilisation ciblée reste un domaine étudié par le groupe de travail. Par conséquent, les données recueillies sont limitées quant au sexe, à l'âge (plus de 18 ans en raison des contraintes du fournisseur) et à la représentativité géographique en raison du nombre insuffisant de réponses des autres catégories démographiques.

En conséquence, le groupe de travail note que les consultations futures doivent comprendre une démarche plus ciblée et délibérée pour rejoindre les populations insuffisamment consultées, y compris celles qui sont les plus susceptibles d'être affectées par les technologies et les systèmes d'IA. Le manque de représentation de ces populations est une limite importante des conclusions du groupe de travail. Le groupe de travail a obtenu du Conseil l'approbation de poursuivre ses travaux de sensibilisation à l'AI selon une approche plus inclusive et à long terme qui viserait spécifiquement la participation des communautés marginalisées, sous-représentées, et sous-consultées et des Autochtones.

Conscient de ces limites, le groupe de travail a formulé une série de recommandations qui, selon lui, permettront d'ancrer le discours au Canada dans une compréhension mesurée de la technologie de l'IA, de ses utilisations potentielles et des risques qui y sont associés, ainsi que de définir la façon dont la mobilisation et le dialogue avec les gens partout au Canada doivent être au cœur du développement et du déploiement futurs d'une IA responsable au Canada.

Un dialogue permanent : recommandations pour accroître la sensibilisation et la mobilisation en matière d'IA au Canada

De façon générale, ces recommandations inciteraient d'abord le gouvernement du Canada à jouer un rôle de premier plan dans la création, la conservation et la diffusion de ressources sur l'IA pour le bénéfice exprès de toutes les personnes au Canada afin d'améliorer leur compréhension des systèmes d'IA. Plus précisément, le groupe de travail croit que cela peut être accompli par les moyens suivants :

  1. Créer une communauté nationale de pratique de l'IA, qui fournirait un référentiel ouvert de ressources et de meilleures pratiques en matière de dialogue sur l'IA pour les chercheurs et chercheuses, les personnes dirigeantes du milieu communautaire, les décideurs et décideuses, ainsi que le grand public, afin d'engager un dialogue permanent sur le développement, l'utilisation et la gouvernance responsables et éthiques des technologies d'IA.
  2. Mettre à profit des initiatives et programmes existants pour mieux promouvoir, évaluer et mesurer la sensibilisation à l'IA et offrir des chances égales d'accès et de participation au dialogue. Par exemple, le gouvernement du Canada mène régulièrement des enquêtes auprès des personnes vivant au Canada sur des questions liées à la technologie, comme l'Enquête canadienne sur l'utilisation de l'Internet (ECUI)Note de bas de page 5. Le gouvernement pourrait veiller à ce que des questions sur la littératie en matière d'IA et la sensibilisation à celles-ci soient incluses dans les futures versions de cette enquête.
  3. Faciliter la création, l'approbation et la promotion d'un cours gratuit en ligne sur l'IA, conçu pour accroître les connaissances techniques générales sur l'IA, développer des opinions publiques éclairées sur l'IA et ses implications, et doter les communautés marginalisées de connaissances technologiques.
  4. Engager les personnes vivant au Canada dans des dialogues publics significatifs pour comprendre quelles applications et utilisations de l'IA sont en accord avec l'intérêt public et les objectifs des communautés concernées. Ces dialogues seraient entrepris dans l'intention d'élaborer une politique mixte en matière d'IA qui répond à ces espoirs et à ces craintes, qui renforce la confiance du public dans l'utilisation et la gouvernance de la technologie, et qui permet et limite le déploiement de l'IA, de manière à ce qu'il soit conforme aux intérêts des diverses communautés.
  5. Lancer des campagnes d'information publiques soutenues et menées par le gouvernement en collaboration avec les réseaux informels utilités par les personnes sous-représentées en IA à travers les médias traditionnels et les réseaux sociaux pour promouvoir la connaissance et la participation à des initiatives de ressources comme la communauté de pratique de sensibilisation à l'IA et le cours de littératie en matière d'IA, ainsi que les futures consultations publiques.
  6. Financer une stratégie d'équité, de diversité, d'inclusion et d'accessibilité pour les dix prochaines années afin de soutenir les initiatives d'engagement du public et de s'assurer que les ressources financières, d'accessibilité et de sensibilisation sont disponibles pour permettre la représentation de la diversité du Canada. L'affectation de ressources suffisantes, de temps et de relations préétablies avec les communautés est un facteur déterminant de la capacité des programmes et de l'engagement futurs à combler l'écart pour atteindre l'inclusion et la diversité nécessaires.
  7. Assurer l'accès à l'Internet à haut débit dans tout le Canada. Il s'agit d'un facteur déterminant pour assurer l'accès aux systèmes d'IA et la sensibilisation à ces derniers; le Groupe de travail encourage le Canada à poursuivre et à intensifier ses efforts pour offrir à tous les personnes vivant au Canada un accès à l'Internet à haut débit à un prix abordable.
  8. Promouvoir la valeur et la nécessité de l'engagement des citoyens en tant que pilier clé du développement responsable des technologies d'IA, en tenant compte de la pluralité des sources de connaissances dans les processus de conception et de création conjointe qui peuvent être utilisées, par l'intermédiaire de plates-formes et d'initiatives comme le Partenariat mondial sur l'IA, l'AI Impact Alliance, la Déclaration de Montréal sur l'IA responsable et le partenariat entre l'ICRA et le Centre de recherches pour le développement international (CRDI).

Leadership en matière d'engagement sur l'IA : possibilités pour le gouvernement du Canada de contribuer à la construction d'un avenir numérique inclusif

Le rapport du Groupe de travail est un appel à l'action pour les gouvernements et la population du Canada. Le Groupe de travail croit que les occasions de mobilisation et de dialogue soutenus et à long terme offertes par le gouvernement du Canada ou en son nom sont essentielles pour faire avancer la conversation sur les espoirs, les risques et les craintes liés à l'adoption généralisée de la technologie de l'IA. Le gouvernement du Canada a les ressources nécessaires non seulement pour aider à diriger cette conversation, mais aussi pour élargir le discours par un engagement ciblé auprès des communautés marginalisées et peu consultées qui sont susceptibles d'être touchées de manière importante par les systèmes d'IA. De même, le Groupe de travail invite toutes les personnes vivant au Canada à s'engager dans l'éducation, la sensibilisation et la littératie en matière d'IA, afin de s'assurer que les technologies d'IA reflètent nos valeurs communes, nos processus démocratiques et nos institutions.

Alors que le groupe de travail envisage la prochaine phase de ses travaux, nous constatons l'importance de donner suite à nos recommandations en veillant en priorité à intégrer une optique axée sur la diversité, l'équité, l'accessibilité et l'inclusion à chaque étape. L'engagement à écouter les besoins des peuples autochtones et à explorer les possibilités de codéveloppement et de leadership partagé est essentiel à cette orientation renouvelée. Grâce au développement prioritaire de ressources adaptées à la culture et pertinentes pour les dialogues avec les Autochtones au sujet de l'IA, le groupe de travail souhaite s'assurer qu'on n'omet pas de consulter les Autochtones dans les travaux à venir et que les consultations futures sont enrichies par l'inclusion des voix et des connaissances autochtones.

2. Introduction et contexte

2.1 Introduction

On s'attend à ce que l'intelligence artificielle (IA) touche ou transforme tous les secteurs et toutes les industries du Canada. L'IA a le pouvoir de nous aider à résoudre certains des problèmes les plus difficiles de notre pays, qu'il s'agisse d'améliorer les soins de santé et les résultats en matière de santé ou de lutter contre le changement climatique. Elle introduira également de nouvelles sources de création d'emplois et de croissance économique durable. Pourtant, nombreux sont ceux qui craignent que le rythme rapide du développement et de l'adoption de l'IA ne dépasse notre capacité à comprendre et à gérer l'impact de l'IA sur la société et l'économie. L'utilisation croissante de l'IA a mis sous les projecteurs une foule de nouveaux risques et défis. Partout dans le monde, les citoyens soulèvent des questions sur les répercussions de l'IA sur la vie privée, la sécurité, la discrimination et les préjugés, la protection des consommateurs, et plus encore. Comme le déploiement de l'IA affecte de plus en plus toutes les sphères de la vie personnelle, professionnelle et sociale, il est crucial d'étendre notre capacité à comprendre, évaluer et s'engager de manière critique dans l'IA au-delà des scientifiques, pour atteindre les citoyens, les personnes utilisatrices et les personnes les plus touchées par l'IA dans notre société.

Grâce à des investissements précoces et soutenus dans la recherche fondamentale depuis plus de trois décennies, le Canada a développé une expertise de premier plan dans l'apprentissage automatique, l'apprentissage profond et l'apprentissage par renforcement qui a positionné notre pays comme un leader mondial dans son développement responsable. En 2017, le gouvernement du Canada a assuré cette position avec la création de la Stratégie pancanadienne sur l'intelligence artificielle (la Stratégie), soutenue par un investissement de 125 millions de dollars, afin de soutenir et d'élargir l'écosystème de recherche et d'éducation en IA et de maintenir la position concurrentielle du Canada dans ce domaine en plein essor Note de bas de page 6. Dirigée par l'Institut canadien de recherches avancées (ICRA), la Stratégie visait initialement à attirer et à retenir des chercheurs de calibre mondial dans le domaine de l'IA, à stimuler l'innovation et les collaborations en matière de recherche, et à améliorer le profil international du Canada en tant que destination pour les investissements financiers. La Stratégie soutient un programme national de chaires de recherche en IA dans trois instituts nationaux : l'Institut Vector à Toronto, Mila à Montréal et l'Alberta Machine Intelligence Institute (Amii) à Edmonton. Les instituts mènent des activités de recherche et de formation de calibre mondial afin d'attirer et de développer d'autres talents, et agissent comme des plaques tournantes régionales et nationales pour les communautés canadiennes de l'IA, y compris les communautés de l'industrie et de l'innovation. Le financement soutient également la recherche et l'innovation, dirigées par l'ICRA, afin de développer un leadership mondial sur les implications économiques, éthiques, politiques et juridiques des progrès de l'IA.

En 2021, le gouvernement du Canada s'est engagé à renouveler et à élargir la Stratégie grâce à un investissement supplémentaire pouvant atteindre 443,8 millions de dollarsNote de bas de page 7. Cette Stratégie renouvelée continuerait de soutenir l'attraction et la rétention des meilleurs talents universitaires, ainsi que le renouvellement des programmes de recherche, de formation et de mobilisation des connaissances de l'ICRA. Les fonds supplémentaires aideraient également à soutenir la commercialisation des innovations et de la recherche en IA au Canada, ainsi qu'à fournir une capacité informatique spécialisée aux chercheurs des instituts et à faire progresser l'élaboration et l'adoption de normes en matière d'IA.

Reconnaissant que le succès de l'adoption et de l'innovation en matière d'IA ne peuvent être atteints par les seuls investissements, le gouvernement du Canada a lancé un Conseil consultatif en matière d'intelligence artificielle (le Conseil) en 2019. Composé de chercheuses et chercheurs, d'universitaires, de cheffes et chefs d'entreprise le Conseil a pour mandat de conseiller le gouvernement du Canada sur la meilleure façon de tirer parti des forces du Canada en matière d'IA, de déterminer les possibilités de créer une croissance économique inclusive et durable qui profite à tous les personnes vivant au Canada, et de veiller à ce que les progrès de l'IA correspondent aux valeurs canadiennes. Le gouvernement a demandé au Conseil de se pencher sur une approche de l'IA centrée sur l'humain, fondée sur les droits de la personne, la transparence et l'ouverture, dans le but non seulement d'accroître la confiance et la responsabilité dans l'IA, mais aussi de protéger nos valeurs, nos processus et nos institutions démocratiques.

À l'appui de ce mandat, le Conseil a mis sur pied le Groupe de travail sur la sensibilisation du public (le Groupe de travail) au début de 2020, et lui a confié la responsabilité d'approcher et d'écouter les gens au Canada pour comprendre les degrés actuels d'intérêt, de perception et de sensibilisation à l'IA au Canada, ainsi que pour établir les considérations sur les pratiques exemplaires pour une sensibilisation et un engagement soutenus et efficaces du public. Reconnaissant la valeur d'un dialogue ouvert avec les personnes vivant au Canada, le Groupe de travail a reçu le mandat d'élaborer des stratégies inclusives pour sensibiliser le public et favoriser la confiance dans le développement, l'utilisation et la gouvernance responsables des systèmes d'IA, d'entreprendre des recherches pour comprendre la perception du public à l'égard de la technologie et de ses applications potentielles, et de déterminer les initiatives et l'infrastructure nécessaires pour soutenir une sensibilisation et un engagement soutenus et efficaces du public.

Cette recherche menée par le Groupe de travail sert à soutenir le mandat du Conseil consultatif, soit de conseiller le gouvernement du Canada « quant aux manières de consolider les forces du pays en matière d'IA », de cerner « [...] les possibilités de croissance économique qui procureront des retombées pour tous les personnes vivant au Canada» et de veiller « [...] à ce que les avancées dans le secteur reflètent les valeurs canadiennes », comme le prévoit la Charte canadienne du numérique. Le but est d'établir une norme fondée sur des données probantes concernant la perception publique actuelle de l'IA et de son développement, ce qui permettra de mieux étayer le discours canadien grâce à une compréhension mesurée de la technologie, de ses utilisations potentielles et des risques qui y sont associés. À cette fin, la recherche du groupe de travail s'est concentrée sur l'examen de trois thèmes principaux :

1) Évaluer la littératie en matière d'IA : comprendre ce que les personnes vivant au Canada savent des capacités, des limites et de l'utilisation de l'IA, de son potentiel, de ses forces et de ses limites, ainsi des concepts tels que la conception humaine, l'apprentissage automatisé et la littératie numérique de base. Ce thème de recherche visait à établir une base de référence de la familiarité des personnes participantes avec l'IA et à permettre aux chercheurs d'évaluer les lacunes dans les connaissances de base et de déterminer les questions d' inclusion et les obstacles potentiels à l'acquisition de connaissances.

2) Définir les espoirs et les possibilités perçus quant à l'IA : déterminer les domaines dans lesquels les personnes vivant au Canada voient le plus grand potentiel et les plus grands avantages des technologies de l'IA – par rapport à eux personnellement, à leur vie et à leur travail, et en ce qui concerne la société en général.

3) Cerner les domaines d'inquiétude, de crainte ou de défi liés à l'IA : relever les questions et les domaines d'inquiétude ou de crainte que les personnes vivant au Canada peuvent avoir concernant l'IA, y compris la vie privée, l'identité, la sécurité et les répercussions sur la main-d'œuvre.

En menant cette recherche, les activités du Groupe de travail contribuent à faire avancer les engagements internationaux et nationaux du gouvernement du Canada en vue d'atteindre les objectifs énoncés dans la Déclaration franco-canadienne sur l'Intelligence artificielle : plus précisément, favoriser l'innovation tout en instaurant la confiance dans les sociétés et les économies numériques, et promouvoir une approche de l'IA centrée sur l'humain et fondée sur les droits de la personne, l'inclusion, l'équité, la diversité, la transparence et l'ouverture, la durabilité et la croissance économique.

2.2 Mandat et objectif 

Rappelant l'objectif du groupe de travail, qui est d'étudier et de recommander des mécanismes visant à sensibiliser le public et à renforcer la confiance dans l'IA, le groupe de travail s'est limité à trois domaines principaux :

  1. Élaborer des approches régionales pour faire participer le public, les provinces, les territoires et les municipalités, et lancer les consultations au début de 2021.
  2. Mener un dialogue avec les personnes vivant au Canada afin de cerner les occasions et les risques liés au déploiement des technologies d'IA (par exemple, l'intention perçue; l'utilisation responsable ancrée dans les principes éthiques et les droits de la personne; la protection des données; l'adaptation à une automatisation accrue).
  3. Fournir un rapport sur les activités de mobilisation et recommander des possibilités de mobilisation publique.

Les membres du Groupe de travail ont été guidés par cette portée, avec la compréhension inhérente de la nécessité d'impliquer les gens au Canada de manière globale et ciblée dans la définition de l'avenir de l'utilisation responsable de l'IA. Dès les premières discussions, le groupe de travail a reconnu qu'une consultation complète exigeait nécessairement un portrait exact de la diversité du Canada dans les personnes consultées et incluses dans la recherche. Bien que cette mobilisation plus large n'ait pas été réalisée à cette étape de la recherche en raison d'obstacles et de limites qui sont discutés plus en détail dans les conclusions, l'engagement envers cet objectif et le besoin de consultations futures pour atteindre cette norme sont indiqués dans les recommandations. Dans le cadre de son mandat élargi, le Groupe de travail prévoit faire avancer le travail indiqué dans ces recommandations afin de discuter spécifiquement avec les communautés marginalisées, sous-représentées, sous-consultées et autochtones.

Étant donné que l'on s'attend à ce que le déploiement de l'IA touche toutes les personnes vivant au Canada du Canada, le Groupe de travail a réalisé qu'il était essentiel de comprendre les degrés actuels de connaissance de l'IA parmi les citoyens afin de concevoir des programmes qui permettraient d'informer et d'aider les citoyens à mieux comprendre le développement et les capacités de l'IA. Le Groupe de travail a reconnu la nécessité non seulement de développer les connaissances en matière d'IA, mais aussi de tisser la relation entre les gouvernements et les citoyens sur l'IA. En d'autres termes, pour que le Groupe de travail puisse renforcer la confiance dans le développement d'une IA responsable, cette technologie et ses applications doivent faire l'objet d'un examen, d'un débat et d'un contrôle démocratiques afin de garantir que les discussions sur les technologies de l'IA et leurs répercussions soient accessibles et que les communautés les plus susceptibles d'être touchées par l'IA participent à la conversation.

2.3 Activités du groupe de travail 

Après une transition dans les activités de lancement prévues du groupe de travail en raison de la pandémie de COVID-19, le groupe de travail s'est réuni tout au long du mois de juin 2020 pour élaborer et proposer un processus de mobilisation en trois volets au Conseil en juillet 2020 :

  1. Lancer une enquête nationale pour saisir et évaluer le degré de connaissance de l'IA, ainsi que les sentiments et l'intérêt des personnes vivant au Canada à l'égard de l'IA et de ses systèmes.
  2. Lancer une série d'ateliers en ligne visant à faire participer les personnes vivant au Canada – y compris les jeunes – de tout le pays au développement responsable de l'IA par la discussion de cas d'utilisation hypothétiques.
  3. Produire un rapport final pour le Conseil qui fournit une feuille de route pour le gouvernement du Canada afin d'échanger efficacement avec le public canadien sur l'IA sur une base continue et soutenue.

Figure 2. Chronologie du travail de terrain pour la recherche menée par le Groupe de travail sur la sensibilisation du public.

Figure 2 : Version textuelle

Enquête nationale

Sur le terrain les 23 et 24 novembre


Analyse réalisée par Nanos Research

Résultats présentés au Groupe de travail le 10 décembre


2021


Identification des organisations de sensibilisation de la communauté par le Groupe de travail

Définition, rédaction et révision des cas d'utilisation pour la délibération

Embauche et formation d'étudiants facilitateurs avant la fin du mois de février


9 mars – Publication d'un communiqué de presse annonçant les ateliers « Dialogue ouvert ».

Lancement des efforts de sensibilisation


Dialogue ouvert : L'intelligence artificielle au Canada

Dialogues tenus du 30 mars au 13 mai.

Dans le cadre de ce travail, le Groupe de travail sur la sensibilisation du public s'est réuni tout au long de l'été 2020 et a d'abord rédigé une ébauche de proposition pour une enquête en ligne. Les questions de l'enquête s'articulaient autour de trois thèmes : l'évaluation des connaissances de l'IA au sein du public canadien, l'identification des « domaines d'espoir » ou d'optimisme en matière d'IA et l'identification des « domaines de crainte » ou d'inquiétude en matière d'IA. Le premier thème de la connaissance de l'IA a été proposé dans le but de comprendre la familiarité avec l'IA au Canada, y compris ses utilisations et ses répercussions. L'intention des deux derniers thèmes était de déterminer les sujets sur lesquels les ateliers devraient se concentrer, avec le raisonnement que la valeur la plus significative sera dérivée des ateliers centrés sur les cas d'utilisation de l'adoption de l'IA qui ne sont pas déjà des domaines de consensus, ou perçus comme ayant peu d'effets.

Après la rédaction de la première ébauche, Nanos Research a été retenu par Innovation, Science et Développement économique Canada (ISDE) pour exécuter l'enquête. En novembre 2020, Nanos a lancé un sondage en ligne national et bilingue auprès de plus de 1 200 adultes personnes vivant au Canada provenant d'un panel non probabiliste.

Fort des résultats de l'enquête nationale, le Groupe de travail, en partenariat avec l'ICRA et Algora Lab (Université de Montréal), a lancé une série d'ateliers intitulés Dialogue ouvert : L'intelligence artificielle au Canada. Les séances Dialogue ouvert invitaient les personnes vivant au Canada à transmettre leurs points de vue sur les perceptions, les possibilités et les défis du développement de l'IA dans le cadre d'une série d'ateliers virtuels pancanadiens qui se sont déroulés de mars à mai 2021. Adoptant une approche inspirée de la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle et du Dialogue ouvert sur l'éthique de l'IA, les ateliers comprenaient des discussions animées, par des étudiantes et étudiants universitaires formés qui occupaient les rôles de personnes responsables de la prise de note ou de l'animation, fondées sur des scénarios de cas d'utilisation particuliers de l'IA. Les personnes participantes étaient invités à réfléchir et à discuter des dilemmes éthiques posés par des applications hypothétiques de l'IA. Au cours des ateliers virtuels, le Groupe de travail a échangé avec 437 personnes vivant au Canada à travers le pays dans des séances virtuelles où les personnes participantes étaient invités à considérer et à discuter des dilemmes éthiques posés par les applications de l'IA en explorant des scénarios particuliers d'utilisation de l'IA. Dans le cadre de cet exercice, le Groupe de travail a également organisé des ateliers destinés aux jeunes, auxquels ont participé 149 élèves du secondaire, qui ont partagé leurs points de vue et leurs conseils sur le développement éthique de l'IA.

3. Résultats de la recherche

La recherche a été conçue dans le but de fournir des recommandations pour établir des stratégies de mobilisation complètes et significatives qui permettraient au gouvernement du Canada d'échanger davantage avec le public canadien sur le développement responsable et éthique de l'IA. Dans ce contexte, la sensibilisation du public ne se limite pas aux exercices de développement de la littératie en matière d'IA, mais constitue également l'amélioration de la relation entre le gouvernement et les citoyens autour de l'IA, dans le but d'inciter les citoyens à fournir des contributions significatives au développement et à la gouvernance des systèmes d'IA. À cette fin, les recherches du groupe de travail ont exploré trois principaux domaines d'intérêt. Premièrement, il était essentiel d'établir une base de référence sur le degré de connaissances en matière d'IA chez les personnes vivant au Canada afin de contextualiser leurs perceptions de la technologie et leurs perspectives d'applications potentielles. Deuxièmement, comme la compréhension de la technologie n'est qu'une facette de la façon dont le public canadien pense à l'IA et la perçoit, le Groupe de travail a cherché à comprendre les perceptions de la technologie et ses répercussions éventuelles sur divers volets de la vie au Canada. Enfin, dans le but d'éclairer une stratégie de mobilisation à long terme en matière d'IA qui correspond aux besoins du public, la recherche a visé à évaluer l'intérêt actuel des gens au Canada à participer davantage pour comprendre cette technologie, ainsi que les sujets ou les thèmes propres à l'IA qui trouvent un écho auprès des personnes vivant au Canada et offrent les plus importantes possibilités d'engagement.

Les conclusions suivantes fournissent une analyse des résultats collectifs recueillis lors de l'enquête nationale et des délibérations publiques menées par le Groupe de travail, mais ne reflètent en aucun cas la totalité des idées riches et diverses qui ont été recueillies, qui vont au-delà de la littératie et de la sensibilisation, y compris des questions de réglementation, de développement des compétences et des talents, ainsi que l'identification des principaux dilemmes éthiques posés par cette technologie émergente. En reconnaissance de la valeur de ces contributions qui dépassent le cadre du mandat du Groupe de travail, les lecteurs sont encouragés à consulter les rapports complets des résultats de chaque projet de recherche disponibles en utilisant les liens Internet fournis ici :

Opinions des Canadiens sur l'intelligence artificielle (2020)

Dialogue ouvert : L'intelligence artificielle au Canada (2021)

Bien qu'une analyse détaillée des obstacles et des limites observés au cours de la recherche menée dans le cadre de la mobilisation communautaire sera abordée ci-dessous, il est important de reconnaître les défis rencontrés dans la collecte d'informations auprès d'une population correspondant à la population générale du Canada. S'il est vrai que la pandémie de COVID-19 a entraîné son propre ensemble d'obstacles, comme l'incapacité de se réunir en personne ou de déployer des méthodes de collecte de données non numériques, la pandémie a également mis en évidence les obstacles préexistants à l'engagement et la fragilité de l'accès aux programmes, aux initiatives et aux services qui existent pour de nombreuses communautés à travers le Canada. Pour ces raisons, nous appellerons les populations de l'échantillon respectivement « personnes répondantes» et « personnes participantes » lorsque nous discuterons des résultats du sondage national et des consultations du Dialogue ouvert, afin de ne pas laisser entendre que leurs expériences sont universelles à toutes les personnes vivant au Canada du Canada. Ces résultats aient été recueillis et élaborés dans un contexte limité, ils et elles constituent néanmoins une base pour une consultation et un dialogue futur qui bénéficient des leçons apprises au cours de cette recherche.

3.1 Littératie en matière d'IA

3.1.1 Profil de la littératie en matière d'IA au Canada : Personnes répondantes à l'enquête nationale

Lors de l'évaluation des connaissances techniques de la population, il était essentiel pour le groupe de travail que les questions de l'enquête soient conçues avec un langage approprié pour éviter de confondre les connaissances techniques avec une évaluation normative de la validité des perceptions des personnes répondantes sur les impacts futurs de la technologie. Conformément à cet objectif, l'enquête comportait à la fois une auto-évaluation initiale des connaissances des personnes répondantes sur l'IA avant de fournir une définition simple et claire de l'IA, que les personnes répondantes pouvaient ensuite consulter lorsqu'ils et elles répondaient aux questions fondées sur leurs connaissances pour déterminer leur degré de connaissance avec la technologie.

Quant à la connaissance de l'IA, près des trois quarts des personnes répondantes ont indiqué qu'ils et elles connaître ou connaître suffisamment l'IA. Lorsque nous leurs avons demandé d'évaluer leur degré de connaissance avec l'IA sur une échelle allant de « connaissance modérée » à « faible connaissance », les hommes (79,6 %), les jeunes âgés de 18 à 34 ans (80,4 %) et les résidents de l'Ontario (81,2 %) ont déclaré être les plus informés. Parmi les données démographiques évaluées, les personnes répondantes du Québec avaient le degré de connaissance le plus faible (55,3 %), indiquant qu'ils et elles avaient une bonne ou une certaine connaissance de l'IA.

Figure 3. Identification par les personnes répondantes de leur degré de familiarité avec l'IA avant l'enquête (Q. À quel point vous y connaissez-vous en AI? Beaucoup, modérément, peu ou pas du tout?

Figure 3 : Version textuelle
Connaissance de l'intelligence artificielle
*Groupe démographique Niveau de connaissance des répondants (%) *
Bonne connaissance Certaine connaissance Faible connaissance Aucune connaissance
Population totale
(n= 1202)
21,1 51,4 19,5 8,0
Hommes
(n=588)
28,0 51,6 16,1 4,3
Femmes
(n=612)
14,5 51,2 22,8 11,5
18-34 ans
(n=330)
33,4 47,0 13,3 6,3
35-54 ans
(n=409)
20,1 58,4 15,7 5,7
55 ans et plus
(n=463)
13,2 48,3 27,3 11,1
Atlantique
(n=80)
18,2 54,4 17,9 9,4
Québec
(n=281)
16,8 38,5 31,2 13,4
Ontario
(n=461)
23,4 57,8 13,5 5,3
Saskatchewan et Manitoba
(n=81)
21,0 54,2 18,0 6,8
Alberta
(n=139)
21,7 54,3 16,5 7,5
Colombie-Britannique
(n=160)
23,1 50,2 20,4 6,3

Avec environ 71 % des personnes répondantes qui déclarent avoir un certain degré de connaissance au sujet de l'IA, ce résultat contraste fortement avec les résultats recueillis par Deloitte dans son rapport 2019, « Impératif de l'IA au Canada : Surmonter les risques, instaurer la confiance », selon lequel seulement 4 % des personnes vivant au Canada se sentent en confiance pour expliquer ce qu'est l'IA et comment elle fonctionneNote de bas de page 8. Cependant, cet écart peut refléter le manque de connaissances sur l'IA d'un point de vue technique plutôt qu'une compréhension générale et contextuelle de l'IA éclairée par les interactions des personnes répondantes dans leur vie quotidienne. Simplement, alors que le grand public peut ne pas se sentir à l'aise pour expliquer comment les systèmes d'intelligence artificielle (SIA) prennent des décisions, il est de plus en plus conscient de la façon dont les SIA sont utilisés et dont les médias en parlent.

Le degré de connaissance autodéclaré de l'IA est prometteur et démontre un accroissement des connaissances sur l'IA et ses capacités. En moyenne, au moment de répondre à des questions conçues pour explorer l'exactitude des connaissances des personnes répondantes sur l'état actuel des technologies de l'IA, les personnes répondantes ont réussi à identifier correctement si l'IA peut effectuer une tâche pour 7 des 11 capacités testées, telles que :

  • Contribuer à la résolution de problèmes opérationnels
  • Réfléchir logiquement
  • Composer de la musique
  • Se comporter comme les humains dans un contexte social
  • Ressentir des émotions
  • Tirer des leçons des données pour améliorer la compréhension
  • Effectuer une surveillance vidéo
  • Interpréter la parole
  • Jouer à des jeux
  • Interpréter les images
  • Remplacer les humains effectuant des tâches dangereuses

En outre, les personnes interrogées ont également été en mesure de déterminer correctement si une technologie utilise l'IA, en moyenne 4,2 fois sur 6, parmi la liste des technologies courantes utilisant l'IA, comme les assistances virtuelles, les termes de recherche prédictifs, les systèmes de recommandation et les filtres antipourriel.

Figure 4. Identification par les personnes répondantes de l'utilisation de l'IA dans les technologies listées (Q. Lesquelles des technologies suivantes utilisent l'IA? (Cochez toutes les réponses qui s'appliquent.))

Figure 4 : Version textuelle
Identification des technologies basées sur l'IA
Population totale Technologies Fréquence de sélection
en pourcentage (n=1218)
Assistant virtuel (c.-à-d. Siri, Alexa, etc.) 80
Assistant virtuel en ligne (c.-à-d. agent conversationnel, etc.) 73
Recherche et reconnaissance d'images 67
Termes de recherche prédictifs 62
Systèmes de recommandation 60
Filtres antipourriel 52
incertain 11
Non/aucune 1

Pour approfondir leur compréhension de ce que l'IA peut et ne peut pas faire à l'heure actuelle, les personnes répondantes devaient examiner une série de types de problèmes et indiquer si, selon eux, l'IA fait un très bon, bon, moyen, mauvais ou très mauvais travail. Les personnes répondantes ont de nouveau obtenu de bons résultats à cette évaluation, la plupart (66,2 %) ayant évalué correctement la capacité de l'IA à reconnaître les différences entre les images comme étant très bonne ou bonne, tandis que la capacité de l'IA à prendre des décisions éthiques dans un contexte particulier a obtenu la note la plus basse (39,3 % ont évalué cette compétence comme étant mauvaise ou très mauvaise). Cependant, de nombreux personnes répondantes ont répondu de manière moins précise à la question de savoir si l'IA pouvait ou non identifier l'influence des biais inconscients. Seul un répondant sur quatre a jugé que la capacité de l'IA à repérer les biais inconscients était très faible ou faible, tandis que 28 % des personnes répondantes ont jugé que cette capacité était très bonne ou bonne. Ces réponses sont peut-être liées au manque de clarté concernant l'utilisation du terme « préjugés », la source du préjugé ou la tâche que le répondant suppose que l'IA est en train d'accomplir. Par exemple, des reportages populaires ont identifié l'IA comme une solution pour atténuer les préjugés dans les évaluations des candidats à un emploi, ce qui peut créer une idée fausse ou une confusion sur le fait que l'IA atténue les préjugés au lieu de les identifier.

Dans l'ensemble, les personnes répondantes ont exprimé le moins de confiance dans l'évaluation du rôle et de l'opérationnalisation de l'éthique en ce qui concerne l'utilisation et le développement des technologies de l'IA. À la question « les personnes qui développent l'IA le font de manière éthique », 48 % des personnes répondantes étaient d'accord ou tout à fait d'accord avec cette affirmation, tandis que 29 % des personnes interrogées ont indiqué qu'elles étaient « incertaines ». L'écart de confiance entre les deux groupes en ce qui concerne l'évaluation des questions d'éthique est encore renforcé lorsque l'on compare les résultats à la question suivante : « Les ordinateurs peuvent être programmés pour prendre des décisions éthiques ». Lorsqu'on leur a demandé s'ils et elles étaient d'accord avec une série d'énoncés sur les capacités de l'IA, 42 % des personnes répondantes ont répondu par l'affirmative, tandis que 38 % ont répondu par la négative et 19 % étaient incertaines.

Figure 5. Les personnes répondantes ont indiqué leur niveau d'accord avec divers énoncés évaluant les capacités ou la conception de l'IA (Q. Êtes-vous d'accord, plutôt d'accord, plutôt en désaccord ou en désaccord avec chacun des énoncés suivants?)

Figure 5 : Version textuelle
Accord avec des énoncés relatifs à l'IA
Énoncé des capacités Fréquence de sélection en pourcentage
D'accord Plutôt d'accord Plutôt en désaccord En désaccord Incertain
Les systèmes dotés d'IA nécessitent l'intervention humaine 47,4 41,0 3,5 1,1 7,1
La capacité de décision des ordinateurs est limitée par la façon dont ils sont programmés 43,1 43,8 4,9 2,1 6,1
L'IA peut présenter des risques pour la société 25,3 43,8 12,3 4,8 13,8
Les personnes qui développent l'IA le font de manière éthique 11,7 36,5 15,7 7,4 28,7
Les ordinateurs peuvent être programmés pour prendre des décisions éthiques 10,0 32,3 21,3 17,4 19,0
Les ordinateurs peuvent penser comme les humains 5,0 21,2 25,9 39,8 8,1

Des six questions évaluant la véracité des énoncés sur les capacités de l'IA, les deux exemples faisant référence à l'éthique ont suscité la plus grande proportion de réponses « incertain », mais également les répartitions les plus modérées entre la proportion des personnes répondantes évaluant les énoncés positivement et négativement. Ces résultats démontrent qu'il existe une lacune dans les connaissances populaires sur l'éthique et sur la façon de définir ou d'évaluer l'éthique en ce qui a trait au développement et aux applications de l'IA.

Figure 6. Ventilation comparative des données démographiques évaluées concernant l'accord avec les affirmations suivantes : « les personnes qui développent l'IA le font de manière éthique » et « les ordinateurs peuvent être programmés pour prendre des décisions éthiques ».

Figure 6 : Version textuelle
Les personnes qui développent l'IA le font de manière éthique
Caractéristiques démographiques évaluées Fréquence de sélection en pourcentage
D'accord Plutôt d'accord Plutôt en désaccord En désaccord Incertain
Population totale
(n=1198)
11,7 36,5 15,7 7,4 28,7
Hommes
(n=586)
12,7 41,4 15,5 7,3 23,1
Femmes
(n=611)
10,7 31,9 15,7 7,5 34,2
18-34 ans
(n=329)
13,6 41,9 14,9 7,4 22,1
35-54 ans
(n=409)
12,3 37,5 16,1 8,8 25,3
55 ans et plus
(n=460)
9,8 31,7 15,8 6,5 36,5
Atlantique
(n=80)
17,0 30,8 13,2 6,2 32,7
Québec
(280)
12,4 40,3 12,5 4,7 30,1
Ontario
(n=460)
10,2 35,9 18,2 9,7 26,2
Saskatchewan et Manitoba
(n=81)
9,5 38,4 16,5 8,9 26,7
Alberta
(n=138)
11,6 38,9 18,9 6,0 24,6
Colombie-Britannique
(n=160)
13,4 31,3 12,3 6,7 36,3
Les ordinateurs peuvent être programmés pour prendre des décisions éthiques
Caractéristiques démographiques évaluées Fréquence de sélection en pourcentage
D'accord Plutôt d'accord Plutôt en désaccord En désaccord Incertain
Population totale
(n=1197)
10,0 32,3 21,3 17,4 19,0
Hommes
(n=585)
12,3 37,3 21,6 15,3 13,6
Femmes
(n=610)
8,0 27,3 21,0 19,5 24,2
18-34 ans
(n=328)
11,6 35,2 26,2 12,9 14,2
35-54 ans
(n=409)
12,1 32,3 19,8 16,1 19,7
55 ans et plus
(n=460)
7,0 30,4 19,1 21,7 21,8
Atlantique
(n=79)
12,3 33,4 19,3 17,8 17,2
Québec
(n=280)
10,0 35,7 17,8 15,7 20,7
Ontario
(n=459)
9,0 34,6 22,1 17,5 16,8
Saskatchewan et Manitoba
(n=81)
7,8 25,8 21,2 23,1 22,0
Alberta
(n=138)
10,8 30,6 24,5 17,8 16,3
Colombie-Britannique
(n=160)
12,3 24,0 23,1 16,5 24,1

Pourtant, si l'on compare les moyennes des réponses consolidées – et les réponses moyennes selon les ventilations démographiques par âge, région et sexe – les personnes répondantes font en moyenne davantage confiance aux développeurs humains de l'IA pour agir de manière éthique qu'à la capacité des ordinateurs de prendre des décisions éthiques. Cet écart était plus prononcé chez les résidents de la Saskatchewan et du Manitoba, les femmes et les personnes âgées de 18 à 34 ans. Nous verrons que cette plus grande confiance est corrélée à un rôle accru de la participation et de la surveillance humaines dont il est question à la section 3.2 lors de l'évaluation des perceptions des SIA.

3.1.2 Lacunes en matière de littératie et sources de connaissances non standardisées

Comme plus des deux tiers des personnes répondantes ont déclaré être familiers avec l'IA, la question qui se pose naturellement est la suivante : où en ont-ils et elles entendu parler? Alors que nous tentons de comprendre le degré de connaissance que les personnes vivant au Canada ont déjà de l'IA, il est tout aussi important de connaître leurs sources d'information afin de déterminer les possibilités de littératie et d'éducation futures. Les personnes qui ont déclaré être familières ou assez familières avec l'IA ont été invitées à fournir une rétroaction ouverte afin de déterminer où elles ont été exposées et sensibilisées pour la première fois à l'IA. Illustrant un éventail de sources plus informelles, les personnes répondantes disent le plus souvent avoir entendu parler de l'IA par les nouvelles (20,7 %), Internet (19,5 %) et les émissions de télévision ou les documentaires (13,3 %), alors que seulement 4,9 % et 4,6 % des personnes répondantes disent avoir entendu parler de l'IA à l'école ou au travail respectivement.

Ce résultat soulève deux conclusions critiques : premièrement, un déficit frappant d'exposition à l'IA dans les sources d'éducation ou de formation plus traditionnelles; et deuxièmement, la susceptibilité potentielle du public à la désinformation en raison du manque de distribution formelle et standardisée d'informations précises sur les systèmes d'IA (SIA) et leurs applications. Étant donné la prévalence des SIA dans de nombreux volets de la vie quotidienne, un nouveau type de fracture numérique est en train d'émerger, caractérisé par ceux qui savent comment utiliser et tirer parti des SIA, et ceux qui ne le savent pas. Le développement de la littératie en matière d'IA sera de plus en plus déterminé par l'équité d'accès et de participation dans la vie professionnelle et publique au CanadaNote de bas de page 9. De plus, à mesure que les sources médiatiques non traditionnelles – à savoir les plates-formes de réseaux sociaux, plus de la moitié des personnes vivant au Canada interrogés dans le cadre du rapport Reuters Institute Digital News Report de 2021 déclarant obtenir leurs nouvelles des médias sociauxNote de bas de page 10 – accroissent leur influence sur le discours public, on s'inquiète de plus en plus du degré de mauvaise utilisation et de propagation de la désinformation. Plus précisément, bien que les données d'enquête actuelles indiquent que ces médias non traditionnels n'ont pas produit un degré significatif de compréhension inexacte de l'IA et de ses capacités, l'importance de la connaissance de l'IA pour la capacité des individus à participer équitablement à l'économie et à la société de l'avenir exige un effort plus délibéré et systématique pour s'assurer que le public canadien reçoit des informations exactes. Le fait de fournir aux personnes vivant au Canada des sources d'information fiables sur les SIA permettra de continuer à faire progresser les taux de littératie en matière d'IA du Canada sur une trajectoire positive.

Les personnes participantes aux ateliers Dialogue ouvert : L'intelligence artificielle au Canada ont exprimé leur inquiétude quant à l'absence d'une formation structurée sur l'IA. Dans l'ensemble des 19 ateliers nationaux, les personnes participantes ont constamment estimé que, dans l'ensemble, le public ne dispose pas de connaissances suffisantes et d'informations exactes sur les technologies de l'IA – un manque de connaissances qui, en fin de compte, entraîne des risques sociaux accrus pour les technologies, car le public est limité dans sa capacité à utiliser efficacement les SIA, à s'y engager et à les évaluer de manière critique. Fait intéressant, lorsqu'on leur a demandé de définir plus précisément ce qu'ils et elles percevaient comme une sensibilisation adéquate à l'IA, les personnes participantes ont décrit deux volets : la connaissance de base de la technologie de l'IA et la sensibilisation à la façon d'analyser les éléments critiques, éthiques et politiques de l'IA. Les personnes participantes ont souligné que la « sensibilisation à l'IA » doit intégrer une meilleure compréhension du fonctionnement des systèmes d'IA par le public, ainsi qu'un contexte supplémentaire de déploiement institutionnel ou de commercialisation de l'IA. Beaucoup ont indiqué qu'une meilleure compréhension de l'IA est une condition nécessaire et habilitante qui permet aux citoyens de s'engager dans une discussion et une prise de décision éclairées sur l'utilisation et le développement responsables de l'IA, réaffirmant le lien entre la connaissance et l'autonomie, ainsi que l'information et le consentement. Rappelant le manque d'aisance à évaluer les questions d'éthique observé parmi les personnes répondantes à l'enquête, la question de l'éducation insuffisante sur les considérations sociales, politiques et éthiques de l'IA est un obstacle aussi important pour l'utilisateur potentiel des SIA que le manque de compréhension technique.

Les personnes participantes ont reconnu que l'apprentissage de l'IA doit commencer tôt. L'opinion largement partagée était que les personnes vivant au Canada devraient être éduqués dès leur plus jeune âge sur la façon dont ces systèmes d'IA peuvent fonctionner, afin que la prochaine génération de citoyens puisse prendre des décisions éclairées. Le degré auquel les personnes participantes et les personnes répondantes au sondage ont souligné la valeur de l'engagement dans la littératie en matière d'IA à tous les âges sera exploré plus en détail dans la section 3.3, qui fournira un aperçu de l'appétit du public canadien pour plus de possibilités d'apprentissage de la littératie en matière d'IA.

3.1 Principaux points à retenir

  • Près des trois quarts des personnes répondantes à l'enquête ont déclaré avoir une certaine connaissance de l'IA, en particulier les hommes, les personnes âgées de 18 à 34 ans et les résidents de l'Ontario. Les personnes répondantes étaient, en moyenne, capables d'évaluer correctement 7 des 11 capacités de l'IA et de déterminer si une technologie utilise l'IA 4,2 fois sur 6.
  • Un pourcentage élevé de personnes répondantes à l'enquête ne se sentent pas confiants par rapport à l'éthique de l'IA, 29 % ne sachant pas si « les personnes qui développent l'IA le font de manière éthique » et 19 % ne sachant pas si « les ordinateurs peuvent être programmés pour prendre des décisions éthiques ».
  • Les personnes interrogées qui connaissent l'IA sont plus susceptibles d'en avoir entendu parler par des sources non traditionnelles, comme l'Internet ou la télévision, que par l'école ou le travail.
  • Les personnes participantes à l'atelier ont souligné que la culture de l'IA doit comprendre à la fois des connaissances techniques et une prise de conscience de la manière de s'engager dans les éléments critiques, éthiques et politiques de l'IA.

3.2 Perceptions de l'IA : Quelles sont les occasions et les sources d'optimisme? Quels sont les préoccupations et les défis?

Bien que les personnes interrogées déclarent avoir un degré élevé de connaissances en matière d'IA, le rythme rapide de la croissance et de la sophistication de la technologie de l'IA, ainsi que l'omniprésence des reportages sur les grandes entreprises et les gouvernements qui font un mauvais usage de la technologie de l'IA, risquent de contribuer à une perception publique selon laquelle l'IA est intrinsèquement nuisible ou inquiétante. De même, la prolifération d'articles et de reportages promettant que l'IA va « changer le monde » et offrant des solutions technologiques à tous les problèmes apparemment les plus insolubles de la société moderne – comme le changement climatique – risque de créer un « techno-optimisme », ou la croyance que le progrès du développement technologique peut être et sera utilisé pour le bien de l'humanité. Ce techno-optimisme pourrait de même faire pencher l'opinion publique vers des évaluations moins critiques de ces outils. Pour tirer pleinement parti des avantages potentiels de l'IA, il est essentiel de comprendre les perceptions actuelles de l'IA parmi la population canadienne afin d'établir une confiance publique stable et qualifiée dans la gouvernance et l'utilisation et le développement responsables des SIA. La section suivante présente les perceptions des personnes répondantes à l'enquête sur l'IA et la façon dont elle aura une incidence sur leur vie quotidienne en général et dans de multiples secteurs, les conditions dans lesquelles l'adoption des technologies de l'IA serait considérée comme plus digne de confiance, et les recommandations faites par les personnes participantes aux Dialogues ouverts pour modérer la tendance au techno-optimisme ou au technopessimisme.

3.2.1 Perception générale de l'IA

En ce qui concerne leur perception de l'incidence de l'IA dans son ensemble, les personnes répondantes à l'enquête nationale étaient presque sept fois plus susceptibles de dire qu'ils et elles croyaient que l'incidence de l'IA sur le Canada serait très positive plutôt que très négative, et quatre fois plus susceptibles de dire que l'incidence sur eux-mêmes serait très positive plutôt que très négative. Dans l'ensemble, parmi les groupes démographiques de l'âge, du sexe et de la géographie, les personnes répondantes qui résident en Saskatchewan et au Manitoba, les femmes et les personnes vivant au Canada plus âgés ont accordé des cotes de positivité légèrement inférieures à l'impact de l'IA sur eux personnellement. Parmi ces groupes, seuls les résidents de la Saskatchewan et du Manitoba sont moins susceptibles de juger favorablement les répercussions de l'IA sur le Canada. Dans l'ensemble, toutefois, les écarts entre les groupes démographiques ayant obtenu les notes les plus basses et la note moyenne sont d'un point ou moins sur une échelle de 10 points, ce qui se traduit par une perspective optimiste enregistrée lorsqu'on considère l'effet net de l'IA.

Pourtant, cet optimisme quant au potentiel des SIA n'est pas propre au questionnement plus généralisé présenté dans le cadre de l'enquête. Dans une enquête menée après les ateliers publics Dialogue ouvert, 74 % des personnes participantes ont indiqué qu'ils et elles pensaient que les avantages sociaux de l'IA étaient importants, tandis que 8 % seulement n'étaient pas d'accord. De même, lorsqu'on leur a demandé s'ils pensaient que le développement de l'IA était généralement inquiétant, 49 % des personnes participantes n'étaient pas d'accord, tandis que 24 % et 26 % étaient d'accord ou sans opinion respectivement.

Figure 7. Distributions des résultats de l'enquête post-délibération (Q1 + Q2) pour les ateliers avec le grand public de la série Dialogue ouvert : L'intelligence artificielle au Canada.

Figure 7 : Version textuelle
Accord avec les affirmations relatives à la perception de l'IA par les participants
Affirmation Fréquence de sélection en pourcentage
Fortement en accord D'accord En désaccord Pas du tout d'accord Neutre
Les avantages sociaux de l'IA sont importants 23 52 3 5 17
Le développement de l'IA est généralement inquiétant 13 37 19 5 5

Toutefois, pour montrer à quel point cette perception positive actuelle peut être ténue, seuls 42 % des personnes participantes ont déclaré qu'ils et elles pensaient que les avantages sociaux de l'IA l'emportaient sur ses effets négatifs, 17 % étant d'un avis contraire et 41 % étant sans opinion. Cette proportion de personnes participantes n'ayant pas d'opinion tranchée dans un sens ou dans l'autre représente une population potentiellement plus susceptible de basculer vers une opinion plus positive ou négative à la suite d'un scandale public ou d'un autre incident majeur impliquant l'IA. Toutefois, il convient d'établir une mise en garde importante au sujet de ces résultats : les résultats des enquêtes avant et après délibération ont été recueillis auprès de tous les personnes participantes en tant qu'échantillon global unique, plutôt que de les séparer selon le scénario d'utilisation sur lequel ils et elles ont délibéré. Ainsi, selon la nature du SIA présenté dans la délibération, les personnes participantes peuvent avoir évalué les questions de façon plus critique ou positive en fonction de leur cas d'utilisation particulier plutôt que de répondre à leur évaluation de l'IA en général. Plusieurs personnes participantes ont également soulevé des problèmes quant à la validité de la question, estimant que leurs réponses dépendaient de la mise en œuvre ou non de certains règlements ou d'autres mesures de gouvernance, qu'elles auraient été différentes selon le type de SIA qu'ils et elles évaluaient et qu'elles présumaient que tous les personnes participantes pensaient que l'IA devait être adoptée.

Figure 8. Distributions des résultats de l'enquête post-délibération (Q4) pour les ateliers avec le grand public de la série Dialogue ouvert : L'intelligence artificielle au Canada.

Figure 8 : Version textuelle
Accord avec les affirmations relatives à la perception de l'IA par les participants
Affirmation Fréquence de sélection en pourcentage
Fortement en accord D'accord En désaccord Pas du tout d'accord Neutre
Les avantages sociaux de l'IA l'emportent sur ses effets négatifs 7 35 14 3 41

3.2.1 Principaux points à retenir

  • Les personnes répondantes au sondage étaient généralement optimistes quant à l'incidence de l'IA sur le Canada et sur eux-mêmes. 74 % des personnes participantes aux ateliers ont déclaré être convaincus que les avantages sociaux de l'IA sont importants.
  • Le cadrage de l'IA dans différents contextes peut avoir une incidence sur la perception de l'IA par le public, puisque seuls 42 % des personnes participantes à l'atelier ont déclaré être convaincus que les avantages sociaux de l'IA l'emporteront sur ses effets négatifs.

3.2.2 Répercussions et valeur perçues de l'IA par secteur

Dans le cadre de l'enquête nationale et des ateliers Dialogue ouvert, à mesure que les discussions passaient d'une évaluation abstraite à des évaluations plus personnelles ou familières de l'utilisation des SIA, les personnes répondantes sont devenus plus modérés dans leur optimisme quant aux répercussions de l'IA. Cette modération n'est pas surprenante, car il est plus facile de réfléchir et d'évaluer de manière critique des sujets plus petits, plus familiers ou plus clairement définis. En fait, c'est en partie la raison d'être de l'utilisation de scénarios prospectifs d'utilisation de l'IA dans les délibérations des ateliers Dialogue ouvert, afin de permettre aux personnes participantes de disposer d'une base sur laquelle construire leur évaluation des dilemmes éthiques posés par des applications particulières.

Lorsque nous se concentre sur les évaluations des personnes répondantes au sujet des répercussions sectorielles perçues de l'IA, on constate des nuances dans la perception des technologies de l'IA en fonction du secteur économique ou du domaine de la vie du répondant dans lequel le SIA fonctionnerait. Plus précisément, les personnes répondantes ont le plus souvent prédit que l'IA aurait une incidence nette positive dans les secteurs de la fabrication, du transport et des banques, les scores d'impact positif les plus faibles étant enregistrés dans les secteurs des arts et de la culture et de l'application de la loi.

Figure 9. Répartition des personnes répondantes qui ont évalué les répercussions perçues de l'IA aura sur divers secteurs de l'économie canadienne (Q. Sur une échelle de 0, très négatif, à 10, très positif, comment évaluez-vous l'incidence de l'IA sur les secteurs suivants au cours des cinq prochaines années?)

Figure 9 : Version textuelle
Répercussions de l'IA sur la vie au Canada au cours des cinq prochaines années
Secteur évalué Fréquence en pourcentage, évaluation des répercussions (échelle de 0 à 10)
Favorables (7 à 10) Neutres (4 à 6) Défavorables (0 à 3) Incertain
Fabrication 65,0 20,3 6,5 8,3
Transport 55,7 26,8 7,0 10,5
Banque et finances 54,5 27,5 7,6 10,3
Soins de santé 54,3 26,1 9,0 10,5
Agriculture 51,6 28,9 7,1 12,5
Énergie et ressources naturelles 48,9 28,5 6,0 16,7
Services d'intervention d'urgence 49,3 28,2 8,3 14,2
Éducation 48,4 30,7 9,0 11,8
Douanes et contrôle des frontières 47,5 26,7 10,6 15,1
Vente au détail 46,8 32,4 9,1 11,8
Services communautaires 37,9 34,7 10,9 16,6
Médias 38,3 33,9 12,1 15,8
Travail et main-d'œuvre 42,0 32,7 15,6 9,8
Application de la loi 37,0 32,4 15,4 15,2
Arts et culture 26,1 39,1 18,3 16,6

Lorsqu'on leur demande d'évaluer les mêmes secteurs en fonction du degré de préoccupation du répondant quant aux effets négatifs de l'IA dans cet espace, les personnes répondantes se disent le plus souvent préoccupés par l'incidence de l'IA sur les secteurs de l'application de la loi et de la main-d'œuvre, et le plus souvent, ils disent ne pas être préoccupés par l'incidence de l'IA sur les secteurs des arts et de la culture, de l'agriculture et de la fabrication.

Figure 10. Répartition des personnes répondantes ayant indiqué leur degré d'inquiétude quant aux répercussions de l'IA sur divers secteurs de l'économie canadienne (Q. Sur une échelle allant de 0, pas du tout inquiet, à 10, très inquiet, comment évalueriez-vous votre inquiétude quant aux conséquences négatives possibles de l'utilisation de l'IA dans les volets suivants de la vie au Canada?

Figure 10 : Version textuelle
Préoccupation quant aux effets de l'IA sur certains aspects de la vie au Canada
Secteur évalué Fréquence en pourcentage, évaluation des préoccupations (échelle de 0 à 10)
Préoccupé (7 à 10) Moyenne (4 à 6) Pas préoccupé (0-3) Incertain
Fabrication 31,4 32,9 27,5 8,1
Transport 36,3 33,9 21,8 8,1
Banque et finances 39,2 32,0 21,6 8,2
Soins de santé 42,5 29,4 20,0 8,0
Agriculture 27,4 34,1 27,7 10,9
Énergie et ressources naturelles 32,5 32,6 24,2 10,8
Services d'intervention d'urgence 42,4 29,9 18,0 9,8
Éducation 37,8 31,6 21,2 9,3
Douanes et contrôle des frontières 40,1 31,2 19,5 9,2
Vente au détail 29,4 35,7 26,0 8,9
Services communautaires 31,1 34,7 22,3 11,9
Médias 33,8 33,5 22,0 10,6
Travail et main-d'œuvre 45,1 31,1 16,7 7,3
Application de la loi 48,4 28,4 14,1 9,2
Arts et culture 25,5 31,5 31,1 11,9

Interrogés sur leur optimisme quant aux applications ou utilisations futures de l'IA, les personnes répondantes ont le plus souvent déclaré qu'ils et elles espéraient que l'IA faciliterait la vie en améliorant la productivité et en réduisant les erreurs, puis qu'elle apporterait des améliorations dans le domaine médical et de la santé. À une question ouverte semblable concernant les sujets de préoccupation, les personnes répondantes ont indiqué qu'ils et elles sont plus préoccupés par la perte d'emplois et le fait que l'IA prenne la place de l'humain, suivis par la protection de la vie privée, la sécurité, le piratage et la perte de contrôle de l'IA et ses défaillances. Conformément à ces préoccupations, les personnes répondantes à l'enquête ont également nommé le plus souvent les gouvernements et les institutions académiques comme les acteurs qui devraient prendre la tête du développement de solutions d'IA, plus de la moitié d'entre eux classant ces deux institutions comme leur premier choix. L'enquête n'a pas permis d'analyser plus en détail les raisons pour lesquelles les personnes répondantes ont choisi les institutions gouvernementales et universitaires comme fournisseur privilégié de services d'IA; toutefois, les résultats des ateliers Dialogue ouvert indiquent que cette conclusion est motivée de manière significative par la gravité perçue des risques posés par certains SIA. Selon la nature des risques examinés, ainsi que l'intensité et la permanence du préjudice potentiel, les personnes participantes au Dialogue ouvert ont exprimé le désir que le gouvernement du Canada adopte une forme de principe de précaution dans le cas des SIA à haut risque qui présentent un risque sérieux de dommages physiques et psychologiques, ou qui causent des préjudices aux personnes et aux groupes en les privant de certains droits fondamentaux.

Le principe de précaution

Les formulations du principe de précaution peuvent être divisées en deux grands groupes : les versions argumentativeset prescriptivesdu principe. La version argumentative du principe de précaution est centrée sur les types d'arguments admissibles dans la prise de décision. Ils ne décrivent pas les actions à entreprendre, mais définissent plutôt les arguments qui sont acceptables pour évoquer une action (ou une inaction). (Sandin, Peterson, et autres, 2002)

Les versions prescriptives du principe de précaution prescrivent des actions, la plupart des versions prescriptives du principe de précaution partageant quatre composantes communes [Sandin, 1999]. Si l'on considère la formulation possible suivante du principe de précaution : Il est obligatoire de limiter, de réglementer ou de prévenir les technologies potentiellement dangereuses avant même que des preuves scientifiques ne soient établies.

Nous retrouvons quatre composantes différentes dans cette formulation, à savoir :

  1. La composante de la menace, exprimée dans l'expression « technologies potentiellement dangereuses »;
  2. La composante de l'incertitude, exprimée dans la phrase « avant même que la preuve scientifique ne soit établie »;
  3. La composante de l'action, exprimée dans la phrase « limiter, réglementer ou prévenir »;
  4. La composante de la prescription, exprimée dans l'expression « est obligatoire ».

Les deux premiers peuvent être résumés comme le déclencheur du principe de précaution, tandis que les deux derniers constituent la réponse de précaution[Ahteensuu, 2008]. La dimension d'incertitude garantit que l'action est déclenchée même en l'absence de preuves scientifiques complètes. C'est l'élément le plus caractéristique du principe. C'est ce qui distingue le principe de précaution des autres principes ou formes d'argumentation pour la protection.

Sven Ove Hansson, Philosophy of Technology and Engineering Sciences, 2009

À l'image des préoccupations exprimées lors de l'enquête nationale, les applications de maintien de l'ordre ont constitué la principale préoccupation des personnes participantes qui, au cours des neuf sessions de discussion consacrées à ce thème, ont unanimement appelé à un contrôle strict des SIA pour la surveillance de masse et la prédiction des comportements criminels et souligné la nécessité que les décisions dans ce secteur soient prises par des êtres humains et, dans certains cas, sont même allés jusqu'à suggérer leur interdiction totale.

Au-delà de l'unanimité de la réponse suggérée à une application particulière (c.-à-d. l'utilisation de l'IA pour la surveillance de masse et la justice prédictive), des préoccupations éthiques communes ont été observées dans tous les thèmes de cas d'utilisation – soins de santé, éducation, justice prédictive, services administratifs, etc. – qui démontrent les types de préoccupations qui sont au premier plan pour les gens au Canada lorsqu'il s'agit de l'IA. Il n'est peut-être pas surprenant, compte tenu de la nature de la technologie et de ses applications potentielles, que les personnes participantes au Dialogue ouvert aient nommé les préjugés et la discrimination – y compris les préoccupations soulevées au sujet de l'inclusion ou l'exclusion et de la préservation de la diversité – comme des questions éthiques principales dans les cas d'utilisation qui couvraient tous les secteurs inclus dans les ateliers. De même, le respect de la vie privée, la protection des données, la transparence et l'explicabilité sont apparus comme des préoccupations majeures dans presque tous les thèmes des cas d'utilisation. Il convient toutefois de noter que ces résultats se limitent à ce que les personnes participantes ont nommé comme étant leurs « trois principales questions éthiques » dans leurs délibérations. Par conséquent, ces thèmes peuvent avoir été discutés aussi universellement que les préjugés et la discrimination, mais ont été retranchés par rapport à d'autres préoccupations d'une manière ou d'une autre.

Aperçu des délibérations des jeunes – Préjugés et discrimination dans les soins de santé

Alors qu'ils délibéraient sur le cas d'utilisation du laboratoire médical portable, l'un des participant personnes participantes aux ateliers pour les jeunes a souligné que l'inégalité d'accès à la technologie entraînerait une discrimination sur une base géographique, rappelant en particulier une division mondiale entre le Nord et le Sud. Ils ont également mentionné d'autres types de discrimination, comme le fait de favoriser les personnes ayant des micropuces implantées, un point qui a également été souligné par les personnes participantes aux séances publiques générales. Un participant a déclaré :

« Le discours public peut être "pourquoi ne faites-vous pas cela dans l'intérêt de nous tous?". Qu'est-ce que cela dit de vous si vous vous retirez du programme, ou si vous ne pouvez pas y accéder? Est-ce que cela marginalise encore plus les gens? ».

Les jeunes personnes participantes s'inquiètent également de la discrimination fondée sur les données de santé, comme la consommation de cannabis dans les tests sanguins, ce qui rejoint des préoccupations connexes relativement à la confidentialité et la sécurité des données des utilisateurs.

Naturellement, les délibérations sur les sujets de certains cas d'utilisation ont permis d'identifier des questions éthiques uniques, comme le bien-être des animaux dans les groupes discutant de l'utilisation de l'IA dans l'optimisation des abattoirs ou l'importance de la créativité humaine qui a émergé des délibérations sur le cas d'utilisation « art humain et artiste robot ». Alors que l'omniprésence de certaines questions éthiques crée un message clair sur l'importance de répondre adéquatement à ces préoccupations au moyen d'une réglementation future ou d'autres mesures de protection, l'identification de préoccupations propres à une application souligne la valeur de l'encouragement aux consultations et aux délibérations publiques comme pratique standard dans tous les secteurs.

3.2.3 « L'humain à la barre » et autres mesures d'édification de la confiance

L'intensité du rejet de certaines applications de l'IA ne signifie toutefois pas que les personnes participantes au Dialogue ouvert n'ont pas également perçu ou envisagé les avantages potentiels qu'elle peut apporter au Canada. Les résultats de l'enquête post-délibération, qui a été fournie aux personnes participantes au Dialogue ouvert à la fin de leurs sessions de délibération, ont démontré un optimisme qualifié dans la technologie, ou plutôt les institutions et les organisations qui gouvernent, développent et déploient l'IA, à condition qu'elles soient correctement réglementées. Bien que la notion de réglementation ne soit pas définie, 71 % des personnes participantes estiment que l'on peut faire confiance à l'IA si elle est réglementée par les pouvoirs publics dans une mesure adaptée au niveau de risque de l'application.

Figure 11. Distributions des résultats de l'enquête post-délibération (Q6) pour les ateliers avec le grand public de la série Dialogue ouvert : L'intelligence artificielle au Canada.

Figure 11 : Version textuelle
 
Affirmation Fréquence de sélection en pourcentage
Fortement en accord D'accord En désaccord Pas du tout d'accord Neutre
L'IA est une technologie digne de confiance si elle est réglementée 23 47 9 3 18

Même en examinant les résultats des personnes répondantes à l'enquête nationale, malgré l'optimisme quant à l'effet général prévu de l'IA au Canada, près des deux tiers des personnes répondantes croient que l'IA a le potentiel de causer du tort à la société. L'enquête ne cherchait pas à obtenir l'opinion des personnes répondantes sur la façon dont ils et elles aimeraient voir ce risque perçu atténué; toutefois, lorsqu'on leur demande de réfléchir à la question de savoir où les humains devraient jouer un rôle dans le développement et le déploiement de l'IA, une forte majorité de personnes vivant au Canada disent que la participation humaine est nécessaire dans une variété de volets liés au développement de l'IA. Environ neuf personnes vivant au Canada sur dix ont indiqué qu'ils et elles croyaient que les humains avaient un rôle à jouer dans toutes les étapes du développement de l'IA; les résultats sont les mêmes pour tous les groupes démographiques évalués lorsqu'on leur a demandé de répondre à la question de savoir si l'intervention humaine était nécessaire, non nécessaire ou s'ils ou elles étaient incertains.

Cette forme qualifiée de confiance, fondée sur l'exigence de la participation d'un être humain à toutes les étapes du développement de l'IA, a en outre été l'une des motivations des personnes participantes au Dialogue ouvert à s'interroger sur l'utilité ou la pertinence de développer des SIA dans certains contextes où le public s'attend à une intervention et une interaction humaine en cas de résultat non souhaité. Les personnes participantes ont particulièrement mis en garde contre une tendance perçue de technosolutionniste dans l'IA, c'est-à-dire la tendance à chercher des solutions techniques d'IA à des problèmes sociaux et politiques complexes. Par exemple, les personnes participantes étaient sceptiques quant à la pertinence des systèmes d'IA dans le contexte de la justice et de l'application de la loi. Au-delà des préoccupations relatives à la précision des systèmes d'IA, les personnes participantes craignent une surévaluation de leurs capacités et leurs décisions. D'une part, étant donné l'adoption rapide de l'IA par les organismes chargés de l'application de la loi, les personnes participantes ont estimé qu'il y avait une précipitation à utiliser cette technologie dans tous les domaines sans réflexion appropriée. D'autre part, ils et elles considèrent que lorsqu'un système d'IA est déployé, les gens auront tendance à suivre la recommandation du système plutôt que leur propre jugement, même s'ils et elles ne sont pas d'accord. Sur ce point précis, un participant a fait remarquer qu'il « serait contraire à l'éthique d'utiliser cet outil pour prendre des décisions importantes sur la vie des gens si le processus de décision et le raisonnement qui sous-tend le résultat ne sont pas clairs et compréhensibles par [l'organisme qui régit l'algorithme] ». Enfin, pour en venir directement à la question de la pertinence d'un SIA dans ce contexte, les personnes participantes ont noté que le SIA dans le scénario d'utilisation ne s'attaquait pas à la cause profonde du problème de la criminalité. Certains personnes participantes ont proposé qu'un SIA axé sur l'optimisation des équipes d'intervention en cas de crise, sur l'aide psychologique et thérapeutique ou sur les pratiques de prévention et de réduction des méfaits soit privilégié au lieu d'améliorer les techniques policières.

« Au-delà des inquiétudes sur la précision des systèmes d'IA, les personnes participantes craignent une surévaluation de leurs capacités et leurs décisions. »

La suggestion qui est ressortie de ces discussions est que les développeurs et développeuses devraient réfléchir à la pertinence de développer un SIA pour aider à résoudre un problème socioéconomique, et que les institutions qui déploient ces solutions devraient elles-mêmes réfléchir à la possibilité de les financer et de donner la priorité à ces solutions techniques. Les personnes participantes ont souvent suggéré que les développeurs et les ingénieurs et ingénieures reçoivent une formation en éthique afin que l'éthique soit prise en compte dès la conception du SIA, et pas seulement au moment du déploiement, et qu'une prise en compte plus consciente des besoins de la communauté soit intégrée tout au long du processus de conception et de développement. Ce désir d'une plus grande interaction avec les développeurs de SIA offre une occasion d'échange de connaissances entre les experts techniques et le grand public, ce qui permet à la fois d'augmenter la confiance du public dans les SIA et de fournir aux équipes techniques une compréhension plus solide des besoins et des exigences des utilisateurs – ce qui se traduit finalement par des projets plus réussis.

Analogies dans le développement de logiciels : Processus de collecte des exigences

Les recommandations des personnes participantes selon lesquelles les développeurs devraient interagir de manière holistique avec les communautés lors du développement des SIA correspondent à une pratique existante en ingénierie logicielle connue sous le nom de « collecte des exigences » ou « analyse des exigences ». En effet, la collecte des exigences est le processus de génération d'une liste d'exigences pour un projet de logiciel qui sera utilisée comme base pour la définition formelle de ce qu'est le projet. Il peut s'agir des capacités du logiciel et de considérations opérationnelles comme la sécurité, la gestion des erreurs et la conformité juridique. Les exigences sont sollicitées auprès des différentes parties prenantes d'un système (comme les clients, les utilisateurs, les fournisseurs et le personnel informatique). Le processus de collecte des exigences est un élément fondamental d'un bon développement logiciel, car il permet de fixer des objectifs clairs pour les développeurs. Ces exigences sont fréquemment révisées et modifiées tout au long du cycle de vie du projet.

Les techniques et pratiques standard utilisées dans la collecte des exigences ont une relation claire avec le type d'échanges entre experts et public décrit par les personnes participantes au Dialogue ouvert. Par exemple, dans le cadre du processus, les développeurs peuvent créer un diagramme de scénarios d'utilisation, comprenant toutes les étapes imaginées dans un nouveau processus. Ces scénarios d'utilisation sont étayés par un dialogue avec les parties prenantes au moyen d'entretiens, d'enquêtes, d'observations des utilisateurs, de groupes de discussion et d'ateliers.

Il est clair que des capacités de facilitation du dialogue avec le public devraient déjà exister dans les écosystèmes de développement de logiciels. Ces processus pourraient être facilement adaptés pour créer un lien plus durable et holistique avec les communautés en élargissant la définition des parties prenantes des systèmes d'IA et la fréquence à laquelle leurs commentaires sont recueillis.

Wiegers, K and J. Beatty, Software Requirements, 3e ed.  (2013)

3.2.3 Principaux points à retenir

  • Soixante-et-onze pour cent des personnes participantes à l'atelier conviennent que l'on peut faire confiance à l'IA si elle est réglementée par des autorités publiques en fonction de son degré de risque. Neuf personnes interrogées sur dix pensent que les humains ont un rôle à jouer à tous les stades du développement de l'IA.
  • Les personnes participantes à l'atelier ont mis en garde contre l'application de l'IA sans se demander s'il s'agit du meilleur outil pour résoudre des problèmes sociaux et politiques complexes (technosolutionniste), et ont fréquemment suggéré que les ingénieurs et les développeurs de l'IA reçoivent une formation en éthique.

3.3 Perspectives d'avenir – Dans quelle mesure les personnes vivant au Canada veulent en savoir plus sur l'IA?

Compte tenu de la proéminence et de l'importance croissantes de l'IA dans le discours public, les personnes répondantes à l'enquête nationale, lorsqu'on leur a posé la question, ont indiqué en très grande majorité qu'ils et elles souhaitaient en apprendre davantage sur l'IA. Près des trois quarts des personnes vivant au Canada interrogés ont déclaré qu'ils et elles étaient au moins plutôt intéressés à en apprendre davantage sur le sujet, les hommes et les résidents de l'Ontario étant les plus intéressés. Cette disparité, bien que légère, dans l'intérêt démographique à saisir les occasions d'en apprendre davantage sur l'IA est appuyée par des recherches antérieures identifiant le rôle que joue le sexe dans la formation des perceptions. La recherche a montré que « les hommes sont beaucoup plus susceptibles que les femmes de bricoler et de programmer des appareils d'IA à la maison et que, par rapport aux femmes, les hommes perçoivent leur bricolage comme étant plus réussiNote de bas de page 11 », ce qui suggère l'importance de tenir compte des champs d'intérêt et de l'identité des apprenants lors de la conception de programmes de sensibilisation et de vulgarisation.

Lorsqu'on leur a demandé de préciser où il faudrait mettre en place des programmes d'éducation sur l'IA et quelles formes cet apprentissage devrait prendre, les personnes participantes au Dialogue ouvert ont suggéré que les fondements de l'IA soient enseignés à l'école primaire, et qu'une introduction au développement des compétences nécessaires pour être capable d'identifier les questions sociales et éthiques de l'IA soit introduite dans les niveaux scolaires ultérieurs. En ce qui concerne l'enseignement de l'IA, les personnes répondantes ont indiqué qu'une compréhension fondamentale du fonctionnement de la technologie sous-tend souvent la compréhension des répercussions éventuelles des différentes applications de l'IA – ce qui est la connaissance essentielle pour pouvoir évaluer comment cette technologie est liée à une variété de questions sociales et politiques.

Cependant, les personnes participantes ont insisté sur le fait que l'éducation à l'IA ne devrait pas se limiter aux établissements scolaires, qu'ils et elles soient primaires, secondaires, postsecondaires ou autres. Les personnes participantes ont été unanimes à souligner que l'éducation à l'IA responsable n'est pas seulement une question d'école ou de lieu de travail, mais plus largement une question communautaire, en particulier pour les populations éloignées des zones urbaines et pour les populations défavorisées ou marginalisées dans les villes. Par conséquent, pour que les personnes participantes au Dialogue ouvert considèrent qu'une campagne de littératie et de sensibilisation du public à l'IA est un succès, elle doit favoriser l'inclusion de toutes les composantes de la population vivant au Canada. Cette proposition d'une campagne de sensibilisation inclusive à l'échelle du Canada a été constamment formulée dans les ateliers et a incorporé diversement une gamme de mesures potentielles, notamment :

  1. Mise à disposition d'informations sur les réseaux sociaux et autres médias plus traditionnels, à l'instar des campagnes de protection de l'environnement ou de sensibilisation à la santé publique;
  2. Élaboration et mise à disposition d'un cours en ligne sur les fondements techniques et opérationnels de l'IA, ainsi que sur les défis éthiques, sociaux et économiques de son déploiement;
  3. Augmentation de la disponibilité aux consultations délibératives comme moyen de sensibilisation et d'éducation à l'IA.

« Elements of AI », un modèle pour le Canada?

L'objectif du cours « Elements of AI », mis au point par l'Université d'Helsinki et la société Reaktor, était initialement de démystifier l'IA en enseignant les bases de l'IA à au moins 1 % de la population européenne. Le cours est disponible gratuitement en ligne, et s'il n'était disponible qu'en anglais dans sa phase de lancement, il est désormais disponible en plusieurs langues, dont le français. « Elements of AI » comprend six chapitres couvrant différentes dimensions de la culture numérique axée sur l'IA, notamment ce qu'est l'IA, la façon dont elle règle les problèmes, la façon dont elle peut être appliquée et les défis sociétaux de son déploiement. Les cours en ligne sont un modèle de diffusion populaire et accessible pour le matériel d'apprentissage, et « Elements of AI » a touché des personnes de plus de 170 pays, avec plus de 700 000 étudiants inscrits à ce jour.

Il y a trois obstacles à la diffusion qu'il faut garder à l'esprit lorsqu'on envisage sa transférabilité au contexte canadien :

  1. Même simplifié, le matériel de cours reste assez complexe pour la plupart des gens. Les personnes participantes au Dialogue ouvert ont insisté à plusieurs reprises sur le fait que la sensibilisation et l'éducation à l'IA devaient être accessibles dans un langage simple.
  2. Le cours prend beaucoup de temps : on estime qu'il faut environ 50 heures pour le terminer. Il s'agit d'un facteur dissuasif pour les personnes qui travaillent au Canada et celles qui ont des responsabilités familiales.
  3. Étant un cours numérique, l'accès au matériel nécessite une connexion Internet stable et à haut débit. Bien que l'accès à la large bande et aux téléphones cellulaires se développe dans tout le pays, les habitants de nombreuses régions ne disposent toujours pas de connexions fiables, ce qui empêche leur participation au cours.

Ces obstacles montrent que même si l'offre publique d'un cours en ligne présente de nombreux avantages, il reste des défis importants qui pourraient avoir une incidence sur l'efficacité des ressources éducatives en ligne sur l'IA.

Reaktor et Université d'Helsinki, Elements of AI.

Un nombre surprenant de suggestions faites au cours du Dialogue ouvert font référence à la consultation des parties prenantes et du public, à la fois comme méthode de gouvernance appropriée et comme méthode de promotion d'une compréhension plus profonde du développement responsable et de l'utilisation éthique de l'IA. Ce soutien enthousiaste à la consultation délibérative est ancré dans l'idéal démocratique de la participation au processus d'élaboration des politiques. Les personnes vivant au Canada manifestent un vif désir d'être consultés avant l'élaboration de politiques publiques sur l'IA, en partie par crainte de perdre le contrôle face à l'automatisation croissante des processus administratifs, et en partie en vertu du principe selon lequel les personnes touchées par les politiques publiques devraient avoir voix au chapitre. Conformément aux objectifs des ateliers de dialogue ouvert, ces consultations publiques devraient viser à inclure la plus grande diversité de personnes participantes et de groupes : soit toutes les personnes touchées par le déploiement de l'IA, et non seulement des experts ou des personnes ayant déjà des connaissances. Les raisons d'inclure la consultation publique sont centrées sur sa fonctionnalité en tant que méthode d'identification et de traitement des préoccupations structurelles fondées, tout en sensibilisant les personnes participantes à d'autres perspectives et en responsabilisant les utilisateurs par une meilleure compréhension des répercussions des SIA.

Or, cette conviction de concevoir et d'accueillir davantage de délibérations se heurte à l'obstacle que rencontrent de nombreuses consultations publiques – en particulier celles qui sont axées sur la science ou la technologie. Sans connaissances préalables, il est difficile d'avoir des échanges fructueux. Sans connaissance préalable, les gens se sentent non qualifiés et s'excluent eux-mêmes, ce qui fait que le nombre d'experts ou de parties déjà intéressées participant aux consultations est nettement plus élevé. Cette auto-exclusion, combinée à d'autres facteurs systémiques d'exclusion, renforce le phénomène de marginalisation dans les consultations. Afin d'atténuer l'auto-exclusion des personnes participantes potentiels, le Groupe de travail a mis à disposition un Guide de délibération sur l'IANote de bas de page 12 qui fournit une compréhension commune de l'IA dans un langage simple, y compris les notions de base de l'éthique et spécifiquement de l'éthique de l'IA, ainsi que les règles et les objectifs d'une délibération inclusive. Cependant, comme nous le verrons dans la réflexion sur les personnes avec lesquelles nous avons pu nous engager dans nos consultations, ce guide s'est avéré inefficace pour susciter l'engagement des personnes sans formation universitaire ou intérêt préexistant pour l'IA. Cela indique que les mesures d'intervention, d'éducation et de renforcement de la confiance doivent intervenir tôt dans le processus d'engagement et sont essentielles pour obtenir la diversité de personnes participantes souhaitée.

Il est essentiel de veiller à ce que toutes les communautés du Canada soient entendues pour instaurer la confiance dans les valeurs et les principes qui guident le développement, l'utilisation et la gouvernance de l'IA. Une consultation représentative permet également de s'assurer que les mesures prises reflètent la totalité du Canada. Pour ce faire, il est nécessaire de mettre en place des méthodologies ciblées pour cerner et rejoindre les populations, de co-développer du matériel de délibération et de réfléchir consciemment aux priorités, aux préoccupations et aux réalités vécues des communautés qu'on consulte. Tout comme on s'attend à ce que les solutions d'IA ne soient pas « universelles »; on ne peut pas non plus concevoir les efforts visant à mobiliser les communautés sur la façon d'améliorer et de mieux profiter de ces systèmes en tenant compte d'une seule identité et expérience.

3.3 Principaux points à retenir

  • Près des trois quarts des personnes interrogées ont déclaré vouloir en savoir plus sur l'IA.
  • Les personnes participantes à l'atelier ont suggéré que les fondements de l'IA soient enseignés dans les écoles, y compris les écoles primaires, mais ont également convenu à l'unanimité que l'éducation à l'IA ne devait pas se limiter aux écoles. Ils ont également suggéré de sensibiliser les populations rurales et celles des milieux urbains défavorisées ou marginalisées, et ont appelé à la mise en place de campagnes de sensibilisation du public et de ressources éducatives plus librement accessibles sur l'IA, comme des cours en ligne.
  • La population canadienne souhaite une consultation délibérée et soutenue sur le sujet de l'IA, en s'efforçant tout particulièrement de toucher les diverses communautés du pays.

3.4 Obstacles à la participation : Qui avons-nous entendu (et n'avons pas entendu)?

Le Conseil consultatif en matière d'IA du gouvernement du Canada a confié au Groupe de travail le mandat de concevoir et d'engager un dialogue sur l'IA et de définir les méthodes permettant une sensibilisation soutenue et efficace du public canadien. Initialement prévu en personne, la pandémie de COVID-19 a exigé que la majeure partie de ce travail soit effectuée en ligne, ce qui a modifié le format de l'approche de consultation et des méthodes d'enquête proposées, et a nécessité une navigation attentive des nouveaux défis et réalités posés par la transition vers des méthodes exclusivement numériques. Bien qu'encouragé par le nombre de personnes au Canada qui ont participé, il est également important de réfléchir aux obstacles rencontrés pour rejoindre les diverses communautés et à la façon dont ces obstacles ont affecté les personnes en mesure de participer à cette recherche. Dans cette section, nous examinerons brièvement les données démographiques des personnes participantes à l'enquête nationale et aux ateliers de Dialogue ouvert, avant d'approfondir l'analyse de certains des obstacles rencontrés lors du recrutement des personnes participantes aux deux étapes de la recherche. Enfin, elle se terminera par une note sur la valeur des initiatives locales dans la promotion des seuils généraux de sensibilisation à l'IA à l'échelle nationale.

3.4.1 Données démographiques de l'enquête

Suite à l'élaboration d'un premier projet de questionnaire par le groupe de travail, Nanos Research a été retenu par Innovation, Science et Développement économique (ISDE) pour co-concevoir et réaliser l'itération définitive de l'enquête. Nanos Research a réalisé une enquête en ligne, en anglais et en français, auprès de 1 222 personnes vivant au Canada âgés de 18 ans ou plus, entre les 23 et 24 novembre 2020, à partir d'un panel non probabiliste. Cette option a été délimitée dès le départ pour se concentrer d'une manière particulière, compte tenu du temps, de l'ampleur et des ressources. Par conséquent, l'échantillonnage ciblé de la population pour la diversité ethnoculturelle et générationnelle, les peuples autochtones et les personnes handicapées, ainsi que les méthodes hors ligne comme la réalisation d'un sondage téléphonique, dépassaient le cadre des premières démarches de recherche.

L'échantillon comprend des données démographiques sur le sexe (limité aux hommes, femmes et personnes non binaires), l'âge et la géographie, validées par le code postal à six chiffres des répondants. Les résultats ont été vérifiés statistiquement et pondérés par âge et par sexe à l'aide des dernières données du recensement, et l'échantillon est stratifié géographiquement pour être représentatif du Canada. Outre l'âge, le sexe et la région, des renseignements démographiques sur le niveau de scolarité, le revenu et l'identité ethnoculturelle ont été recueillis, mais le nombre de réponses n'était pas suffisant pour affecter les résultats définitifs. De plus, en raison des problèmes de consentement parental, ainsi que du temps et des ressources personnelles nécessaires à la conception et à la tenue de plus d'une enquête, il a été décidé de limiter le sondage aux personnes âgées de 18 ans et plus.

Une ventilation complète de la population interrogée se trouve à l'annexe A du présent rapport.

3.4.2 Données démographiques sur les ateliers Dialogue ouvert

Les ateliers de dialogue ouvert ont été divisés en deux types d'ateliers en fonction de l'âge du public visé : les ateliers destinés au grand public et ceux destinés aux jeunes. Un premier travail visant à établir la portée a été entrepris afin de déterminer les ressources, les exigences et les pratiques exemplaires nécessaires à l'élaboration et à la tenue d'ateliers axés sur les Autochtones. Nous avons élaboré un chemin critique pour la mobilisation des organismes dirigeants nationaux, des organisations dirigées par des Autochtones et d'autres partenaires communautaires qui travaillent activement et étroitement avec les communautés autochtones, en nous appuyant sur la contribution généreuse et les conseils des dirigeants communautaires et des personnes qui ont l'expérience du travail de consultation. Toutefois, la décision a été prise de mettre l'accent sur l'engagement des Autochtones comme élément central de la deuxième phase de recherche, qui devrait avoir lieu en 2023. En raison de la diversité des contraintes démographiques, des formations de consultation et des méthodes de recrutement des personnes participantes ces deux types d'ateliers seront abordés séparément.

3.4.2.a Ateliers destinés au grand public

Les ateliers Dialogue ouvert destinés au grand public se sont déroulés du 30 mars au 13 mai sous la forme de vidéoconférences virtuelles dans tout le Canada, à la fois dans le cadre d'ateliers ciblés par région – pour tenir compte des différences de fuseaux horaires – et d'ateliers nationaux ultérieurs qui se sont déroulés en anglais et en français. Au cours des 13 ateliers, 288 personnes de six provinces différentes (Ontario, Québec, Colombie-Britannique, Alberta, Nouveau-Brunswick et Saskatchewan) ont participé, sur un total de 750 inscriptions.

Les statistiques concernant les données démographiques des personnes participantes ont été recueillies auprès de deux sources différentes :

  • Inscription en ligne : Les personnes participantes devaient indiquer leur code postal et leur ville d'origine lors de leur inscription aux ateliers.
  • Enquête en ligne : Les personnes participantes ont été invités à remplir une enquête en ligne volontaire après les délibérations. Ces données sont plus détaillées (âge, sexe et éducation), mais moins représentatives, puisque seuls 128 personnes participantes (29 %) ont répondu à l'enquête.

Parmi les personnes participantes qui ont fourni des informations démographiques, 57 % s'identifient comme des femmes, 39 % comme des hommes, 2 % comme des homosexuels et 1 % comme des transsexuels. Bien que les ateliers aient enregistré un taux de participation élevé parmi les personnes âgées de 18-44 ans, nous avons pu atteindre des personnes de toutes les tranches d'âge. Il est également important de souligner que parmi les personnes participantes adultes, 91 % ont déclaré avoir obtenu au moins un diplôme universitaire, ce qui est nettement supérieur à la population actuelle du Canada ayant fait des études supérieures. Une seule personne parmi les personnes participantes n'avait pas de diplôme universitaire ou collégial.

Des invitations à la sensibilisation ont été distribuées à une liste de plus de 350 organisations sociales communautaires à travers le pays, compilée par les membres du groupe de travail et avec la contribution des équipes d'ISDE engagées dans diverses activités de relations externes, y compris les bureaux régionaux d'ISDE. Ces invitations encourageaient les organisations à partager les informations relatives à l'inscription avec leurs membres dans le but de recruter des personnes participantes qui, normalement, ne font pas partie des réseaux d'intervenants habituels relativement à l'IA. Cette sensibilisation directe a été complétée par des actions de sensibilisation et de publicité sur les plates-formes de réseaux sociaux (LinkedIn, Facebook, Instagram et Twitter) par les membres du Conseil consultatif, du Groupe de travail, d'ISDE et de l'ICRA, ainsi que par un communiqué de presse traditionnel d'ISDE et une publicité numérique de l'ICRA pour faire connaître les consultations. Enfin, pour favoriser la participation aux ateliers en français, l'Observatoire international sur les impacts sociétaux de l'IA et du numérique (OBVIA) au Québec a fait de la publicité auprès de ses membres et a été l'hôte de l'un des ateliers en français.

3.4.2.b Ateliers pour les jeunes

Contrairement aux ateliers grand public, les ateliers pour les jeunes de Dialogue ouvert ont été organisés directement avec les enseignantes et enseignants intéressés qui ont inscrit toute leur classe pour y participer en lieu et place de leurs activités habituelles. Dans le cadre de 6 ateliers – 5 en français et 1 en anglais – 149 élèves du secondaire ont participé à des séances de délibération abrégées, ajustées conformément aux scénarios d'utilisation appropriés et la durée de la séance (les ateliers devaient s'inscrire dans la durée standard d'une classe). Les séances ont eu lieu principalement à Montréal et ont intégré un nombre important de participantes, trois des ateliers ayant été organisés par une école secondaire réservée aux filles. Le recrutement pour les séances destinées aux jeunes a été soutenu par les membres du groupe de travail de Let's Talk Science et Kids Code Jeunesse respectivement.

Une ventilation complète de la population consultée dans le cadre des ateliers généraux et des ateliers pour les jeunes se trouve dans le rapport final Dialogue ouvert : L'intelligence artificielle au Canada.

3.4.3 Obstacles à la participation rencontrés lors de notre consultation

En réfléchissant aux succès et aux difficultés des activités d'engagement que le Groupe de travail a entreprises dans le cadre de cette recherche, on constate que le Groupe de travail et le public ont dû faire face à plusieurs obstacles ou limitations pour combler l'écart et atteindre l'inclusion et la diversité souhaitées dans notre recherche. Bien que cela ne représente en aucun cas la totalité des facteurs qui empêchent diverses communautés et personnes de participer de manière égale aux activités de consultation, la liste suivante donne un aperçu de certains des défis rencontrés, énumérés sans ordre particulier d'importance.

Accessibilité : La capacité d'adapter suffisamment la recherche pour répondre aux besoins des personnes handicapées a été affectée par les limitations inhérentes aux outils numériques actuels. La plate-forme Zoom utilisée pour héberger les délibérations a permis le sous-titrage automatisé et des animateurs étaient disponibles pour lire le texte à l'écran pour les personnes participantes non-voyantes ou atteintes de cécité; toutefois, ces deux outils n'ont pas permis d'offrir une expérience aussi fluide aux personnes participantes qui avaient besoin de ces adaptations. De même, l'enquête ne comprenait pas de méthodes de participation de rechange, comme les réponses par téléphone, ce qui empêchait la participation des personnes ayant des déficiences visuelles.

Infrastructure numérique : De nouvelles données de l'Autorité canadienne pour les enregistrements Internet (CIRA) suggèrent qu'entre le début de la pandémie en mars 2020 et mars 2021, la vitesse médiane de téléchargement Internet dans les zones rurales s'est améliorée à un rythme beaucoup plus lent que dans les centres urbainsNote de bas de page 13. Toutes les activités d'engagement ont nécessité au minimum la capacité de se connecter à l'Internet. Le format de vidéoconférence des délibérations du dialogue ouvert n'a pu être pleinement expérimenté qu'en l'absence de perturbations importantes ou de risque de déconnexion. Bien qu'une ligne de téléconférence ait été disponible, cela a empêché les personnes participantes de participer sur un pied d'égalité avec les personnes participantes devant la caméra, notamment en leur interdisant de remplir les enquêtes avant et après les délibérations.

Engagement en temps : Les ateliers de dialogue ouvert ont nécessité un engagement de trois heures de la part des personnes participantes. Pour les personnes dont la participation n'était pas soutenue par leur lieu de travail, l'obligation de participer en dehors de la journée de travail normale, en lieu et place des heures de travail rémunérées, ou pendant la fin de semaine, a augmenté le coût économique de la participation.

Priorités concurrentes en matière de soins : Les membres du public qui s'occupent d'enfants ou d'autres personnes peuvent être incapables de s'engager dans une période de temps ininterrompue suffisante pour participer à un atelier complet, en particulier dans le cas de restrictions d'accès qui limitent l'espace personnel disponible.

Langues : L'enquête et les ateliers de dialogue ouvert ont été menés en français ou en anglais. Cela comprend le matériel éducatif supplémentaire fourni aux personnes participantes aux ateliers, comme le Guide de délibération. Ainsi, les populations comme les nouveaux arrivants, les résidents permanents ou d'autres personnes au Canada qui sont moins à l'aise de participer à des délibérations techniques ou prolongées ou à des conférences dans l'une ou l'autre des langues officielles du Canada seraient plus susceptibles de s'exclure de la participation.

Ressources : Lors du lancement et de la conception de l'enquête nationale, l'accent a d'abord été mis sur un vaste éventail de données utiles. Cela dit, l'absence de ressources consacrées à l'accessibilité et à l'inclusion des populations ciblées a limité les méthodes de distribution et de sur-échantillonnage des populations susceptibles d'être insuffisamment prises en compte dans les résultats. Ainsi, les communautés hors ligne ou celles dont la connectivité est limitée n'ont pas pu participer au travail d'enquête et que certains types de diversité démographique (c.-à-d. la diversité ethnoculturelle) n'ont pu être saisis que de manière incidente, sans garantie de données suffisantes pour s'engager dans une analyse comparative.

Partenaires communautaires : De la même manière que l'enquête ne disposait pas de méthodes de rechange pour joindre les populations hors ligne, l'absence de mobilisation précoce des partenaires communautaires (que ce soit sur une base contractuelle ou volontaire) a empêché l'inclusion d'une population plus diverse et représentative dans les ateliers Dialogue ouvert.

Il est important de rappeler qu'en plus des façons habituelles dont les consultations ont été liées par les limites imposées par la pandémie de COVID-19, les délibérations publiques ont été menées pendant la « troisième vague » de COVID-19 du Canada. À ce titre, de nombreuses organisations, communautés et personnes s'efforçaient de répondre aux stress et aux conditions de la pandémie, y compris la réintroduction des restrictions de fermeture dans certaines juridictions. Ces contraintes, bien qu'elles ne soient pas propres à cette consultation particulière, ne doivent pas être sous-estimées en raison de l'incidence qu'elles peuvent raisonnablement avoir sur la réduction du taux de participation global.

Les défis de la mobilisation liés à la COVID-19 – Consultation publique sur la stratégie d'IA de l'Écosse

La pandémie de COVID-19 obligeant les chercheurs à faire participer le public en ligne, l'équipe de recherche a dû adapter la conception et le format initial des ateliers, non seulement pour assurer une certaine souplesse, mais aussi pour susciter suffisamment d'intérêt et d'engagement pour ne pas submerger les personnes qui passent déjà une grande partie de leur journée en ligne. En fin de compte, les consultations ont consisté en 15 ateliers – avec 49 personnes participantes représentant un large éventail de groupes d'âge, de compétences, de niveaux d'éducation et de lieux géographiques.

En prévision du fait que le passage à la diffusion en ligne introduirait des obstacles supplémentaires au recrutement et à la participation, une compensation financière a été offerte pour le temps des personnes participantes (60 £ par famille, ou 20 £ par individu) et un soutien numérique sous la forme d'appels téléphoniques et de courriels pour aider les personnes ayant des besoins techniques. Malgré ces aménagements, il était évident que la fracture numérique restait un obstacle et que les personnes participantes devaient avoir accès à un appareil et à une connexion Internet pour participer.

De la même manière que pour le Dialogue ouvert, un appel à participation a été diffusé par les réseaux locaux et de la société civile existants et par les réseaux sociaux (y compris la publicité payante). Les organisations et les groupes locaux ont été directement joints (par courriel ou par téléphone) pour les informer de l'appel à personnes participantes et leur demander de le partager avec leurs réseaux. Bien que ces groupes aient manifesté un grand intérêt et un grand soutien avant la mise en place des restrictions liées à la COVID-19, les chercheurs ont eu du mal à joindre de nouveau ces personnes participantes alors les organisations de la société civile et du secteur public étaient fermées ou avaient redéfini leurs priorités en matière d'intervention d'urgence. Ainsi, l'équipe de recherche a donné la priorité aux candidats qui avaient déjà exprimé leur intérêt (par l'intermédiaire du site Web) pour les ateliers en personne, puis a identifié les groupes qui n'étaient pas représentés.

The AI Of The Possible: Developing Scotland's Artificial Intelligence (AI) Strategy, Final Consultation Report (septembre 2020)

Enfin, il faut reconnaître qu'un engagement plus poussé auprès des groupes dignes d'équité, y compris les communautés autochtones, était un objectif non atteint de cette recherche initiale. Bien que des efforts aient été déployés pour réaliser des ateliers destinés aux Autochtones, l'absence de ressources suffisantes, de temps et de relations préétablies avec les communautés a contribué à l'impossibilité d'organiser de tels ateliers. Cette expérience a permis de tirer une leçon importante sur le rôle de l'établissement de relations conscientes et continues avec les communautés autochtones comme condition préalable à une consultation réussie. Les futurs travaux entrepris dans ce domaine, que ce soit par le groupe de travail ou par d'autres organisations effectuant des travaux semblables, devraient tirer les leçons des lacunes de cette recherche et comprendre l'investissement de temps, de ressources et d'efforts dès le début pour comprendre les besoins des communautés et s'assurer que les activités de consultation potentielles sont à la fois réciproquement bénéfiques et en harmonie avec le processus plus large de réconciliation au Canada.

3.4 Principaux points à retenir

Cette recherche s'est heurtée à un certain nombre d'obstacles et de limites qui ont entravé sa capacité à atteindre un ensemble vraiment diversifié de personnes au Canada, notamment :

  • Le champ d'application initial a empêché l'utilisation d'un échantillonnage ciblé de la population dans l'enquête nationale. Pour cette raison, l'enquête a tenu compte de la diversité des sexes, de l'âge (pour les personnes participantes de plus de 18 ans) et de la diversité géographique, mais pas du revenu, de l'éducation ou de la diversité ethnoculturelle. En raison de problèmes de consentement parental, l'enquête n'a pas touché les personnes âgées de moins de 18 ans.
  • Parmi les personnes participantes à l'atelier, 91 % se sont identifiés comme ayant au moins un diplôme universitaire, une proportion considérablement plus élevée que la population réelle au Canada.
  • Les séances pour les jeunes comprenaient des classes entières des écoles participantes, ce qui a limité la diversité géographique et de genre de ces séances.
  • Les activités de consultation ont eu lieu principalement sur des plateformes numériques et n'ont pas inclus d'autres méthodes de livraison, comme le téléphone, ce qui a limité la participation de certaines personnes au Canada, comme celles ayant une déficience visuelle ou un accès limité à l'infrastructure à large bande. Elles ont également pris beaucoup de temps, ce qui a limité la participation des personnes ayant des responsabilités de soins ou des emplois de jour.
  • Les futurs travaux entrepris dans ce domaine doivent accorder la priorité à la mobilisation des communautés et des organisations autochtones. Cette mobilisation nécessite des investissements appropriés en temps, en ressources et en efforts dès le début afin de comprendre les besoins de la communauté.

3.4.4 Un mot sur les approches locales des initiatives de sensibilisation à l'IA

En réfléchissant à la manière dont les futures initiatives d'engagement peuvent être mieux construites pour améliorer l'accès et promouvoir une plus grande diversité parmi les personnes participantes, il convient de discuter brièvement du mérite de s'appuyer sur les motivations individuelles et communautaires existantes proposées par les personnes participantes au dialogue ouvert. Par exemple, en réfléchissant aux défis du transport autonome dans les villes, les personnes participantes aux ateliers ont souligné que la sensibilisation à l'IA responsable nécessite une approche locale qui invite les collectivités à réfléchir aux effets du déploiement de SIA sur leur environnement immédiat. La valeur de l'habilitation des décideurs locaux et des membres de la communauté à traiter les SIA qui ont un effet particulier sur leurs communautés, connue sous le nom de « AI localism », donne un sentiment de pertinence et d'immédiateté à l'engagement, et contribue aux efforts globaux pour mener des consultations plus exhaustives sur la conscientisation à l'IA.

AI localism

« "AI localism", un terme inventé par Stefaan Verhulst et Mona Sloane, désigne les mesures prises par les décideurs locaux pour aborder l'utilisation de l'IA dans une ville ou une communauté. Le concept de l'AI localism est souvent apparu en raison des lacunes laissées par des cadres de gouvernance étatiques, nationaux ou mondiaux incomplets. L'intelligence artificielle est là, et elle est là pour de bon. Au niveau le plus élémentaire, l'IA désigne l'application d'algorithmes (autoapprenants) à de grands ensembles de données. Depuis des années, l'IA suscite à la fois la crainte et l'excitation, mais son incidence définitive sera déterminée par nous et les cadres de gouvernance que nous construisons.

L'AI localism offre à la fois l'immédiateté et la proximité. Comme elle est gérée dans des régions géographiques étroitement définies, elle permet aux décideurs de mieux comprendre les compromis à faire. En calibrant les algorithmes et les politiques d'IA en fonction des conditions locales, les décideurs ont une meilleure chance de créer des boucles de rétroaction positives qui se traduiront par une plus grande efficacité et une plus grande imputabilité. »

The GovLab, AI localism

4. Recommandations 

Le groupe de travail reconnaît que la sensibilisation du public à l'IA ne consiste pas seulement à développer la littératie en matière d'IA, mais aussi à améliorer la relation entre le gouvernement et les citoyens autour de l'IA afin de mieux comprendre le sentiment du public à l'égard de l'IA et de soutenir le développement d'un avenir responsable en matière d'IA. Le Canada possède l'expertise et plusieurs des piliers fondamentaux pour être un chef de file dans l'édification d'une population informée et engagée autour de notre vision commune d'une IA centrée sur l'humain et fondée sur les droits de la personne, l'inclusion, la diversité, l'équité, l'innovation et la croissance économique. Cependant, pour poursuivre sur cette lancée, une action immédiate et concertée est nécessaire pour poursuivre et élargir l'engagement initié par cette recherche.

Afin de promouvoir une consultation plus complète et coordonnée du public canadien sur le développement, l'utilisation et la gouvernance des technologies de l'IA, le Groupe de travail envisage un ensemble de programmes et d'initiatives interdépendants qui soutiennent des méthodes inclusives pour une sensibilisation soutenue et efficace du public à l'IA. Le présent rapport résume les recherches réalisées à ce jour et les résultats qui ont permis d'élaborer les huit recommandations suivantes, allant de l'amélioration de la mesure et du développement formel des niveaux de connaissance de l'IA du public à l'investissement dans l'infrastructure nécessaire pour permettre le déploiement réussi des programmes recommandés :

Recommandation 1 :

Établir une communauté de pratique nationale de sensibilisation du public à l'intelligence artificielle (IA), représentative de la diversité des personnes vivant au Canada, et soutenue par un financement du gouvernement du Canada.

Grâce au financement du gouvernement du Canada, il est impératif que tous les ordres de gouvernement au Canada, ainsi que le secteur privé, les établissements d'enseignement et d'autres intervenants, apportent leur soutien et leurs ressources à la création d'une communauté de ressources partagée pour soutenir le développement de la sensibilisation du public à l'IA au Canada. Soutenue par un secrétariat de coordination, la communauté de pratique de sensibilisation du public à l'IA servirait de dépôt de ressources en libre accès pour les chercheurs, les dirigeants communautaires, les décideurs et le grand public afin de mieux s'engager dans un dialogue continu sur le développement, l'utilisation et la gouvernance responsables et éthiques des technologies d'IA. Tant le secrétariat qui soutient le travail que les membres de la communauté de pratique (CP) doivent être représentatifs de la société dans laquelle ils et elles opèrent. Par conséquent, les membres doivent représenter une diversité éducative, générationnelle, ethnoculturelle, socioéconomique et fonctionnelle afin de correspondre à la population canadienne. Plus précisément, conformément au Défi 50-30 lancé par le gouvernement du Canada, il doit y avoir un effort de recrutement important et planifié pour s'assurer que cette communauté de pratique atteigne l'objectif d'avoir 50 % de femmes et 30 % de personnes de groupes sous-représentés dans son équipe de direction.

Il est essentiel, lors de l'élaboration d'une programmation nationale qui a l'intention d'avoir une incidence sur l'ensemble de la population canadienne, de faire confiance aux experts et expertes locaux et de les valoriser. Grâce à une combinaison d'apprentissage et d'enseignement communs, de relations entre pairs et de structures décentralisées et non hiérarchiques, le modèle de la CP catalyserait un changement communautaire et social positif. Le modèle de la CP fait appel à des programmes de « formation des formateurs », qui sont conçus pour renforcer l'autonomie des dirigeants et dirigeantes et des intervenants et intervenantes communautaires, en les aidant à transmettre des informations de grande valeur aux membres de leur communauté, de manière localisée et contextualisée.

En tant que groupe de travail, nous envisageons que le champ d'application de cette CP comprenne, sans s'y limiter, les activités, ressources et services suivants :

  • Conception d'une trousse d'outils de délibération publique pour équiper les communautés à organiser leurs propres ateliers sur l'IA dans leur environnement social.
    • Il s'agirait de ressources comme des exemples de scénarios d'utilisation, des guides d'animation et de prise de notes, et des ressources communautaires pour recevoir des conseils sur l'organisation d'une délibération et l'adaptation des documents aux différentes réalités géographiques et culturelles dans lesquelles les délibérations auront lieu.
  • Un portail permettant aux hôtes des ateliers d'accéder aux ressources et de télécharger leurs conclusions anonymes afin de contribuer à une culture continue et permanente de consultation régulière de la communauté. Vérification et organisation des ressources mises au point à l'échelon national et international pour soutenir la sensibilisation du public et le développement de la littératie en matière d'IA.
  • Sensibilisation des gouvernements provinciaux et territoriaux à la mise au point un contenu propre aux régions, ainsi que pour aider à faire le lien entre les ressources et les meilleures pratiques pour les gouvernements provinciaux ou locaux qui cherchent à développer leurs propres initiatives de sensibilisation et plates-formes de ressources.
  • Production par le secrétariat d'un rapport annuel sur l'état d'avancement des travaux, qui consolide les informations fournies sur la plate-forme en ligne dans un format accessible et en langage clair.
  • Établissement de ressources dédiées pour rendre plus accessibles aux praticiens de l'IA la connaissance et la compréhension des perceptions du public sur les SIA.
    • Ce programme permet de mettre en relation des experts en IA – y compris des étudiants en informatique et dans d'autres domaines connexes – et des projets visant à développer des programmes d'éducation et de formation à l'IA dans des communautés marginalisées ou mal desservies.

Étant donné que la valeur de la CP réside dans les partenaires qui se portent volontaires pour participer à sa conception conjointe et à la diffusion de son contenu, la CP sur la sensibilisation du public à l'IA cherchera dès le départ à intégrer un groupe représentatif et diversifié de partenaires fondateurs et de dirigeants, y compris ceux qui représentent les communautés ou les intérêts autochtones, les groupes de défense des femmes, les nouveaux arrivants au Canada, les personnes handicapées, les minorités visibles et invisibles, les défenseurs de la langue française et les résidents des régions rurales, entre autres. Rappelant l'engagement à être représentatif de la société dans laquelle elle opère, la poursuite de la diversité et de l'inclusion dans la conception, le lancement et le fonctionnement de la CP est essentielle au succès de son travail.

Recommandation 2 :

Intégrer des mesures de la littératie en matière d'IA dans des enquêtes nationales régulières afin de soutenir le développement de données longitudinales sur la sensibilisation à l'IA au Canada.

Le ministère de l'Innovation, des Sciences et du Développement économique (ISDE) devrait travailler de concert avec Statistique Canada et d'autres ministères fédéraux (p. ex. Santé Canada, Environnement et Changement climatique Canada, Emploi et Développement social Canada) pour explorer les possibilités d'ajouter des questions aux enquêtes régulières existantes qui bénéficient d'une base de sondage approfondie et appropriée et de thèmes similaires. L'une de ces possibilités est l'élaboration de contenu pour l'Enquête canadienne sur l'utilisation de l'Internet (ECUI) de 2022 qui, en plus des questions préexistantes, pourrait fournir une image encore plus solide de la façon dont les technologies de l'IA influencent les personnes vivant au Canada et de leurs perceptions de la technologie.

Le déploiement d'une enquête régulière aidera non seulement à mieux comprendre les lacunes en matière de littératie au Canada, mais fournira également des paramètres permettant d'évaluer le succès d'autres programmes de sensibilisation et de littératie recommandés et soutenus par le gouvernement fédéral. Étant donné que le but de cette enquête n'est pas d'évaluer la validité des perceptions des personnes vivant au Canada en matière d'IA, ou de tenir lieu de « jeu-questionnaire » sur la connaissance des technologies de l'IA, le résultat souhaité d'une enquête régulière serait d'atteindre un objectif de réduction de la proportion de personnes répondantes enregistrant des réponses « incertain » ou « je ne sais pas ».

Enquête canadienne sur l'utilisation de l'Internet (ECUI)

L'ECUI est une collaboration continue entre ISDE et Statistique Canada pour recueillir des informations sur la façon dont les Canadiens utilisent l'Internet et à quelles fins. Il s'agit d'une enquête auprès des ménages visant à mesurer l'adoption et l'utilisation d'Internet par les Canadiens dans les dix provinces. L'ECUI bénéficie en outre du fait que ses personnes participantes sont âgés de 15 ans et plus.

En plus de sa base de sondage standard, une initiative pilote, Données internet dans le Nord, a été proposée afin de compléter l'ECUI et de recueillir des informations sur l'environnement et les défis uniques de l'utilisation d'Internet dans le Nord. Cela permettrait d'élargir le groupe de personnes répondantes et de développer une vision plus claire et comparative des différents niveaux de sensibilisation aux SIA par rapport aux provinces du Sud.

Statistique Canada, « Enquête canadienne sur l'utilisation d'Internet (ECUI) », Enquêtes et programmes statistiques (Statistique Canada, 28 mai 2021).

Recommandation 3:

Appuyer et promouvoir l'élaboration d'un cours canadien de littératie en matière d'intelligence artificielle.

Le Canada a l'occasion de montrer la voie en s'assurant que notre public maîtrise l'IA et est prêt à utiliser cette compréhension de la technologie de l'IA et de ses répercussions éventuelles. Cela pourrait se faire par la promotion d'un cours en ligne gratuit et de possibilités d'apprentissage éducatif pour tous les membres du public canadien qui souhaitent apprendre ce qu'est l'IA, ce qui est possible (et non possible) avec l'IA, et comment elle touche nos vies. Le gouvernement du Canada devrait aider à combler le fossé entre le public et cette technologie émergente. Il est important de noter que ce cours contribuera à fournir une ressource fiable et précise aux membres du public, qu'il soit sur le marché du travail ou non, qui est accessible, efficace et qui offre aux personnes participantes un certificat d'achèvement.

Le cours de littératie proposé visera les suivants :

  • Accroître les connaissances techniques sur l'IA parmi les membres du public, afin que les personnes participantes développent leur capacité à comprendre l'IA et à reconnaître quand ils et elles interagissent celle-ci et soient capables de décrire les processus de base de l'IA et son fonctionnement (c.-à-d. comment les données sont utilisées dans un système d'IA).
  • Développer une opinion publique informée sur l'IA et ses répercussions politiques, sociales et éthiques afin de garantir leur pleine participation civique et leur engagement prosocial auprès des institutions et de leurs communautés.
  • Accroître l'accès à la main-d'œuvre pour les communautés marginalisées en développant les connaissances technologiques de base.

Que ce soit par l'intermédiaire d'un soutien aux initiatives existantes ou d'un appel à propositions pour des collaborations privées, comme celle entre la Faculté de gestion Desautels de l'Université McGill, le programme Objectif avenir RBC et le Globe and Mail pour soutenir la littératie financière, l'approbation d'un mécanisme plus formel servira à fournir au public canadien des connaissances précises sur l'IA, ses répercussions potentielles et ses considérations éthiques.

Collaborations privées : Cours de base en finances personnelles de McGill

Afin d'aider les Canadiens à mieux comprendre comment gérer leurs finances personnelles, la Faculté de gestion Desautels de l'Université McGill a collaboré avec le programme Objectif avenir RBC et le Globe and Mail pour offrir gratuitement à tous les Canadiens du pays une formation sur les finances personnelles. Cette expérience d'apprentissage modulaire en ligne, disponible en anglais et en français, vise à améliorer les connaissances et les compétences des personnes participantes en matière de finances personnelles. Le cours de base en finances personnelles de McGill est divisé en huit modules d'apprentissage de 15 à 25 minutes, chacun étant enseigné par un membre de la Faculté Desautels de McGill. L'ensemble du cours peut être visionné en deux heures environ. Chaque module est suivi d'un test destiné à confirmer la compréhension des personnes participantes. En réussissant tous les modules et tests du cours, les personnes participantes obtiennent une attestation de fin de cours qui confirme leurs connaissances financières personnelles.

Faculté de gestion Desautels de l'Université McGill, Finances personnelles pour tous par McGill.

Initiatives existantes : AI for All

AI for All est un projet pancanadien de littératie en matière d'IA visant à concevoir, à fournir, à évaluer et à maintenir un programme de littératie algorithmique dans les bibliothèques publiques canadiennes. Ce programme offre une variété d'approches pédagogiques permettant de comprendre les principaux éléments de l'intelligence artificielle et la façon dont ils affectent et habilitent les individus et la société. Fruit d'un partenariat entre la bibliothèque de l'Université Ryerson, la bibliothèque publique de Toronto et la Fédération canadienne des associations de bibliothèques, AI for All tire parti de l'expertise, des installations et de l'engagement communautaire des 3 350 bibliothèques publiques du Canada. Alors que d'autres programmes de littératie en matière d'IA ont été conçus pour informer les hauts dirigeants d'entreprise, les travailleurs spécialisés dans les STIM et les personnes influentes dans le milieu universitaire, une initiative de littératie axée sur l'incidence de l'IA sur la vie quotidienne des Canadiens n'a pas encore été élaborée et exécutée. L'omniprésence de l'IA dans l'expérience de la vie quotidienne en fait une préoccupation centrale et permanente pour les bibliothèques publiques et leurs communautés. 

Programme AI for All, « AI for All », Programme AI for All, consulté en ligne à l'adresse suivante : https://aiforall.ca/.

Recommandation 4:

Consulter les gens au Canada par l'intermédiaire de dialogues publics significatifs pour comprendre les applications et les utilisations de l'IA qui sont en accord avec l'intérêt public et les objectifs des communautés touchées.

Bien que la consultation sur un large éventail d'applications et de secteurs engagés dans le déploiement des systèmes d'IA doive être largement encouragée, notre recherche a mis en évidence plusieurs applications et thèmes qui préoccupent particulièrement le public canadien. Dans le cadre du sondage et des délibérations publiques, le développement et l'utilisation de l'IA dans le domaine de l'application de la loi ont soulevé le niveau de préoccupation le plus omniprésent et le plus intense. En tant que tel, il est du devoir du gouvernement du Canada de poursuivre la conversation avec les gens à travers le Canada pour s'assurer que les communautés sont consultées avant l'avancement des politiques publiques sur l'utilisation de l'IA dans ce secteur et que leurs besoins et intérêts sont entendus. En outre, il convient de poursuivre les consultations publiques afin de mieux comprendre les préoccupations des gens en matière de préjugés et de discrimination, de vie privée, de protection des données, de transparence et d'explication des systèmes d'IA. En tant que sujets de préoccupation transversaux et omniprésents, la portée et la spécificité des éléments qui préoccupent les personnes vivant au Canada et la façon dont ils et elles estiment que ces craintes peuvent être atténuées ou effacées devraient faire l'objet de futures consultations publiques. Compte tenu des limites de notre échantillon et des personnes avec lesquelles nous nous sommes engagés, un élément fondamental de la conception et de la méthodologie des futures consultations doit inclure des mesures visant à assurer l'inclusion de diverses communautés et la représentation de la population du Canada.

Ces dialogues seraient entrepris dans le but d'élaborer conjointement des documents de sensibilisation et de mobilisation en matière d'IA qui répondent à ces espoirs et à ces craintes, facilitent l'apprentissage collectif et renforcent la confiance du public dans l'utilisation et la gouvernance de la technologie. Cette approche contribuerait à permettre le déploiement de l'IA, mais aussi à le limiter en fonction des intérêts des diverses communautés du Canada, en reconnaissant la pluralité des sources de connaissances dans les processus de conception et de création conjointe qui peuvent être utilisées et qui vont au-delà des méthodes délibératives.

Recommandation 5:

S'engager dans une campagne soutenue de sensibilisation du public pour soutenir un engagement et une participation accrus à un cours de littératie sur l'IA et aux futures consultations publiques.

Le succès ultime d'un cours de littératie en matière d'IA et des futures consultations publiques sur le développement des systèmes d'IA dépendra de l'effort systématique, ciblé, financier et complet du gouvernement du Canada dans sa collaboration avec les partenaires communautaires pour promouvoir à la fois la connaissance de ces initiatives et l'intérêt à y participer. Au cours des cinq premières années de ces programmes recommandés, des fonds devraient être engagés pour les trois composantes suivantes d'une stratégie nationale de sensibilisation :

Annonces dans les médias traditionnels et non traditionnels : L'information sur un cours d'initiation à l'IA, les consultations en cours sur la politique et la réglementation de l'IA, et les technologies de l'IA de manière plus générale devraient être diffusées par l'intermédiaire d'une campagne de publicité nationale faisant appel à des campagnes de sensibilisation traditionnelles, comme des vidéos d'information et des annonces à la radio, tout en employant de nouvelles plates-formes d'engagement du public comme LinkedIn, Facebook, Instagram, Twitter et TikTok. Par exemple, le gouvernement du Canada pourrait tirer parti de sa stratégie visant à informer le public canadien du lancement et de la disponibilité de l'application de notification d'exposition Alerte COVID, qui a utilisé un mélange de médias traditionnels (télévision, presse écrite) et de publicité dans les réseaux sociaux pour faire participer les personnes vivant au Canada et les sensibiliser aux avantages de l'utilisation de l'application. De même, les échanges avec des partenariats préexistants (p. ex. la Supergrappe des chaînes d'approvisionnement axées sur l'IA du Canada [Scale AI]) et les chefs de file de l'industrie dans l'écosystème canadien de l'IA pourraient être mis à profit pour promouvoir la sensibilisation et la consultation. Note de bas de page 14

Concours visant à soutenir des programmes d'IA créatifs et accessibles pour enseigner aux utilisateurs les dilemmes éthiques et les répercussions sociales de l'IA : Grâce à des approches innovantes de l'apprentissage, de courtes leçons pourraient engager les personnes participantes dans une leçon immersive sur l'éthique de l'IA et ses répercussions sociales. Ces programmes éducatifs créatifs peuvent favoriser une expérience d'engagement positif dans la compréhension de la technologie, tout en développant une connaissance pratique de ses risques potentiels.

Survival of the Best Fit : une manière créative d'enseigner le biais de l'IA

En 2019, le prix Creative Media Award de la Fondation Mozilla a soutenu un projet intitulé Survival of the Best Fit (la loi du candidat le plus adapté), conçu pour enseigner au public les risques de préjugés liés à l'IA dans l'embauche et sur le marché du travail. Créé par quatre développeurs (Gabor Csapo, Jihyun Kim, Miha Klasinc et Alia ElKattan), ce projet est un jeu interactif accessible dans tout navigateur Web moderne. Pendant six minutes, les joueurs engagent ou rejettent un certain nombre de candidats fictifs pour une entreprise, et leurs décisions sont utilisées pour entraîner un algorithme d'apprentissage automatique pour engager les futurs candidats. Ils doivent ensuite gérer les retombées de ce système automatisé qui commence à discriminer les candidats qualifiés. Ensuite, les joueurs sont dirigés vers une page de ressources qui contient des explications divertissantes et en langage clair sur les défis sociétaux du déploiement de l'IA dans le recrutement.

Ce projet est un exemple du type de matériel éducatif créatif et accessible qui pourrait être créé pour aider à fournir aux Canadiens des leçons immersives sur l'éthique de l'IA. Il est court, interactif, engageant, a peu d'obstacles à la participation, et aborde un problème du monde réel qui est pertinent et significatif pour un grand nombre de Canadiens. Les concours et les prix pourraient être utilisés au Canada pour développer des projets semblables à l'échelle nationale.

Voir https://www.survivalofthebestfit.com/ pour plus d'informations.

Subventions aux organisations locales et aux leaders qui travaillent à la sensibilisation à l'IA : Fournir un soutien financier stratégique dont l'effet est mesuré pour des projets locaux visant à sensibiliser la communauté et le contexte à l'IA, en mettant l'accent sur les initiatives menées par des femmes, des Autochtones et d'autres groupes de minorités visibles au Canada.

Un élément nécessaire de l'engagement à accroître la sensibilisation du public à l'IA au Canada est également d'augmenter la transparence du Conseil consultatif en matière d'IA du gouvernement du Canada, en élargissant la présence du Conseil auprès du public, y compris la publication des résumés des réunions en plus de son rapport annuel d'activités existant.

Recommandation 6 :

Financer une stratégie d'équité, de diversité, d'inclusion et d'accessibilité pour les dix prochaines années afin de soutenir les initiatives d'engagement du public et de s'assurer que les ressources financières, d'accessibilité et de sensibilisation sont disponibles pour permettre la représentation de la diversité des peuples du Canada.

Comme l'ont illustré les résultats de notre propre recherche, l'engagement envers les objectifs de diversité et d'inclusion dans la programmation et l'engagement publics doit être soutenu par un champ d'application et des ressources suffisantes, et ce, tant financières qu'institutionnelles.  Au cours des dix prochaines années, en tant que catalyseur essentiel des exigences de diversité et d'inclusion de chacune des recommandations précédentes, le gouvernement du Canada devrait financer une stratégie d'équité, de diversité, d'inclusion et d'accessibilité (EDIA) pour les consultations publiques sur l'IA. Ce financement devrait inclure, sans s'y limiter, les éléments suivants :

  • Soutenir le budget d'une équipe au sein de la communauté de pratique de la sensibilisation du public à l'IA désignée pour s'engager dans un travail de proximité et de communauté substantiel afin de créer des passerelles dans toutes les étapes futures, notamment en assurant une représentation continue de la diversité dans la CPP, dans les hôtes des futurs événements, dans les ambassadeurs pour la promotion d'un cours, etc.
  • Subventionner les frais de déplacement de l'équipe ressource en EDIA pour qu'elle rencontre les communautés afin de créer des liens significatifs;
  • Couvrir les coûts de connexion à l'Internet à haut débit et soutenir la fourniture des outils numériques connexes (p. ex. des ordinateurs) nécessaires pour participer à des programmes d'initiation à l'IA ou à des consultations publiques sur l'IA;
  • Traduction dans d'autres langues que le français et l'anglais, ainsi qu'honoraires pour la langue des signes.

Recommandation 7 :

Soutien à l'accès universel et abordable à l'Internet à haut débit et à l'infrastructure numérique au Canada

La pandémie de COVID-19 a mis en évidence à quel point nous dépendons de nos connexions. Aujourd'hui plus que jamais, la connectivité inclusive à haute vitesse demeure essentielle à mesure que l'économie canadienne évolue et adopte les technologies de demain. En termes simples, l'Internet n'est plus un luxe – il est devenu une nécessité. Sans un accès fiable, constant et suffisant à l'Internet haute vitesse et à l'infrastructure numérique, les personnes vivant au Canada sont incapables de profiter des avantages des technologies de l'IA, mais aussi des initiatives visant à promouvoir la sensibilisation et la connaissance de l'IA.

Le Groupe de travail salue le travail entrepris dans le cadre de la stratégie La haute vitesse pour tous : la stratégie canadienne pour la connectivité, qui vise à développer l'accès universel à l'Internet à haute vitesse et à une couverture sans fil mobile abordable dans tout le Canada. La stratégie, qui visait à offrir une connectivité 50/10 à 95 % des personnes vivant au Canada d'ici 2026 et aux personnes vivant au Canada les plus difficiles à atteindre d'ici 2030, devrait dépasser ses objectifs avec 98 % des personnes vivant au Canada connectés d'ici 2026. En tirant parti du financement de tous les ordres de gouvernement, des partenaires autochtones et du secteur privé, le gouvernement est sur la bonne voie pour atteindre son objectif de couverture complète de la large bande à 50/10 Mb/s au Canada d'ici 2030.

Toutefois, pour que l'accessibilité à ces réseaux soit réelle, ces services doivent également être abordables. Les investissements publics dans l'infrastructure à haute capacité et les investissements similaires de renforcement des capacités devraient être soutenus par le gouvernement du Canada dans les collectivités rurales, autochtones et autres actuellement mal desservies. Le succès de toute stratégie de connectivité devrait être mesuré non pas par le pourcentage de la population qui a accès, mais par le pourcentage d'adoption des services dans les communautés rurales et éloignées.

Recommandation 8:

Faire la promotion à l'échelle internationale de la valeur et de la nécessité de l'engagement des citoyens et du « modèle canadien » d'IA responsable.

L'engagement du Canada à promouvoir le développement et l'utilisation responsables de l'IA est au cœur de son approche nationale et internationale. Au pays, par l'intermédiaire d'initiatives dirigées par la société civile comme l'AI Impact Alliance, la Déclaration de Montréal sur l'IA responsable, le programme de réseaux de solutions de l'ICRA et du Centre de recherches pour le développement international (CRDI) pour des solutions de gouvernance de l'IA dans les pays à revenu faible et moyen, et maintenant les activités du Groupe de travail sur la sensibilisation du public, le Canada s'est efforcé de veiller à ce que l'IA et les technologies numériques soient fondées sur les principes des droits de la personne, de l'inclusion, de la diversité, de l'innovation et de la croissance économique. Un élément principal de la réalisation de ces principes communs dans la pratique consiste à engager des consultations non seulement avec des experts en IA, des décideurs ou l'industrie, mais aussi avec des membres du grand public afin de dresser un tableau complet d'un avenir véritablement équitable et inclusif avec l'IA.

En tant que champion de l'IA responsable dans des forums mondiaux comme le Partenariat mondial sur l'IA, le Comité ad hoc sur l'IA du Conseil de l'Europe, les Nations numériques, la Freedom Online Coalition, le G7, le G20, l'OCDE, le Partenariat pour un gouvernement ouvert, la Feuille de route des Nations Unies pour la coopération numérique et l'UNESCO, entre autres, le Canada a l'occasion de partager les leçons apprises et les idées recueillies lors de nos consultations publiques afin de promouvoir la valeur de l'engagement des citoyens dans la promotion du développement et de l'utilisation responsables de l'IA.

5. À l'avenir

En entreprenant ce travail d'élaboration de recommandations durables pour la sensibilisation du public à l'IA, nous avons cherché à mobiliser le public canadien, étant entendu que notre travail devrait viser à inclure la plus grande diversité de personnes participantes et de groupes. Il ne s'agit pas seulement des experts ou des personnes qui ont déjà des connaissances, mais de toutes les personnes touchées par le déploiement de l'IA. En adoptant l'idée que la « sensibilisation » devrait être recherchée dans le but de donner les moyens de communiquer les perspectives, les préoccupations et les optimismes du public – plutôt qu'un processus d'approbation de l'IA – nous avons pu tirer profit d'un échange de connaissances dans les deux sens. Cette approche a permis de donner de la profondeur et de l'ampleur aux types d'initiatives et de recommandations proposées afin de créer les conditions pour que les futurs décideurs politiques puissent également profiter de la richesse des connaissances qui ne peuvent être obtenues que par la consultation des citoyens avec un public engagé et informé.

Nous espérons que les recommandations formulées dans le présent rapport encourageront tous les intervenants personnes vivant au Canada à soutenir et à promouvoir un engagement pour le développement d'une culture nationale de l'IA en renforçant la citoyenneté active, la diversité et la collaboration autour d'un objectif commun : la sensibilisation à l'IA. Grâce à ce travail, nous espérons donner au public canadien les outils qui lui permettront non seulement de comprendre les systèmes d'IA, mais aussi de naviguer dans l'information, de contester les décisions des algorithmes et de donner à chacun la capacité d'évaluer l'IA et ses applications par le biais de discussions et de prises de décisions éclairées sur l'utilisation et le développement responsables de l'IA.

Alors que le groupe de travail envisage la prochaine phase de ses travaux, il est primordial d'intégrer une optique axée sur la diversité, l'équité, l'accessibilité et l'inclusion. L'engagement à écouter les besoins des peuples autochtones et à explorer les possibilités de codéveloppement et de leadership partagé est essentiel à cette orientation renouvelée. Grâce au développement prioritaire de ressources adaptées à la culture et pertinentes pour les dialogues avec les Autochtones au sujet de l'IA, le groupe de travail souhaite s'assurer qu'on n'omet pas de consulter les Autochtones dans les travaux à venir et que les consultations futures sont enrichies par l'inclusion des voix et des connaissances autochtones.

Ce rapport est un appel à l'action adressé à tous les personnes vivant au Canada. Une approche synchronisée avec l'industrie, le milieu universitaire, la société civile, les membres du public et tous les niveaux de gouvernement est nécessaire pour que le Canada demeure un chef de file de l'IA responsable. Il est essentiel d'aborder ces risques, de surmonter ces défis et de s'attaquer à ces dilemmes éthiques au cœur des consultations si nous voulons saisir cette occasion unique de mener le monde dans le développement de pratiques d'IA démocratiques, morales et éthiques qui font passer les gens en premier et apportent la prospérité au plus grand nombre, et pas seulement à quelques-uns.

Remerciements

Contributeurs externes

Duri Long, Ph. D. Chercheur, Expressive Machinery Lab, Georgia Tech

Michael Ridley, bibliothécaire émérite, Université de Guelph; candidat au doctorat, Université Western

Rebecca Raven, directrice générale, Fédération canadienne des associations de bibliothèques

Dialogue ouvert : L'intelligence artificielle au Canada

Organisations partenaires :

Nous tenons à remercier chaleureusement les organisations qui ont participé à l'organisation des ateliers « Dialogue ouvert : L'intelligence artificielle au Canada » :

Le Groupe de travail sur la sensibilisation du public du Conseil consultatif en matière d'intelligence artificielle du gouvernement du Canada comprend des représentants des organisations suivantes : AI Global | AI Network of BC | Amii | Brookfield Institute | Chambre de commerce du Canada | CIFAR | DeepSense/Dalhousie | Glassbox | Ivado | Kids Code Jeunesse | Let's Talk Science | Mila | Saskinteractive | Université de Montréal

Atelier de l'Université de Laval organisé en collaboration avec

Matériel d'atelier fourni en collaboration avec

Animateurs et preneurs de notes

Les ateliers délibératifs n'auraient pas été un succès sans le travail acharné des animateurs et des preneurs de notes. Nous tenons à remercier chaleureusement tous les animateurs et les preneurs de notes qui ont contribué à la réussite des ateliers Dialogue ouvert : L'intelligence artificielle au Canada.

  • Fatima Ahmed
  • Karianne Trudeau-Beaunoyer
  • Esha Bhardwaj
  • Kaoutar Bourgal
  • Julien Brodeur
  • Sabrina Cacchione
  • Mathilde Cassou
  • Bashir Chalabi
  • Ryan Chan
  • Sarah Cornwell
  • Maelenn Corfmat
  • Saja Farhat
  • Didier Fayon
  • Emma Fudge
  • Joyla Furlano
  • Patricia Gautrin
  • Megan Kirby
  • Alexandra Konn
  • Jina Kum
  • Phillipe Laurin
  • Vathanak Len
  • Lilian (Yang) Liu
  • Kazi Mohua
  • Béatrice Normadin
  • Katie Oates
  • Samuel Pelletier
  • Julian Posada
  • Farah Rahim
  • Megan Roussy
  • Tothong (Mai) Sonpaveerawong
  • Angela (Meng-Chiao) Tsai
  • Andréanne St-Gelais
  • Claudia Torres
  • Isabelle Touchette
  • Maya Weisman
  • Marie Zumstein

Membres du groupe de travail 2020-22

La liste suivante présente la composition du groupe de travail au moment de la rédaction du présent rapport. Pour une liste complète, veuillez consulter la page des biographies des membres sur le site Web du Conseil consultatif.

Marc-Antoine Dilhac
Coprésident du Groupe de travail sur la sensibilisation du public

Directeur de Algora Lab, et professeur au département de philosophie, Université de Montréal
Titulaire de la Chaire en IA Canada-CIFAR, Mila

Catherine Riddell
Coprésidente du Groupe de travail sur la sensibilisation du public
Vice-présidente, Communications stratégiques au CIFAR (jusqu'en novembre 2021)

Kate Arthur
Fondatrice et PDG de Kids Code Jeunesse / Digital Moment

Ulrike Bahr-Gedalia
Directrice principale – Économie numérique, technologie & innovation, Chambre de commerce du Canada

Ashley Casovan
Directrice exécutive, Responsible AI Institute

Mariloue Daudier
Conseillère à l'Équité, la Diversité et l'Inclusion (EDI) au Secrétariat général, HEC Montréal
(anciennement Conseillère en équité, diversité et inclusion, Institut de valorisation des données - IVADO)

Sarah Doyle
Coordonnatrice de direction à l'UCL Institute for Innovation and Public Purpose
(anciennement directrice des politiques et de la recherche, Brookfield Institute for Innovation and Entrepreneurship)Directeur de la politique et de la recherche, Institut Brookfield pour l'innovation et l'entrepreneuriat

Jennifer LaPlante
Directrice exécutive, DeepSense

Steve Lowry
Directeur exécutif, AInBC

Darcy McLane
Directeur exécutif, SaskInteractive

Spencer Murray
Directeur de la communication et des relations publiques, Amii

Sarah Shoker
Fondatrice et PDG, Glassbox

Bonnie Schmidt
Fondatrice et présidente, Let's Talk Science

Références

AI for All Program, « AI for All », AI for All Program. Consulté le 26 juillet 2021. https://ailocalism.org/.

« AI Localism: The Govlab", AI Localism | The GovLab. NYU Tandon School of Engineering. Consulté le 26 juillet 2021. https://ailocalism.org/.

CIRA, « Le fossé de l'équité de l'Internet au Canada », Autorité canadienne pour les enregistrements Internet (CIRA), 13 avril 2021. https://www.cira.ca/fr/newsroom/letat-de-linternet/le-fosse-de-lequite-de-linternet-au-canada.

Csapo, Gabor, Jihyun Kim, Miha Klasinc, et Alia Elkattan, « Survival of the Best Fit », Survival of the Best Fit, 2019. https://www.survivalofthebestfit.com/.

"Elements of AI", Rektor et Université d'Helsinki. Consulté le 26 juillet 2021. https://www.elementsofai.com/.

Gouvernement du Canada, ministère des Finances, « Budget 2021 », Table des matières | Budget 2021. Gouvernement du Canada, 19 avril 2021. https://www.budget.gc.ca/2021/report-rapport/toc-tdm-fr.html.

Gouvernement du Canada, Statistique Canada. « Enquête canadienne sur l'utilisation d'Internet (ECUI) », Enquêtes et programmes statistiques, Statistique Canada, 28 mai 2021. https://www23.statcan.gc.ca/imdb/p2SV_f.pl?Function=getSurvey&SDDS=4432.

Long, Duri, et Brian Magerko, "What Is Ai Literacy? Competencies and Design Considerations", Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, 2020. https://doi.org/10.1145/3313831.3376727.

« Finances personnelles pour tous par McGill », Finances personnelles pour tous par McGill, Faculté de gestion Desautels de l'Université McGill. Consulté le 26 juillet 2021. https://mcgillfinancespersonnelles.com/.

Newman, Nic, Richard Fletcher, Anne Schulz, Simge Andi, Craig T Robertson et Rasmus Kleis Nielsen, rapport Reuters Institute Digital News Report 2021 – 10th Ed., Reuters Institute, s.d. https://reutersinstitute.politics.ox.ac.uk/sites/default/files/2021-06/Digital_News_Report_2021_FINAL.pdf.

OCDE, Recommandation du Conseil sur l'intelligence artificielle, OECD/LEGAL/0449

omnia AI, rapport Impératif de l'IA au Canada : Surmonter les risques, instaurer la confiance, Deloitte, 2019. https://www2.deloitte.com/content/dam/Deloitte/ca/Documents/deloitte-analytics/ca-overcoming-risks-building-trust-aoda-fr.pdf?location=top, 11

« Stratégie pancanadienne en matière d'IA », ICRA, Institut canadien de recherches avancées, 7 décembre 2020. https://cifar.ca/ai/.

Ridley, Michael, et Danica Pawlick-Potts, « Algorithmic Literacy and the Role for Libraries », Information Technology and Libraries 40, no 2 (2021). https://doi.org/10.6017/ital.v40i2.12963.

Statistique Canada. Recensement du Canada de 2016, Plus haut niveau de scolarité atteint (général) selon certains groupes d'âge 25 à 64, les deux sexes, répartition en % (2016), Canada, provinces et territoires, Recensement de 2016 – Données-échantillon (25 %), Recensement de 2016. Numéro de catalogue 98-304-X de Statistique Canada [base de données en ligne]. Ottawa (Ont.), 2017 [consulté le 20 août 2021]. Disponible à l'adresse suivante : https://www12.statcan.gc.ca/census-recensement/2016/dp-pd/hlt-fst/edu-sco/Tableau.cfm?Lang=F&T=11&Geo=00&SP=1&view=2&age=2&sex=1

Université de Montréal, Algora Lab, Intelligence artificielle responsable : un guide de délibération (2021), consulté en ligne : https://na.eventscloud.com/file_uploads/3791cf7b32eb26534bc48f2724d017ee_GuideDeliberation_ENGpdf.pdf

Wiegers, Karl Eugene, et Joy Beatty, Software Requirements, Redmond, WA: Microsoft Press, 2013.

Annexes

A. Opinions des personnes vivant au Canada sur l'intelligence artificielle: méthodologie de sondage

Cette recherche a consisté en un sondage en ligne auprès de 1 222 personnes vivant au Canada adultes de 18 ans et plus. Les personnes répondantes au sondage ont été sélectionnés parmi les membres inscrits d'un groupe en ligne et ont répondu à des normes démographiques, à savoir l'âge, le sexe, la région, le niveau de scolarité et le revenu. Les travaux sur le terrain et les sondages ont été menés en français et en anglais. Comme les échantillons provenant des sondages en ligne faisant appel à des panels reposent sur l'autosélection et ne constituent pas des échantillons probabilistes aléatoires, il est impossible de calculer des estimations officielles de l'erreur d'échantillonnage. Bien que les panels volontaires ne soient pas des échantillons probabilistes aléatoires, les sondages en ligne peuvent être utilisés pour des sondages auprès de la population générale, à condition qu'ils et elles soient bien conçus et fassent appel à un vaste panel bien entretenu.

Plan d'échantillonnage et de la méthode de pondération

Nanos Research a mené un sondage en ligne auprès de 1 222 personnes vivant au Canada, âgés de 18 ans et plus, qui sont membres d'un panel en ligne. Le sondage a été réalisé du 23 au 25 novembre 2020. Les réponses ont été pondérées en fonction de l'âge, du sexe et de la région afin de s'assurer que l'échantillon est représentatif de ces populations selon les données de recensement les plus récentes.

Le sondage a abouti aux répartitions suivantes :

Groupe démographique Données réelles non pondérées Données réelles pondérées
Hommes 597 588
Femmes 623 612
18-34 ans 382 330
35-54 ans 478 409
55 ans et plus 362 463
Atlantique 124 80
Québec 304 281
Ontario 370 461
Saskatchewan et Manitoba 120 81
Alberta 121 139
Colombie-Britannique 183 160
Population totale 1222 1202

Conception du questionnaire

Nanos a conçu un questionnaire de 12 minutes en fonction des priorités de contenu fournies par l'ISDE. Toutes les limitations découlant d'un manque de connaissances en matière d'IA ont été prises en compte lors de l'élaboration de l'instrument de sondage, par la rédaction de questions claires et compréhensibles, en évitant le jargon. Ce sondage a été conçu de manière à ce que les données recueillies puissent être utilisées pour éclairer les discussions et consultations futures avec les groupes marginalisés et les personnes ayant des connaissances numériques limitées.

Le questionnaire final du sondage figure à l'annexe B.

Travail sur le terrain

Le sondage a été mené par Nanos par le truchement d'un sondage en ligne complet qui a été réalisé dans un environnement Web sécurisé. Tous les personnes répondantes ont eu la possibilité de répondre aux sondages dans la langue officielle de leur choix. L'ensemble du travail de recherche a été effectué en conformité avec les Normes pour la recherche sur l'opinion publique effectuée par le gouvernement du Canada – Sondages en ligne, de même qu'avec les normes reconnues de l'industrie et la loi fédérale applicable (Loi sur la protection des renseignements personnels et les documents électroniques, ou LPRPDE)

Les données du sondage sont pondérées statistiquement afin que l'échantillon soit aussi représentatif que possible de la population canadienne, conformément aux données de recensement les plus récentes de Statistique Canada.

Profil des personnes répondantes

Le tableau suivant présente la répartition pondérée des personnes participantes au sondage en fonction des principales caractéristiques démographiques et autres variables.

Indicateur démographique Échantillon total
Âge 1202
18-34 ans 330
35-54 ans 409
55 ans et plus 463
Sexe 1202
Homme 588
Femme 612
Autre 2
Région 1202
Atlantique 80
Québec 281
Ontario 461
Saskatchewan et Manitoba 81
Alberta 139
Colombie-Britannique 160
Niveau de scolarité 1195
Certaines études secondaires 26
Études secondaires terminées 203
Certains cours collégiaux ou universitaires 192
Études collégiales terminées 274
Études universitaires terminées 364
Études supérieures terminées 131
Refus de répondre 5
Revenu du ménage 1200
Moins de 20 000 $ 78
De 20 000 $ à un peu moins de 40 000 $ 187
De 40 000$ à un peu moins de 60 000$ 197
De 60 000$ à un peu moins de 80 000$ 190
De 80 000$ à un peu moins de 100 000$ 189
De 100 000$ à un peu moins de 120 000$ 103
De 120 000$ à un peu moins de 150 000$ 98
150 000 $ et plus 85
Refus de répondre 73
Identité ethnoculturelle 1201
Personne racialisée 283
Personne non racialisée 884
Refus de répondre 34
Langue du sondage  
English  
Français  

B. Instrument de recherche quantitative

Client : 2020-1703 ISDE

Champ : Nanos Canada, n=1 200 Canadiens. Sondage en ligne non probabiliste.

Durée : 12 minutes

Introduction

Nous vous remercions de votre intérêt à participer à ce court sondage de 12 minutes. Nanos Research a mené, à la demande du gouvernement du Canada, ce sondage en ligne visant à recueillir les opinions des Canadiens sur l'intelligence artificielle (IA).

Votre participation est volontaire et vos réponses à ce sondage resteront entièrement anonymes et confidentielles. Toute information que vous fournissez sera gérée conformément à la Loi sur la protection des renseignements personnels, à la Loi sur l'accès à l'information et aux autres lois pertinentes relatives à la protection de la vie privée. Protéger la santé et le bien-être économique des Canadiens pendant la pandémie de COVID-19 est une priorité pour le gouvernement du Canada. Parallèlement, le gouvernement du Canada poursuit ses activités afin de servir les Canadiens et de s'acquitter de son mandat. Les résultats de sondages comme celui-ci aident le gouvernement du Canada à poursuivre et à améliorer son travail.

Ce projet a été inscrit auprès du Conseil de recherche et d'intelligence marketing canadien (CRIC). Merci à l'avance de nous accorder votre temps.

If you wish to fill out the survey in English, please choose "English".

A. Avez-vous 18 ans ou plus?

  • Oui
  • Non (Terminer – non qualifié)

B. Est-ce que vous, ou un membre de votre famille immédiate, occupez l'une des professions suivantes?

  • Société d'études de marché (Terminer – non qualifié)
  • Télévision, radio ou médias (Terminer – non qualifié)
  • Agence de publicité (Terminer – non qualifié)

Aux fins du sondage, le terme « IA » désigne l'intelligence artificielle.

1. Diriez-vous que vous avez une bonne connaissance, une certaine connaissance, une faible connaissance ou aucune connaissance de l'IA?

  • Bonne connaissance [Passez à la question 2]
  • Certaine connaissance [Passez à la question 2]
  • Faible connaissance [Passez à la question 3]
  • Aucune connaissance [Passez à la question 3]

2. [Si OUI] Où avez-vous entendu parler de l'IA? [OPEN]

L'IA est l'ensemble des techniques informatiques qui permettent à une machine (p. ex. un ordinateur ou un téléphone mobile) d'effectuer des tâches qui requièrent généralement de l'intelligence, comme le raisonnement ou l'apprentissage.

3. Selon vous, quelles sont les possibilités offertes par l'IA à l'heure actuelle? (Cochez toutes les réponses qui s'appliquent) [RANDOMIZE]

  • Jouer à des jeux
  • Effectuer une surveillance vidéo
  • Remplacer les humains effectuant des tâches dangereuses
  • Ressentir des émotions
  • Se comporter comme les humains dans un contexte social
  • Réfléchir logiquement
  • Contribuer à la résolution de problèmes opérationnels
  • Interpréter la parole
  • Interpréter les images
  • Tirer des leçons des données pour améliorer la compréhension
  • Composer de la musique
  • Incertain

4. Si vous le pouvez, veuillez décrire une utilisation future possible de l'IA. [OPEN]

Selon une échelle allant de 0, très défavorables, à 10, très favorables, comment évaluez-vous les répercussions de l'IA sur les éléments suivants au cours des cinq prochaines années? [RANDOMIZE]

5. Vous personnellement

6. Ensemble du Canada

  • Note
  • Incertain

Pour la liste des problèmes possibles ci-dessous, veuillez indiquer si vous pensez que les résultats produits par l'IA sont excellents, bons, moyens, mauvais ou très mauvais. [RANDOMIZE]

7. Reconnaître les différences entre les images

8. Prendre des décisions dans un environnement qui évolue rapidement

9. Prendre une décision éthique dans un contexte particulier

10. Reconnaître l'influence des préjugés humains

  • Très bonne
  • Bonne
  • Moyenne
  • Faible
  • Très faible
  • Incertain

Êtes-vous d'accord, plutôt d'accord, plutôt en désaccord ou en désaccord avec chacun des points suivants? [RANDOMIZE]

11. Les personnes qui développent l'IA le font de manière éthique

12. L'IA peut présenter des risques pour la société

13. Les systèmes dotés d'IA nécessitent l'intervention humaine

14. Les ordinateurs peuvent penser comme les humains

15. La capacité de décision des ordinateurs est limitée par la façon dont ils sont programmés

16. Les ordinateurs peuvent être programmés pour prendre des décisions éthiques

  • D'accord
  • Plutôt d'accord
  • Plutôt en désaccord
  • En désaccord
  • Incertain

Pour chacun des éléments suivants, pensez-vous que l'intervention humaine est nécessaire ou non?

17. Les humains ont un rôle à jouer dans la conception de l'IA

18. Les humains ont un rôle à jouer dans la création de l'IA

19. Les humains ont un rôle à jouer dans les tests et la validation de l'IA

  • Nécessaire
  • Non nécessaire
  • Incertain

Selon une échelle allant de 0, très défavorables, à 10, très favorables, comment évaluez-vous les répercussions de l'IA sur les aspects suivants de la vie au Canada au cours des cinq prochaines années? [RANDOMIZE]

  • 20. Services d'intervention d'urgence
  • 21. Application de la loi
  • 22. Douanes et contrôle des frontières
  • 23. Éducation
  • 24. Services communautaires
  • 25. Vente au détail
  • 26. Soins de santé
  • 27. Transport
  • 28. Médias
  • 29. Banque et finances
  • 30. Arts et culture
  • 31. Énergie et ressources naturelles
  • 32. Fabrication
  • 33. Agriculture
  • 34. Travail et main-d'œuvre
    • Note
    • Incertain

Selon une échelle allant de 0, aucunement préoccupé, à 10, très préoccupé, comment évaluez-vous votre préoccupation quant aux résultats potentiellement défavorables de l'utilisation de l'IA sur les aspects suivants de la vie au Canada? [RANDOMIZE]

  • 35. Services d'intervention d'urgence
  • 36. Application de la loi
  • 37. Douanes et contrôle des frontières
  • 38. Éducation
  • 39. Services communautaires
  • 40. Vente au détail
  • 41. Soins de santé
  • 42. Transport
  • 43. Médias
  • 44. Banque et finances
  • 45. Arts et culture
  • 46. Énergie et ressources naturelles
  • 47. Fabrication
  • 48. Agriculture
  • 49. Travail et main-d'œuvre
    • Note
    • Incertain

50. Parmi les technologies suivantes, lesquelles s'appuient sur l'IA? (Cochez toutes les réponses qui s'appliquent) [RANDOMIZE]

  • Filtres antipourriel
  • Termes de recherche prédictifs (c.-à-d. des prédictions de ce que vous recherchez en fonction de termes de recherche populaires, etc.)
  • Assistant virtuel (c.-à-d. Siri, Alexa, etc.)
  • Assistant virtuel en ligne (c.-à-d. agent conversationnel, etc.)
  • Systèmes de recommandation (c.-à-d. achats en ligne, Netflix, etc.)
  • Recherche et reconnaissance d'images
  • Aucune utilisation de l'IA [ANCHOR, EXCLUSIVE]
  • Incertain [ANCHOR, EXCLUSIVE]

51. Veuillez classer par ordre d'importance les personnes qui, selon vous, devraient prendre l'initiative d'élaborer des solutions fondées sur l'IA, 1 correspondant à la personne la plus importante, 2 à la deuxième, et ainsi de suite.

  • RANG
  • Gouvernements
  • Sociétés privées.
  • Organismes financés par les fonds publics
  • Organismes universitaires
  • Aucune préférence quant à la personne responsable [EXCLUSIVE]
  • Incertain [EXCLUSIVE]

52. En ce qui concerne les répercussions potentielles de l'IA dans les prochaines années, quels sont les aspects qui vous semblent les plus prometteurs? [OPEN]

53. En ce qui concerne les répercussions potentielles de l'IA dans les prochaines années, quels sont les aspects qui vous inquiètent le plus? [OPEN]

54. Êtes-vous intéressé, plutôt intéressé, plutôt pas intéressé ou pas intéressé à en apprendre davantage sur l'IA?

  • Intéressé
  • Plutôt intéressé
  • Plutôt pas intéressé
  • Pas intéressé
  • Incertain

55. Comme vous le savez peut-être, l'IA tire des leçons des données afin de prendre des décisions et formuler des recommandations. En pensant à vos activités quotidiennes, quelles données sont le plus souvent recueillies à votre sujet? [Open]

  • Réponse
  • Incertain

56. À ce jour, l'IA a la capacité de : [Sélectionnez toutes les réponses qui s'appliquent]

  • Effectuer une tâche précise
  • Effectuer toute une série de tâches qui lui sont demandées (comme un humain)
  • Effectuer simultanément certaines tâches
  • Aucune de ces réponses
  • Incertain

57. Avez-vous d'autres commentaires à faire sur l'IA?

Nos dernières questions nous aideront à regrouper vos réponses et à nous assurer que nous recevons les commentaires d'un groupe diversifié de personnes au Canada. Vos réponses resteront entièrement anonymes. Vous pouvez choisir de passer les questions auxquelles vous préférez ne pas répondre.

58. En quelle année êtes-vous né?

59. Laquelle des catégories suivantes correspond le mieux au revenu de votre ménage, c'est-à-dire au revenu de toutes les personnes vivant à votre domicile?

  • Moins de 20 000 $
  • De 20 000 $ à un peu moins de 40 000 $
  • De 40 000$ à un peu moins de 60 000$
  • De 60 000$ à un peu moins de 80 000$
  • De 80 000 $ à un peu moins de 100 000 $
  • De 100 000 $ à un peu moins de 120 000 $
  • De 120 000$ à un peu moins de 150 000$
  • 150 000 $ et plus
  • Préfère ne pas répondre [Unprompted]

60. Parmi les catégories suivantes, quel est le niveau de scolarité le plus élevé que vous ayez atteint?

  • Certaines études secondaires
  • Études secondaires terminées
  • Certains cours collégiaux ou universitaires
  • Études collégiales terminées
  • Études universitaires terminées
  • Études supérieures terminées
  • Refus de répondre ou aucune réponse

61. À des fins de vérification uniquement, veuillez saisir les trois premiers chiffres de votre code postal : ___

62. Sexe [OPEN]

63. À laquelle des catégories suivantes vous identifiez-vous le mieux? [RANDOMIZE]

  • Blanc
  • Asiatique du Sud (p. ex. Indien de l'Est, Pakistanais, Sri Lankais, etc.)
  • Chinois
  • Noir
  • Philippin
  • Latino-américain
  • Arabe
  • Asiatique du Sud-Est (p. ex. Vietnamien, Cambodgien, Laotien, Thaïlandais, etc.)
  • Asiatique de l'Ouest (p. ex. Iranien, Afghan, etc.)
  • Coréen
  • Japonais
  • Premières Nations, Métis ou Inuk
  • Autre (veuillez préciser)
  • Préfère ne pas répondre

Merci beaucoup pour votre temps.

Liste de réponses – questions d'évaluation des connaissances (les bonnes réponses sont mises en évidence)

3. Selon vous, quelles sont les possibilités offertes par l'IA à l'heure actuelle? (Cochez toutes les réponses qui s'appliquent) [RANDOMIZE]

  • Jouer à des jeux
  • Effectuer une surveillance vidéo
  • Remplacer les humains effectuant des tâches dangereuses
  • Ressentir des émotions
  • Se comporter comme les humains dans un contexte social
  • Réfléchir logiquement
  • Contribuer à la résolution de problèmes opérationnels
  • Interpréter la parole
  • Interpréter les images
  • Tirer des leçons des données pour améliorer la compréhension
  • Composer de la musique
  • Incertain

Pour la liste des problèmes possibles ci-dessous, veuillez indiquer si vous pensez que les résultats produits par l'IA sont excellents, bons, moyens, mauvais ou très mauvais. [RANDOMIZE]

  • 7. Reconnaître les différences entre les images [bonne/moyenne]
  • 8. Prendre des décisions dans un environnement qui évolue rapidement [bonne]
  • 9. Prendre une décision éthique dans un contexte particulier [faible/très faible]
  • 10. Reconnaître l'influence des préjugés humains [très faible]

Êtes-vous d'accord, plutôt d'accord, plutôt en désaccord ou en désaccord avec chacun des points suivants? [RANDOMIZE]

  • 14. Les ordinateurs peuvent penser comme les humains [en désaccord]
  • 15. La capacité de décision des ordinateurs est limitée par la façon dont ils sont programmés [d'accord]
  • 16. Les ordinateurs peuvent être programmés pour prendre des décisions éthiques [plutôt d'accord/plutôt en désaccord/en désaccord]

50. Parmi les technologies suivantes, lesquelles s'appuient sur l'IA? (Cochez toutes les réponses qui s'appliquent) [RANDOMIZE]

  • Filtres antipourriel
  • Termes de recherche prédictifs (c.-à-d. des prédictions de ce que vous recherchez en fonction de termes de recherche populaires, etc.)
  • Assistant virtuel (c.-à-d. Siri, Alexa, etc.)
  • Assistant virtuel en ligne (c.-à-d. agent conversationnel, etc.)
  • Systèmes de recommandation (c.-à-d. achats en ligne, Netflix, etc.)
  • Recherche et reconnaissance d'images
  • Aucune utilisation de l'IA
  • Incertain

56. À ce jour, l'IA a la capacité de : [Sélectionnez toutes les réponses qui s'appliquent]

  • Effectuer une tâche précise
  • Effectuer toute une série de tâches qui lui sont demandées (comme un humain)
  • Effectuer simultanément certaines tâches
  • Aucune de ces réponses
  • Incertain

Pour chacun des éléments suivants, pensez-vous que l'intervention humaine est nécessaire ou non?

  • 17. Les humains ont un rôle à jouer dans la conception de l'IA [nécessaire]
  • 18. Les humains ont un rôle à jouer dans la création de l'IA [nécessaire]
  • 19. Les humains ont un rôle à jouer dans les tests et la validation de l'IA [nécessaire]

C. Dialogue ouvert : L'intelligence artificielle au Canada – Calendrier des délibérations

Séance plénière d'ouverture (15 minutes)

Enquête pré-délibération

  • 1. Les avantages sociaux de l'IA sont importants
  • 2. Le développement de l'IA est généralement inquiétant
  • 3. Le développement de l'IA est principalement bénéfique, mais préoccupant dans certains domaines.
  • 4. Les avantages sociaux de l'IA l'emportent sur ses effets négatifs
  • 5. L'IA est une technologie digne de confiance si elle est guidée par des règles éthiques.
  • 6. L'IA est une technologie digne de confiance si elle est réglementée.

Séance en petits groupes avec 6 à 10 participants (95 minutes)

1. Introduction (15 minutes)

  • Rappeler les objectifs de la consultation, c'est-à-dire obtenir des commentaires afin d'établir une grille de recommandations sur un cadre responsable pour l'intelligence artificielle au Canada.

2. Déterminer les valeurs, les principes et les questions éthiques de l'intelligence artificielle (40 minutes)

  • a. Présenter le thème. Pendant 3 à 5 minutes, l'animateur présente le thème. L'objectif est d'aider à contextualiser et à mieux comprendre le scénario.
  • b. Présenter le scénario. L'animateur lit et diffuse sur son écran le scénario qui lui a été attribué précédemment.
  • c. Déterminer les valeurs, les principes et les questions éthiques à partir du scénario d'utilisation. Chaque participant présente ses choix et les arguments qui les sous-tendent.
  • d. En tant que groupe, cibler trois questions éthiques prioritaires. Le groupe doit, d'un commun accord, cibler trois questions éthiques prioritaires.

Pause de 10 minutes

3. Rédaction de recommandations pour guider le développement responsable de l'intelligence artificielle (40 minutes)

  • a. Présenter les questions liées au scénario d'utilisation. Lire les questions à voix haute. Pour ce faire, se reporter à la section 3 de la fiche thématique.
  • b. Présenter les outils réglementaires. Lire à haute voix les différents outils réglementaires disponibles au Canada. Ne pas hésiter à demander aux personnes participantes s'ils ont besoin de précisions ou d'exemples pour mieux comprendre ces outils et leur pouvoir.
  • c. Inviter les personnes participantes à proposer une à trois recommandations pour résoudre les problèmes soulevés précédemment. 
  • d. Évaluation collective des recommandations. Ce moment est consacré à la délibération. Plus précisément, trois recommandations doivent être choisies parmi toutes celles présentées par les personnes participantes. Dire aux participants : « Parmi toutes ces recommandations, nous devons en choisir seulement trois. Il convient donc d'en évaluer la pertinence, la faisabilité et l'efficacité. » 

4. Conclusion (8 minutes) 

  • Faire un retour sur les discussions du groupe et remercier les personnes participantes de leurs contributions.

Séance plénière de clôture (10 minutes)

Enquête post-délibération

Les personnes participantes se voient présenter un sondage Zoom anonyme dans lequel les options suivantes leur sont proposées pour chacune des questions ci-dessous : Tout à fait d'accord, D'accord, Neutre, Pas d'accord, Pas du tout d'accord.

  • 1. Les avantages sociaux de l'IA sont importants
  • 2. Le développement de l'IA est généralement inquiétant
  • 3. Le développement de l'IA est principalement bénéfique, mais préoccupant dans certains domaines.
  • 4. Les avantages sociaux de l'IA l'emportent sur ses effets négatifs
  • 5. L'IA est une technologie digne de confiance si elle est guidée par des règles éthiques.
  • 6. L'IA est une technologie digne de confiance si elle est réglementée.

L'animateur résume les résultats et remercie les personnes participantes de leur temps et de leurs contributions.

D. Dialogue ouvert : L'intelligence artificielle au Canada – Scénarios

Afin d'évaluer les questions éthiques, sociétales et politiques soulevées par les applications de l'intelligence artificielle (IA), il semble opportun de réfléchir à leur développement et à leur utilisation dans les secteurs et domaines suivants:

  1. Santé
  2. Services administratifs
  3. Éducation
  4. Commerce, travail et emploi
  5. Environnement
  6. Médias, arts et culture
  7. Banques et finances
  8. Justice prédictive

Pour réfléchir collectivement à ces questions, il convient de partir de situations concrètes, bien que fictives, dans lesquelles l'IA se déploie (cas d'usage) et nous affecte individuellement et collectivement. Dans ces situations, nous devons faire un choix de société en fonction des exigences éthiques et politiques que nous aurons collectivement reconnues. Pour mettre en évidence ces cas d'usage, nous avons développé des scénarios prospectifs. Un scénario prospectif est la description d'une situation future; certaines situations sont très similaires à notre monde actuel. Un scénario prospectif n'est ni une histoire vraie ni de la science-fiction, mais plutôt une situation susceptible de se produire. A l'aube de transformations sociales majeures liées à l'IA, les scénarios prospectifs nous permettent de découvrir, de créer et de penser autrement.

Objectifs du projet

Les cas d'utilisation présentés ci-dessous sont basés sur des cas d'utilisation réels qui ont été analysés précédemment mais sont fictifs. Ils permettent d'atteindre plusieurs objectifs.

  • Ils sont des déclencheurs: des points de départ pour la délibération.
  • Les cas d'utilisation sont prospectifs: ils décrivent des situations typiques qui pourraient se produire dans un avenir proche.
  • Ils décrivent des situations qui posent un problème éthique, politique, social, juridique ou sociétal. Ils soulèvent parfois des dilemmes éthiques, c'est-à-dire des situations où les valeurs et les principes peuvent entrer en conflit ou du moins provoquer des tensions.
  • Les cas d'utilisation sont ouverts: ils n'indiquent pas quelle est la bonne solution à adopter. La solution, s'il y en a une, dépend de la délibération, du dialogue pour trouver le meilleur argument en fonction des valeurs et des principes que les interlocuteurs reconnaissent collectivement.

Comment? Vous pouvez utiliser le scénario ou l'illustration, ou les deux ensemble, pour lancer des conversations ou des délibérations.

1 Santé 

1.1 Le laboratoire médical portable 

Février 2027. Les antécédents familiaux de Samia sont inquiétants. Sa mère et sa tante maternelle sont décédées d'un cancer du sein et la probabilité qu'elle en développe un, est élevée. Elle déplore le fait qu'elle ne puisse pas avoir des rendez-vous réguliers, tous les six mois, chez sa gynécologue. Évidemment si elle pouvait être suivi en permanence, ce serait idéal, car pris assez tôt, les chances de guérison du cancer du sein sont très grandes.

Aussi n'a-t-elle pas hésiter quand on lui a proposé de participer au projet pilote MedicAI Lab qui utilise des nanotechnologies chimiques associées à un dispositif d'IA pour détecter certaines maladies ou suivre l'évolution de pathologies chroniques comme le diabète. MedicAI Lab est une sorte de laboratoire d'analyse médical dans une toute petite puce qui est inséré dans le bras. Dans le cas de Samia, la puce MedicAI Lab détecte les globules blancs, prend la température et d'autres mesures qui lui permettent d'affiner son diagnostic. Les données et le diagnostic sont directement transmises à l'équipe médicale de l'hôpital référent. Si un problème survient, Samia reçoit automatiquement un rendez-vous.

Depuis qu'elle a la puce MedicAI Lab dans le bras, son amie Joan l'appelle pour plaisanter le cyborg. Mais au fond, elle ne comprend pas qu'elle ait acceptée de se faire implanter une puce. Samia lui explique que cela ne lui fait pas mal et qu'elle se sent plus rassurée comme ça. D'ailleurs, Samia suggère à Joan de consulter pour obtenir une puce qui l'aiderait à gérer son diabète, notamment la nuit. « Ça, jamais! lui répond Joan. Tu ne sais même pas ce qu'ils font de tes données! ». Samia est déconcertée par la réponse de son amie.

1.2 Un robot pour les aîné.e.s

Janvier 2027. La famille Walsh vient de recevoir Vigilo, un robot d'assistance aux personnes âgées qui souffrent de troubles cognitifs. Vigilo est destiné à leur grand-mère Connie, 83 ans, atteinte de la maladie d'Alzheimer dans un stade précoce. Grâce à lui, Connie va pouvoir demeurer à son domicile le plus longtemps possible et ne pas emménager immédiatement dans une maison de retraite, ce qui semblait inévitable au vu de sa perte croissante d'autonomie. De plus, la famille pourra maintenant espacer ses visites car Vigilo leur transmet quotidiennement un rapport sur l'état de santé de leur grand-mère. Vigilo évalue l'évolution de la maladie de Connie en lui administrant régulièrement différents tests de neuropsychologie. Il s'occupe également de préparer son pilulier et vérifie qu'elle prend bien ses médicaments en temps voulu, grâce à sa caméra intégrée. Il transmet ensuite l'information au personnel de soin en charge de sa santé. Le robot embarque aussi un chatbot,une application capable d'entretenir des conversations avec elle, lui donner des conseils, lui rappeler des choses oubliées. L'aide familiale de Connie ne se rend à son domicile que deux fois par semaine pour la toilette et lui préparer des repas.

Mais au fil des mois, Connie échange de moins en moins avec sa famille, sa fille Sarah dont elle était très proche, et se confie de plus en plus à Vigilo. Sarah est inquiète. En effet, elle a accès à des rapports des discussions entre Connie et Vigilo : ce dernier possède une IA entraînée sur de nombreux.ses patient.e.s pour apprendre à détecter et à prédire des pertes de capacité cognitive mais aussi des épisodes de dépression. En cas d'alerte, Vigilo peut même envoyer à Sarah et aux autres membres de la fratrie de courts extraits de ses conversations privées avec Connie. Ces données sont conservées à des fins d'amélioration du système d'IA et de formation des médecins.

1.3 Prévention, santé mentale et IA

Février 2025. Récemment David, 45 ans, a été licencié de son emploi à l'abattoir de Val d'Orchard. Les employés licenciés ont reçu une prime de départ et ainsi qu'un abonnement d'un an à l'application Sovie pour faire un suivi psychologique et prévenir une possible dépression. Sovie est une application embarquée sur les téléphones intelligents, les montres connectées et les assistants personnels. Elle collecte différentes données comme les suivis médicaux, les activités physiques, les heures de sommeil, les conversations sur les réseaux sociaux, l'historique de navigation internet. À partir de ces données, l'application parvient à attribuer un niveau d'humeur plutôt fiable et identifie les symptômes de la dépression. Selon son diagnostic, Sovie peut leur donner des conseils personnalisés, les référer à un thérapeute, ou alerter des contacts pré-enregistrés de même que des organismes de prévention du suicide lorsqu'elle estime que l'utilisateur ou l'utilisatrice est à risque de se mettre elle-même ou d'autres en danger.

La semaine dernière, David a supprimé les notifications de Sovie car il estimait qu'il en recevait trop. Et depuis trois jours, il a même cessé d'utiliser l'application et s'est complétement déconnecté pour se reposer et réfléchir à son avenir professionnel. Aujourd'hui, Sonia, une intervenante de l'organisme SOS Suicide reçoit une notification alarmante sur l'état psychologique de David et après quelques tentatives pour le rejoindre par téléphone, elle décide de lui rendre visite. Quand Sonia se présente chez David, ce dernier est étonné mais n'est finalement pas mécontent de voir quelqu'un. Il se demande quand même comment SOS Suicide a eu accès à ses données. Sonia lui explique que c'est prévu par les conditions d'utilisation de Sovie et qu'il les a acceptées.

1.4 Optimisation des services publics en santé mentale

Avril 2022. En période de pandémie, le gouvernement d'une province canadienne décide d'analyser les données d'un réseau social populaire pour avoir un baromètre en temps réel de la santé mentale de sa population, appelé IndicIA. Un financement est attribué à un groupe de chercheur.e.s en santé d'un regroupement d'hôpitaux universitaires et d'industriels technologiques. IndicIA  permettra d'obtenir un portrait général de la santé mentale de la population, et aussi d'identifier les besoins en matière de services psychologiques, ce qui pourrait s'avérer très pratique en période de pandémie où les ressources sont très sollicitées et limitées. Le système automatisé opérera une analyse linguistique (ex. style d'écriture, type de mots utilisés). Il croisera ces informations avec d'autres données (ex. localisation, heure des posts, âge estimé, genre estimé, statut possible d'emploi, nombre d'interactions avec d'autres utilisateur.trice.s, longueur des posts).

Alors que le projet est lancé, plusieurs associations de citoyen.ne.s contestent la démarche. Elles soutiennent que les risques de violation de la vie privée sont importants. Ces dernières sont aussi inquiètes que ces informations très personnelles soient revendues à des compagnies ayant des inté- rêts commerciaux. Bien que l'équipe de IndicIA fournisse des garanties contre ce type d'utilisation des données et mette de l'avant les avantages du système, un autre groupe de chercheur.e.s estime que l'acceptabilité sociale du projet aurait dû être évaluée en amont et le public aurait dû être mieux informé. Dans ce contexte, l'avenir de IndicIA n'est pas assuré.

2 Services admnistratifs

2.1 Délivrance de visas

Décembre 2025. Le Gouvernement du Canada souhaite traiter les demandes de visas qui lui sont adressées le plus efficacement possible. C'est dans ce contexte qu'il commissionne une start-up torontoise qui se spécialise dans les systèmes de traitement du langage naturel pour la création d'un système d'IA nommé AImmigration. L'algorithme d'AImmigration a été entraîné à reconnaître quelles demandes devraient être acceptées ou refusées à l'aide de milliers de demandes de visas passées. Un.e fonctionnaire revoit ensuite la demande et confirme ou infirme la décision initiale d'AImmigration, ce qui contribue à améliorer davantage la qualité des décisions d'AImmigration. Les fonctionnaires sont d'abord sceptiques des décisions rendues par AImmigration. Mais, réalisant qu'elles leurs semblent toujours exactes, les fonctionnaires passent moins de temps sur chaque demande. Ils et elles traitent environ 25% plus de demandes par jour grâce à l'aide d'AImmigration.

Arrive devant AImmgration le dossier d'Ameera, de son mari Ibrahim, et de leur jeune fils, Ahmad. Ils espèrent que leurs demandes de visa seront acceptées. Mais AImmigration refuse leur demande, et la décision est rapidement approuvée par un fonctionnaire, qui ne voit aucune raison de contredire AImmigration. Convaincu.e.s qu'il s'agit d'une erreur, Ameera et Ibrahim soumettent une demande de révision et d'explication. À la réception de cette requête, les gestionnaires au Ministère de l'immigration sont confus.e.s. Personne ne peut expliquer pourquoi AImmigration a rendu cette décision, et tou.te.s se demandent combien d'autres dossiers du genre pourraient avoir passés inaperçus.

2.2 Protection de la jeunesse

Septembre 2024. Dans le cadre d'une modernisation de plusieurs services administratifs, le logiciel « SOS enfant» voit le jour en matière de protection de la jeunesse. La motivation derrière le logiciel réside dans l'uniformisation des pratiques des intervenant.e.s de l'Organisme de protection de l'enfance (OPE) afin de cerner de façon plus objective le risque d'une situation pour la santé et sécurité d'un enfant. Après une période d'essai réussie, le logiciel est déployé dans toute la région.

Sarah, travailleuse sociale à l'OPE depuis 10 ans, reçoit la formation obligatoire sur l'utilisation de « SOS enfant ». Elle apprend que le logiciel est basé sur un modèle sur les facteurs sociaux liés à la négligence et violence à l'enfance et affiné avec les quelques données des dossiers passés de l'OPE. Ces dossiers contenaient les motifs de signalement, la présence de violence conjugale, la présence de toxicomanie, les revenus des parents, le progrès des parents, etc. Seuls les noms de parents et enfants avaient été rayés des dossiers. Le logiciel « SOS enfant » doit être utilisé obligatoirement par les intervenant.e.s lorsqu'il y a un signalement. Il détermine le niveau de risque de la situation et en conséquence établit un ordre de priorité des dossiers.

Sarah se questionne quant à la place du jugement clinique des intervenant.e.s face aux résultats du logiciel. La formatrice donne une réponse se voulant rassurante : « Le logiciel est là pour vous aider et non pour vous remplacer. Le dernier mot revient bien-sûr à l'humain! ». Sarah, comme ses autres collègues, doit gérer des dizaines de situations d'enfants par jour. Pendant les premières semaines d'utilisation du logiciel, elle demeurait sceptique face à celui-ci. Néanmoins, par manque de temps de faire les vérifications dans tous les dossiers qu'elle voudrait, elle s'en remet à l'ordre de priorité établi par « SOS enfant ».

3. Éducation 

3.1 Automatisation de l'enseignement 

Mars 2028. Le collège Albert Einstein a toujours été à l'avant-garde des technologies pédagogiques. Ainsi, lorsque la compagnie AthenIA lui propose d'essayer son nouveau produit, un programme personnalisé d'enseignement des langues, c'est avec enthousiasme que les robots AthenIA sont intégrés dans les classes d'insertion de français offertes aux nouveaux et nouvelles arrivantes. Comme d'habitude, les élèves suivent leur cours en classe, mais sans la présence de leur professeure, Assia. Chaque étudiante et étudiant reçoit un bandeau électronique qui permet d'enregistrer la voix et de lire ce que l'élève écrit. Le tout est transmis à un logiciel qui construit un profil détaillé pour chaque élève. Avec ces informations, le programme adapte les activités en groupe et assigne des devoirs personnalisés, en prenant en compte les progressions individuelles. Ces données seront ensuite utilisées pour l'évaluation finale qui déterminera le passage au régulier des élèves. Dans son dernier rapport d'évaluation de mi-parcours, AthenIA a mentionné une baisse de notes et de concentration de la part de Marysol. Assia trouve cela étrange puisque cette dernière figurait parmi les meilleur.e.s élèves de sa classe, à l'automne dernier.

Assia décide alors de faire un tour dans la classe durant l'heure du dîner pour discuter avec Marysol. En ouvrant sa boîte à lunch, Assia remarque que Marysol n'a pas de repas complet pour dîner. Assia comprend alors mieux d'où vient le manque de concentration. Un enfant qui ne mange pas peut difficilement se concentrer en classe. Dans le but d'atténuer la situation, Assia lui propose d'échanger de lunch.Étant donné qu'AthenIA ne peut tenir compte de ces facteurs lors de son évaluation, Assia décide d'informer la direction de la situation. Toutefois, la direction croit qu'il ne serait pas judicieux d'intervenir dans l'évaluation faite par AthenIA.

3.2 Captation de l'attention à l'école

Ce 28 septembre 2028, Carmen, professeure à l'école primaire Thérèse-Casgrain, a sa première rencontre de parents d'élèves. Carmen est impatiente de présenter AlterEgo, un robot éducatif doté d'une IA que l'école a mis à sa disposition pour le tester. AlterEgo doit permettre d'améliorer l'accompagnement des élèves en difficulté et de personnaliser l'enseignement. AlterEgo mesure en temps réel le degré d'attention des élèves, il identifie ce qui fait obstacle dans le cours à leur compréhension et détecte les enfants en difficulté. En apparence, le dispositif est très simple mais il utilise des algorithmes très avancés : grâce à des capteurs logés dans un bracelet électronique et aux tablettes connectées sur lesquels travaillent les enfants, AlterEgo détecte le stress ressenti par les enfants, le relâchement de leur attention, et il est capable d'analyser les variations de vitesse de lecture afin d'identifier les problèmes de compréhension. AlterEgo peut aussi envoyer des notifications aux élèves pour les stimuler, ou afficher un encadré d'explication supplémentaire. Pour Carmen, c'est une révolution. L'année dernière, elle avait repéré trop tardivement les difficultés d'Émiliano, un élève rêveur dont le manque d'attention expliquait certainement ses faibles notes. Avec AlterEgo, cela ne se reproduirait pas. Et elle lance en plaisantant : « Et avec lui, fini le stress des examens! ». C'est vrai que l'évaluation des élèves peut se faire désormais presque en temps réel et de manière continue.

Elle s'empresse de rassurer certains parents surpris qu'il y aura toujours des examens et que l'évaluation continue n'est pour l'instant qu'une indication complémentaire. Les parents qui étaient perplexes semblent maintenant séduits par ce dispositif intelligent. Tous, sauf Daniel, le père de Lisa : « Mais tous ces écrans, j'avais cru comprendre qu'ils provoquaient des troubles de l'attention? En tout cas, c'est peut-être paradoxal, mais j'ai remarqué que Lisa n'a jamais été aussi peu attentive à la maison et le soir, impossible de la coucher avant 22h. » Il n'est pas le seul; d'autres parents confirment l'observation de Daniel.

3.3 Optimisation des parcours scolaires

Février 2028. Patricia, professeure principale de la classe de secondaire 4, rencontre ce soir Kim Choi et ses parents pour évoquer ses souhaits d'orientation. Kim Choi rêve de monter un grand FabLab de quartier où on pourra construire des robots, les réparer et les recycler. Elle souhaite donc poursuivre des études en informatique et devenir ingénieure. Pour évaluer ce choix, Patricia s'appuie sur l'analyse de la nouvelle version du robot éducatif AlterEgo 2.0 qui dispose d'une fonctionnalité prédictive et calcule les chances de succès des élèves dans les différentes filières post-secondaires. Patricia annonce aux parents de Kim surpris de voir AlterEgo à ses côtés, qu'AlterEgo va les aider à trouver l'orientation la plus adaptée pour Kim. Celui-ci présente alors une analyse des résultats de Kim au cours des dix dernières années, avec des tableaux complexes, des comparaisons de chiffres, des tendances. Tout ça paraît bien obscur aux parents, mais Patricia leur explique qu'AlterEgo recommande à Kim une filière en gestion et sciences de l'administration, ce qui lui permettra de monter son projet de FabLab. Kim est désorientée et ses parents sont assez mécontents : « Comment ça? Ce n'est pas du tout ce que Kim veut faire! Où est le problème? Elle a toujours été forte en maths et en sciences. »

Patricia essaie de calmer les parents : « Il n'y a pas de problème. En fait, même s'ils restent bons, les résultats de Kim en maths n'ont cessé de baisser depuis la secondaire 1, sauf au 2e trimestre de secondaire 3. Mais ses résultats en langues sont excellents. Elle a plutôt un profil fait pour la communication et la gestion. » La mère de Kim interpelle Patricia : « Mais vous qui la connaissez, vous en pensez quoi? ». Patricia répond que son avis n'est pas très important car AlterEgo est très fiable. « Il a plus de données et « connaît » Kim depuis beaucoup plus longtemps que moi. Mais surtout il est moins biaisée que les humain.e.s. » La mère de Kim se résigne mais elle interroge Patricia : « Et vous avez gardé 10 ans de données sur ma fille? ».

4. Commerce, travail et emplois

4.1 Recrutement automatique

Mars 2023. GreenManage est une entreprise qui accompagne les petites et moyennes entreprises à mettre en place un environnement vert et des pratiques écoresponsables : baisse de la consommation d'énergie, recyclage, élimination du papier mais aussi privilégier les fournisseurs écologiques et les investissements verts. L'entreprise s'est fortement développée avec un marché en rapide expansion, et recherche de nouveaux talents pour répondre à la demande, innover et renforcer ses partenariats stratégiques. L'équipe de direction est très soucieuse d'avoir une diversité de candidates et de candidats et fait ainsi la promotion de l'inclusion et de l'équité dans son offre de poste en ligne. Elle cherche en particulier à pourvoir un poste de responsable de partenariats. Afin de traiter efficacement et de manière impartiale les nombreux dossiers de candidat.e.s qui affluent chaque année, GreenManage a acquis un système de recrutement automatisé. L'algorithme trie automatiquement les candidatures sur la base des données des recrutements passées et de l'intégration des employé.e.s recruté.e.s et des critères du profil de la candidate idéale ou du candidat idéal. Travis, étudiant en gestion à l'Université du Futur, a vu passer l'annonce de GreenManage sur sa page de ConeKteD. Il est très intéressé par la rémunération très compétitive qui est proposée et a bien l'intention de poser sa candidature. Mais il n'est pas aussi qualifié que sa partenaire de vie, Surya, qui vient de finir son barreau en droit des affaires. Il l'encourage donc à postuler, et comme les deux ne veulent pas laisser passer une si belle occasion, ils décident de présenter chacun.e leur candidature. Ce lundi matin, Travis trouve une belle surprise dans sa messagerie : il est retenu pour l'entrevue finale. Surya a eu moins de chance.

4.2 Transports et camions autonomes

Novembre 2027 – Paul, 57 ans, n'a connu qu'un seul emploi dans sa vie : celui de camionneur. Il travaille pour TransiPro, une entreprise de camionnage, depuis plusieurs années.

Mais cette semaine, TransiPro fait une grande annonce : ils ont acheté 150 camions autonomes produits par la compagnie hollandaise Slimme Vracht. Ces camions ont fait leurs débuts sur la route en 2022, mais maintenant leurs systèmes de conduite automatique sont enfin adaptés à toutes les conditions climatiques, des hivers québécois aux chaleurs du Mexique. Bien évidemment, ces camions autonomes ne requièrent pas de conducteur ou de conductrice. Et ils sont beaucoup plus efficaces : ils peuvent rouler 24/7, et n'ont jamais besoin de s'arrêter (sauf pour faire le plein de carburant, et même cela est fait de façon stratégique pour minimiser les délais aux client.e.s). Ultimement, la marchandise sera livrée plus rapidement, ce qui contribuera à limiter les pertes d'aliments périssables, par exemple.

Malheureusement, l'achat de ces camions autonomes mène TransiPro à licencier Paul, ainsi que la plupart de ses collègues. Les camions autonomes ont pris d'assaut l'industrie du transport dans la dernière année. Paul sait qu'il ne trouvera très probablement pas un autre emploi dans le domaine du transport, il envisage donc un retour aux études. Il espère que de se requalifier lui permettra de trouver un nouvel emploi, malgré le fait qu'il approche la soixantaine.

4.3 Consommation automatisée

Mai 2024. Le géant du magasinage en ligne, AchèteTout, lance ce printemps le service Prédi-livraison. En analysant les données personnelles et d'achats d'un.e client.e, ainsi que les enregistrements audio obtenus par les hauts-parleurs intelligents, DisMoiTout, dans la demeure des client.e.s, AchèteTout livrera des produits à ses client.e.s avant même que ceux et celles-ci les aient commandés. De plus, il les livrera au moment optimal tel que déterminé par l'algorithme. Josiane est une des premières clientes à adhèrer à Prédi-livraison. D'emblée, elle apprécie ne pas avoir à magasiner à chaque semaine ou à chaque mois pour des items essentiels, et est impressionnée par le moment auquel un produit lui est livré : toujours juste à temps. Elle est cependant perplexe quand elle reçoit un pantalon de maternité, ainsi qu'un livre intitulé Bienvenu, bébé !. Josiane n'a pas d'enfants, mais cela fait un moment qu'elle et son conjoint discutent d'avoir un premier enfant. L'algorithme de Prédi-livraison a jusqu'à présent excellé à prédire ce dont Josiane avait besoin et quand; se serait-il trompé cette fois-ci?

5. Environnement

5.1 Maison connectée

Juillet 2023. Mei et Pablo viennent d'acheter une maison et rencontrent aujourd'hui l'architecte qui sera responsable des rénovations. L'architecte attire leur attention sur le fait que c'est une vieille bâtisse et qu'elle risque de consommer beaucoup d'énergie. Il leur suggère de privilégier des travaux de rénovation qui la rendent écoresponsable : intelligente et écologique. L'architecte leur explique que la maison pourrait utiliser des systèmes d'intelligence artificielle comme HomIA pour optimiser la consommation d'énergie, le chauffage et l'éclairage, et l'utilisation de l'eau. Non seulement ils feront des économies en réduisant leur consommation d'énergie, mais leur impact sur l'environnement sera réduit de moitié. Comme Mei et Pablo sont très sensibles aux enjeux environnementaux, ils acceptent la proposition. Enthousiastes, Mei et Pablo en parlent à Lee, une amie qui travaille dans une organisation de protection de l'environnement. Sa réponse les surprend un peu : « C'est intéressant, mais avez-vous pensé à l'impact environnemental de tous ces appareils intelligents et de votre maison écoresponsable? Ça commence par l'exploitation des terres rares pour fabriquer ces appareils électroniques, qu'il faut remplacer régulièrement, ce qui engendre beaucoup de déchets polluants... et surtout, pour faire tourner les algorithmes comme HomIA, il y a les immenses centres de données dont la consommation d'énergie est astronomique! On n'y pense pas, mais l'impact de l'entraînement de certaines applications d'IA équivaut à l'empreinte carbone de 200 maisons pendant un an ! Et les plateformes de vidéos en ligne, c'est encore pire.» Mei et Pablo sont sensibles à ce discours, mais Mei lui fait remarquer que le système HomIA ne consomme pas plus qu'une application sur un téléphone et fait baisser de 50% la consommation d'énergie... et puis, eux ne sont pas en vidéoconférence toute la journée, rappelle Mei en souriant. Lee comprend l'allusion à son télétravail : « Bon, c'est vrai que votre HomIA a des avantages réels, mais je pense quand même qu'il faut d'abord pratiquer la sobriété numérique et utiliser des matériaux écologiques.»

5.2 Accessibilité et transports autonomes

Septembre 2031. L'été dernier, une métropole a accueilli les automobiles 100% électriques et autonomes de la compagnie Whee. Elles sont équipées d'une panoplie de senseurs, ainsi que d'une IA entraînée dans un environnement simulé et sur la route. Les véhicules Whee couvriront donc l'ensemble du territoire de la métropole sans arrêt, et sont à usage commun pour ceux et celles qui s'abonneront à ce service. Elles font un tabac avec les touristes en plus de réduire les problèmes de stationnement. Ces voitures sont aussi accessibles aux personnes dont la mobilité est réduite, comme Tatiana, qui se déplace en fauteuil roulant. À l'aide de son téléphone intelligent, elle peut maintenant commander une voiture n'importe où, et se déplacer partout en ville et beaucoup plus rapidement qu'en autobus ou en métro. Cependant, la collègue de Tatiana, Jordane, est beaucoup moins enthousiasmée par l'arrivée des voitures Whee en ville. La métropole a dû procéder des mises à niveau majeures de ses rues pour maximiser l'efficacité et la sécurité des véhicules autonomes, incluant la suppression de plusieurs corridors cyclables. Puisque Jordane se déplace principalement à vélo, elle trouve ces changements injustes envers les cyclistes. Tatiana lui dit : « au moins, les voitures sont électriques et vont contribuer à réduire les émissions de gaz à effets de serre.» Jordane est perplexe. Elle répond à Tatiana : «as-tu pensé aux impacts environnementaux des centrales électriques et de la production des batteries?».

5.3 Optimisation des abattoirs

Juin 2028. Ce sont des temps difficiles pour Bovani, un abattoir spécialisé dans l'industrie bovine. Un des employés responsables de la mise à mort des animaux, communément appelé un tueur, s'est suicidé. En plus de la pression médiatique, la compagnie doit gérer les plaintes de ses salariés à propos des effets sur leur santé mentale de leur tâche d'abattage en chaîne : plusieurs disent souffrir de syndrôme de stress posttraumatique. Sous la pression, la direction de la compagnie se tourne vers une toute nouvelle solution technique : le système SmartAbat, récemment développé par une société québécoise, permet la prise en charge automatisée et personnalisée des bêtes. Les dimensions de l'animal sont mesurées et ses mouvements sont suivis par un système de caméras. Cela permet d'automatiser les étapes de l'étourdissement (coup sur la tête qui rend l'animal inconscient) et de la saignée (égorgeage et vidage du sang). Les développeurs de SmartAbat promettent que le système ne requiert aucune supervision directe. Ainsi, les employé.e.s n'ont plus à s'occuper de ces opérations difficiles, et personne ne voit les animaux mourir. Les tâches des salariés se limitent à l'inspection des animaux à leur arrivée, et au traitement des dépouilles à la fin du processus. Un an après l'installation du système SmartAbat, la direction de Bovani est satisfaite. Le nombre de plaintes des salariés a chuté, et ce, sans affecter la productivité de l'entreprise. La compagnie a même pu réduire sa masse salariale. Avec l'adoption de SmartAbat dans plusieurs des abattoirs de la région, le métier de tueur est en voie de disparition.

5.4 Urbanisme et application de trafic

Octobre 2025. Comme tous les vendredis, Gregory assiste ce soir à la rencontre hebdomadaire de l'association. Les habitants pour un Snowball vert, une association qui veut améliorer la vie de la population du quartier défavorisé de Snowball. En quittant son bureau du Centre d'aide social, Gregory sait que le trafic risque d'être plus dense que d'habitude, car la météo s'annonce radieuse pour la fin de semaine et beaucoup de citadins font le choix de quitter la ville pour profiter des derniers beaux jours de l'année. Mais Gregory n'est pas stressé. Depuis quelques semaines, il utilise TireBouchon, une nouvelle application de transport. L'IA de TireBouchon optimise les trajets selon divers paramètres choisis par l'utilisateur ou l'utilisatrice. Par exemple, on peut calibrer l'application pour qu'elle identifie le trajet le plus court, le moins embouteillé, celui qui permet de consommer le moins d'essence ou encore le trajet le plus agréable visuellement. Par défaut, l'application est réglée sur le paramètre de temps et cela arrange la très grande majorité des utilisateurs et utilisatrices, l'autre paramètre le plus utilisé étant celui qui réduit la consommation d'essence. Depuis qu'il l'utilise, Gregory passe moins de temps dans sa voiture et rentre plus tôt du travail!

Aujourd'hui, TireBouchon va lui permettre de ne pas manquer le début de sa rencontre du vendredi soir sans avoir à quitter plus tôt le bureau. À sa grande surprise, l'assemblée de ce vendredi porte principalement sur l'augmentation incompréhensible du trafic dans les petites rues du quartier. Les habitants se plaignent du bruit et de la pollution que cela engendre et surtout des risques d'accident avec les enfants. On craint aussi que l'usure des infrastructures déjà mal en point ne s'accélère. Et tout le monde pointe du doigt l'application TireBouchon. Avant, la circulation était supportable. Peut-être que les applications recommandaient en priorité les trajets qui contournaient Snowball. « Quel intérêt de faire passer les voitures dans ce labyrinthe de petites rues mal entretenues? » se demande Kate. Gregory a son idée: « Pour rejoindre l'autoroute depuis le centre-ville, c'est quand même plus court! ».

6. Médias, arts et culture

6.1 Traduction automatique et diversité linguistique

Juin 2024. Ce matin, Selma était un peu anxieuse en arrivant à l'aéroport de Toronto (Canada), car elle ne parle ni l'anglais ni le français. Finalement, cela s'était bien passé. Grâce à l'application de traduction vocale automatique ULangAI, elle avait pu se faire comprendre du douanier qui, lui, ne connaissait pas un mot d'arabe. Dotée d'une fonction de reconnaissance de la voix et de traitement du langage, l'application traduit instantanément ce que l'on dit à haute voix dans le téléphone. Après une longue marche dans les rues de la ville, elle entre dans le restaurant Xin Shanghai où elle est accueillie par Li. Cette dernière est une étudiante chinoise, et elle avait fait le choix du Canada pour apprendre l'anglais qu'elle ne maîtrisait pas et était arrivée de Suzhu, il y a trois semaines à peine. Elle travaillait comme serveuse pour financer ses études. Selma voulait un plat végétarien, mais Li ne comprenait pas sa demande et se contentait de lui montrer les photos sur le menu. Mais Selma avait la solution à ce petit problème de communication; confiante, elle sortit son téléphone et ouvrit l'application ULangAI. Elle fut déçue de constater qu'il n'y avait aucune traduction de l'arabe vers le mandarin. D'ailleurs, la première langue de Li était le wu, une des langues les plus parlées en Chine après le mandarin. Selma finit par faire des gestes pour montrer qu'elle ne mangeait pas de viande, et Li compris ce langage.

6.2 Art humain et robot artiste

Octobre 2027. Dans le cadre du Festival des arts numériques, la Société des arts numériques (SAN)a décerné une bourse d'une valeur de plus de 15 000 à AI-ART, un robot-artiste de la compagnie Arbot. AI-ART est un logiciel qui par l'intermédiaire d'un processus d'apprentissage automatique peint des toiles sur mesure. AI-ART, grâce à des caméras disposées sur les murs de différentes galeries d'art bien côtées dans le monde entier, a été entraîné pour identifier les caractéristiques des oeuvres d'art qui plaisent le plus aux spectateur.trice.s, en analysant leur comportement, par exemple la durée passée devant l'oeuvre d'art, le nombre de fois qu'ils et elles sont passé.e.s devant, l'émotion faciale (admiration, dégoût, étonnement). Il peut ensuite créer des oeuvres au goût des spectateur.trice.s et garantir d'atteindre le public de la SAN.

En réaction à l'annonce de la SAN, Alya, une jeune sculpteuse montréalaise, a lancé le mouvement #ProtectRealArtists, un collectif d'artistes-humains qui militent contre le financement des robots- artistes. Dans sa lettre d'opinion rendue publique dans le journal, La Gazette, le collectif revendique le sous-financement et la précarité des artistes. «Une bourse d'une telle somme ne devrait pas être versée à une entreprise en robotique» a-t-elle répondu en entrevue. En réponse, la SAN a répondu qu'aucune mention spéciale n'interdit la participation des artistes-robots au concours et que techniquement AI-Art de la compagnie Arbot est tout à fait éligible à la bourse. Insatisfaite par cette réponse, Alya demande alors que la propriété intellectuelle des artistes-humains soit reconnue et que Arbot rémunère les artistes qui alimentent contre leur gré les créations de AI-Art.

6.3 Désinformation et réseaux sociaux 

Novembre 2021. Sofia adore la poésie et la lecture. Comme la majorité de ses ami.e.s, elle fréquente les réseaux sociaux. Grâce à ces plateformes, elle peut suivre ses auteurs et autrices préférées, partager ses créations littéraires et recevoir des commentaires sur des groupes d'entraide entre jeunes féru.e.s de poésie, suivre les informations reliées à l'actualité de sa ville ou encore se tenir au courant d'évènements festifs et sportifs qui ont lieu dans son quartier. Pratiques et faciles à utiliser, les réseaux sociaux sont de véritables mines d'information pour Sofia.

Ses proches et elle partagent régulièrement des articles sur divers sujets. Elle reçoit un jour un message de son ami José : « Tu devrais vraiment lire ça! ». Le message est suivi du titre d'un article qui l'intrigue : « La terre est cubique. Une vérité qui dérange. »Sceptique, mais curieuse, elle clique sur le lien. L'article est bien écrit, le site de publication Lesvraisnews.com est bien construit, mais elle n'est pas tout à fait convaincue. « Ça se saurait si la terre n'était pas ronde », se dit-elle. Le lendemain, lorsqu'elle se connecte sur son réseau social préféré, elle voit défiler sur son fil d'actualité de nombreux articles sur le même sujet : « Le saviez-vous? La terre est un cube! », « On nous ment : les 10 raisons de croire que la terre est cubique », et encore « Pourquoi la terre n'est pas ronde : la vérité en une vidéo ».

En effet, l'algorithme du réseau social a enregistré son intérêt pour le tout premier article. C'est donc afin de lui présenter un contenu personnalisé en accord avec ses préférences qu'il lui propose des articles similaires. Sofia commence à se poser des questions. Elle passe les jours suivants à lire tous les articles proposés par son fil d'actualité. Une semaine plus tard, Sofia écrit à son amie Lenû le message suivant : « Lis ça! Dans la vie, il faut se poser des questions! »et lui envoie un article intitulé « 10 preuves que la terre est cubique ».

7. Banque et Finance

7.1 Assurance – données et vie privée

Août 2025. L'an dernier, Elias a changé d'assurance maladie qu'il trouvait trop cher : son nouvel assureur Labellevie offre une montre connectée et une application santé qui encourage ses clientes et ses clients à adopter un style de vie réduisant les risques médicaux. En contrepartie,la police d'assu- rance est moins cher et les client.e.s ne manquent pas pour essayer ce nouveau programme d'assurance. L'application de Labellevie a accès aux données de diverses applications qui lui fournissent des in- formations sur leurs habitudes alimentaires, leurs déplacements, leur rythme cardiaque et d'autres informations permettant de définir un profil de risque des client.e.s. Fin juin 2025, on diagnostique à Elias une maladie cardiovasculaire qui nécessite des traitements longs et coûteux. Il prévient son assurance pour commencer son traitement. Cette dernière lui annonce qu'elle ne couvrira pas ses frais médicaux. Quand il cherche à comprendre, le service en ligne de l'assureur lui dit que c'est l'algorithme qui détermine son admissibilité selon des paramètres importants, mais on ne sait pas comment il est parvenu au résultat. Devant l'insistance d'Elias, le service informatique de l'assureur finit par l'informer que le système l'a classé comme personne à haut risque : outre les antécédents connus, l'alimentation non saine et la sédentarité constituent des facteurs de risque importants. C'est vrai, Elias a l'habitude de se faire livrer ses repas à domicile grâce à l'application Deliverfood, et il est amateur de pizzas. Et ses activités physiques? L'application de GymGym montre qu'il s'est présenté trois fois à la salle de sport en deux ans. L'assurance considère qu'elle ne peut pas être tenue responsable financièrement de mauvaises habitudes de vie d'Elias et que les conséquences sur sa couverture maladie étaient prévues dans son contrat d'assurance. «Et que diraient les autres assurés qui font les efforts requis pour éviter les risques inutiles?» Pour l'assureur, c'est une question d'équité.

8. Justice prédictive

8.1 Police prédictive géospécifique

Mai 2028. Depuis quelques années, les forces de police de Montréal utilisent un algorithme de prévision des infractions, appelé « AISurQar ». Le modèle de l'algorithme utilise une liste de facteurs qui augmente la probabilité de la criminalité sur la voie publique (voies de fait, agressions sexuelles, certains vols à l'étalage). Parmi ces facteurs, on retrouve notamment les attroupements d'individus, en particulier de jeunes hommes, le lieu (le quartier, la proximité avec un collège ou un centre de jeunesse), l'heure, les plaintes pour le bruit occasionné, etc. Grâce à cette IA, le taux d'infractions a diminué de façon spectaculaire de 13 %. Une partie de la population est donc très satisfaite de l'usage d'AISurQar, mais on ne sait pas si la baisse de la criminalité n'est pas plutôt dû à la baisse du nombre de crimes rapportés à la police en raison de la confiance grandissante envers AISurQar.

Un soir, AISurQar émet une alerte rouge pour une intervention en urgence : les caméras de surveillance ont détecté un attroupement de personnes proche d'un centre de jeunesse d'un quartier sensible. La probabilité d'infraction est très élevée et l'algorithme recommande la mobilisation de 15 policier.ère.s pour gérer la situation. Lorsque les policier.ère.s arrivent sur place, ils et elles commencent par demander aux jeunes de se disperser. Joseph et les autres jeunes sont mécontents de la présence policière et protestent : « On ne fait rien de mal, on fête juste la fin des examens de mi-session ». Les policier.ère.s constatent que les jeunes jouent au soccer ou à la bouteille et discutent en petits groupes, bruyamment, mais tranquillement. Mais la recommandation de AISurQar est formelle et les policier.ère.s insistent pour qu'ils et elles quittent les lieux.

Les jeunes très frustré.e.s décident d'obéir, mais le lendemain Joseph en parle aux responsables du Centre de jeunesse et, dans le cadre de ses activités au journal du collège, il décide d'écrire un article qui fait grand bruit. Les intervenant.e.s du Centre de jeunesse, les professeurs du collège et les associations de quartiers se coordonnent pour interpeler le service de police afin d'avoir des explications : « Encore une intervention pour rien! ce n'est pas la première fois que cela arrive et ça va finir par créer une situation ingérable », préviennent-ils et elles.

8.2 Prédiction automatique de récidive

Septembre 2023. Javier, 21 ans, a récemment été arrêté pour tentative de meurtre et a reçu une condamnation de 5 ans de prison avec possibilité de libération conditionnelle sous surveillance communautaire avant terme.

Après un an, la Commission des libérations conditionnelles examine le dossier de Javier en s'appuyant sur le logiciel « CONTA ». Ce logiciel de justice prédictive établit les risques de récidive d'un individu et propose plusieurs options. CONTA calcule le risque sur la base de plusieurs facteurs comme l'âge du détenu au moment de sa première infraction, les antécédents de comportement antisocial, relations affectives et familiales, le niveau d'éducation, l'emploi, alcoolisme et toxicomanie, etc. CONTA compare le profil de Javier avec des profils similaires et affines ses prédictions de récidive. Parmi les différentes options possibles, le logiciel sélectionne les trois recommandations suivantes : 1. poursuivre l'incarcération jusqu'à son terme dans 4 ans avec un risque de récidive de 20 %; 2. libérer le détenu après 3 ans en prison avec une obligation d'être suivi auprès d'un organisme de réinsertion sociale pendant 1 an par la suite avec un risque de récidive de 25 %; 3. finalement, une libération dans un an avec une obligation d'être suivi auprès de l'organisme de réinsertion sociale pendant 3 ans avec un risque de récidive de 20 %. Ces trois options sont également présentées avec le coût financier associé à la surveillance communautaire et au suivi psychologique et social.

Difficile d'expliquer pourquoi les options 1 et 3 ont le même taux de récidive, mais il appartient de toute façon à la Commission à la liberté de choisir une de ces trois options ou d'en proposer une autre. Compte tenu du dossier et en se basant sur leurs expériences, les Commissaires auraient été tentés de lui offrir une libération avec une obligation de suivi pendant 2 ans. Néanmoins, cette option n'étant pas proposée par l'algorithme, ils décident d'opter pour la première recommandation qui a l'avantage d'être moins dispendieuse avec le même taux de récidive que la recommandation 3. Javier purgera donc sa peine complète en prison.

8.3 Arrestation préventive

Avril 2027. Dans le cadre d'un nouveau programme des forces de police, un système d'intelligence artificielle est utilisé pour la prédiction de comportements criminels. L'algorithme de ce programme a été entraîné sur des données historiques de la police et analyse les profils de criminels. À partir des données disponibles en ligne (navigation internet, activité sur les réseaux sociaux) et des données de la police quand il y a déjà eu un signalement, le système émet un avis sur la dangerosité et peut déclencher une alerte en cas de menace imminente. Un jour, Edward est placé à son insu dans la catégorie « individu potentiellement à risque de commettre un crime », un féminicide, et les photos récupérées sur internet permettent désormais de l'identifier visuellement. Edward a vécu il y a 6 mois un échec amoureux avec Clara, une amie qu'il avait rencontrée au secondaire. Celle-ci est désormais étudiante à l'Institut des études en sciences humaines (IESH). Alors que leur relation était de nature amicale, Edward a développé pour elle des sentiments amoureux et il pensait que Clara avait les mêmes sentiments pour lui. Clara a dû lui faire comprendre que ce n'était pas le cas et Edward, déçu et furieux, a coupé les liens avec elle. Il s'est alors tourné vers des forums en ligne à la recherche d'avis de personnes ayant vécu une expérience semblable. C'est à ce moment qu'il est tombé sur la communauté des « InjuRej » (injustement rejetés).

En quelques mois, Edward est non seulement devenu un membre régulier du forum « InjuRej », mais de recommandation en recommandation, il s'est mis à fréquenter également des forums plus problématiques, notamment FLP.org (FLP pour « Fais-la payer »), sur lequel les membres s'encouragent à se venger des femmes ayant rejeté des hommes. Edward, pour décompresser, s'est également procuré un permis d'armes et va régulièrement sur un site de tirs. De plus, il continue régulièrement de visiter le profil de Clara sur les réseaux sociaux ainsi que la page de l'association féministe de l'IESH. Lorsqu'une caméra de surveillance à l'entrée de l'IESH dotée d'un système de reconnaissance faciale identifie Edward, les policier.ère.s sont averti.e.s par l'algorithme et décident d'intervenir immédiatement pour l'arrêter. « Je n'ai rien fait! », clame Edward. « Pas encore », lui répond un policier.