Le réseau international des instituts de sécurité de l'IA : Déclaration de mission

21 novembre 2024

Les instituts de sécurité de l'IA et les bureaux mandatés par les gouvernements pour faciliter la sécurité et l'évaluation de l'IA de l'Australie, du Canada, de la Commission européenne, de la France, du Japon, du Kenya, de la République de Corée, de Singapour, du Royaume-Uni et des États-Unis se sont réunis aujourd'hui à San Francisco, le 21 novembre 2024, pour lancer le Réseau international des instituts de sécurité de l'IA. Affirmant et s'appuyant sur la déclaration d'intention de Séoul concernant la coopération internationale sur la science de la sécurité de l'IA, publiée lors du sommet de Séoul sur l'IA le 21 mai 2024, ce réseau a pour but de catalyser une nouvelle phase de coopération internationale en matière de sécurité de l'IA.

Nos instituts et bureaux sont des organisations techniques qui visent à faire progresser la sécurité de l'IA, à aider les gouvernements et la société à comprendre les risques posés par les systèmes d'IA avancés et à proposer des solutions pour faire face à ces risques afin de minimiser les dommages. Au-delà de l'atténuation des risques, ces instituts et bureaux jouent un rôle crucial en guidant le développement et le déploiement responsables des systèmes d'IA. L'IA offre d'énormes possibilités - la capacité de répondre à des besoins de la société et de transformer et améliorer le bien-être humain, la paix et la prospérité - ainsi que des risques potentiels à l'échelle mondiale. La coopération internationale pour promouvoir la sûreté, la sécurité, l'inclusivité et la confiance dans l'IA est essentielle pour faire face à ces risques, stimuler l'innovation responsable et élargir l'accès aux avantages de l'IA dans le monde entier.

Le réseau international des instituts de sécurité de l'IA vise à être un forum rassemblant de l'expertise technique du monde entier. Reconnaissant l'importance de la diversité culturelle et linguistique, nous visons à faciliter une compréhension technique commune des risques liés à la sécurité de l'IA et des mesures d'atténuation fondée sur les travaux de nos instituts et de la communauté scientifique plus largement, afin de soutenir le développement et l'adoption de principes et de meilleures pratiques interopérables internationalement. Nous avons également l'intention d'encourager une compréhension et une approche générales de la sécurité de l'IA au niveau mondial, ce qui permettra de partager les avantages de l'innovation en matière d'IA entre les pays à tous les stades de développement. Les dirigeants de nos instituts et bureaux chargés de la sécurité de l'IA respectifs se sont donc réunis pour collaborer en tant que membres du réseau afin de favoriser l'alignement technique sur la recherche, les test et les orientations en matière de sécurité de l'IA.

Dans un premier temps, conformément à nos mandats, nous avons l'intention de concentrer nos efforts collectifs dans les quatre domaines suivants qui sont cruciaux pour la sécurité internationale de l'IA :

  • Recherche : Nous prévoyons, en collaboration avec la communauté scientifique, de faire progresser la recherche sur les risques et les capacités des systèmes d'IA avancés, ainsi que de partager les résultats les plus pertinents, lorsque approprié, de la recherche qui fait progresser la science de la sécurité de l'IA.
  • Tests : Nous prévoyons de travailler à l'élaboration de meilleures pratiques communes pour tester les systèmes d'IA avancés. Ces travaux pourraient inclure la réalisation d'exercices de test conjoints et le partage des résultats des évaluations nationales, le cas échéant.
  • Orientations : Nous prévoyons de faciliter des approches communes telles que l'interprétation des tests de systèmes avancés, lorsque pertinent.
  • Inclusion : Nous prévoyons d'interagir activement avec les pays, les partenaires et les parties prenantes dans toutes les régions du monde et à tous les niveaux de développement en partageant des informations et des outils techniques d'une manière accessible et collaborative, lorsque pertinent. Nous espérons, par ces actions, accroître la capacité d'un éventail diversifié d'acteurs à participer à la science et à la pratique de la sécurité de l'IA. Par l'intermédiaire de ce réseau, nous nous engageons à collaborer largement avec nos partenaires pour faire en sorte que l'IA sûre, sécurisée et digne de confiance profite à l'ensemble de l'humanité.