La Déclaration de Bletchley

La Déclaration de Bletchley par les Pays Participants au Sommet sur la Sécurité de l’IA, 1-2 novembre 2023

Publiée le 1er novembre 2023

L’intelligence artificielle (IA) offre d’énormes opportunités mondiales : elle a le potentiel de transformer et d’améliorer le bien-être, la paix et la prospérité humaine. Pour réaliser cela, nous affirmons que, dans l’intérêt de tous, l’IA doit être conçue, développée, déployée et utilisée de manière sécuritaire, de manière à être centrée sur l’humain, digne de confiance et responsable. Nous saluons les efforts de la communauté internationale jusqu’à présent pour coopérer sur l’IA afin de promouvoir une croissance économique inclusive, un développement durable et l’innovation, de protéger les droits de l’homme et les libertés fondamentales, et de renforcer la confiance du public envers les systèmes d’IA afin de réaliser pleinement leur potentiel.

Les systèmes d’IA sont déjà déployés dans de nombreux domaines de la vie quotidienne, notamment le logement, l’emploi, les transports, l’éducation, la santé, l’accessibilité et la justice, et leur utilisation devrait augmenter. Nous reconnaissons que c’est donc un moment unique pour agir et affirmer la nécessité du développement sécurisé de l’IA et des opportunités de transformation de l’IA pour le bien de tous, de manière inclusive dans nos pays et à l’échelle mondiale. Cela comprend les services publics tels que la santé et l’éducation, la sécurité alimentaire, la science, l’énergie propre, la biodiversité et le climat, pour réaliser la jouissance des droits de l’homme et renforcer les efforts en vue de la réalisation des objectifs de développement durable des Nations Unies.

Parallèlement à ces opportunités, l’IA présente également des risques importants, y compris dans ces domaines de la vie quotidienne. À cette fin, nous saluons les efforts internationaux pertinents visant à examiner et à aborder l’impact potentiel des systèmes d’IA dans les instances existantes et d’autres initiatives pertinentes, ainsi que la reconnaissance de la nécessité de traiter les questions liées à la protection des droits de l’homme, à la transparence et à l’explicabilité, à l’équité, à la responsabilité, à la réglementation, à la sécurité, à la supervision humaine appropriée, à l’éthique, à la réduction des biais, à la protection de la vie privée et des données. Nous notons également le potentiel de risques imprévus découlant de la capacité à manipuler le contenu ou à générer un contenu trompeur. Toutes ces questions revêtent une importance cruciale, et nous affirmons la nécessité et l’urgence de les aborder.

Des risques particuliers en matière de sécurité se posent à la « frontière » de l’IA, entendue comme ces modèles d’IA à usage général hautement capables, y compris les modèles de base, qui pourraient effectuer une grande variété de tâches – ainsi que des IA étroites spécifiques pertinentes qui pourraient présenter des capacités causant des dommages – qui correspondent ou dépassent les capacités présentes dans les modèles les plus avancés d’aujourd’hui. Des risques importants peuvent découler d’une utilisation intentionnelle abusive potentielle ou de problèmes de contrôle non intentionnels liés à l’alignement sur l’intention humaine. Ces problèmes sont en partie dus au fait que ces capacités ne sont pas entièrement comprises et sont donc difficiles à prédire. Nous sommes particulièrement préoccupés par de tels risques dans des domaines tels que la cybersécurité et la biotechnologie, ainsi que lorsque les systèmes d’IA de pointe peuvent amplifier des risques tels que la désinformation. Il existe un potentiel de préjudices graves, voire catastrophiques, qu’ils soient délibérés ou non, découlant des capacités les plus importantes de ces modèles d’IA. Compte tenu du rythme rapide et incertain du changement de l’IA, et dans le contexte de l’accélération de l’investissement dans la technologie, nous affirmons que approfondir notre compréhension de ces risques potentiels et des mesures à prendre pour les aborder est particulièrement urgent.

De nombreux risques liés à l’IA sont inhérents à la nature internationale, et la meilleure façon de les aborder est donc par le biais de la coopération internationale. Nous nous engageons à travailler ensemble de manière inclusive pour garantir une IA centrée sur l’humain, digne de confiance et responsable, et sécuritaire, qui favorise le bien de tous, grâce aux instances internationales existantes et à d’autres initiatives pertinentes, pour promouvoir la coopération visant à aborder la large gamme de risques posés par l’IA. Ce faisant, nous reconnaissons que les pays devraient tenir compte de l’importance d’une approche de gouvernance et de réglementation pro-innovation et proportionnée qui maximise les avantages et tient compte des risques liés à l’IA. Cela pourrait inclure, le cas échéant, des classifications et des catégorisations des risques fondées sur les circonstances nationales et les cadres juridiques applicables. Nous notons également la pertinence de la coopération, le cas échéant, sur des approches telles que des principes communs et des codes de conduite. En ce qui concerne les risques spécifiques les plus susceptibles d’être liés à l’IA de pointe, nous nous engageons à intensifier et à maintenir notre coopération, et à l’élargir avec d’autres pays, pour identifier, comprendre et, le cas échéant, agir, par le biais des instances internationales existantes et d’autres initiatives pertinentes, y compris les futurs Sommets internationaux sur la sécurité de l’IA.

Tous les acteurs ont un rôle à jouer pour garantir la sécurité de l’IA : les nations, les instances internationales et autres initiatives, les entreprises, la société civile et le milieu universitaire devront travailler ensemble. Tout en soulignant l’importance de l’IA inclusive et du comblement de la fracture numérique, nous réaffirmons que la collaboration internationale devrait s’efforcer d’impliquer un large éventail de partenaires, le cas é

chéant, et nous saluons les approches et les politiques axées sur le développement qui pourraient aider les pays en développement à renforcer leurs capacités en matière d’IA et à tirer parti du rôle facilitateur de l’IA pour soutenir une croissance durable et combler le fossé en matière de développement.

Nous affirmons que, bien que la sécurité doive être prise en compte tout au long du cycle de vie de l’IA, les acteurs développant des capacités d’IA de pointe, en particulier les systèmes d’IA qui sont exceptionnellement puissants et potentiellement nocifs, ont une responsabilité particulièrement grande pour garantir la sécurité de ces systèmes d’IA, notamment par le biais de systèmes de test de sécurité, d’évaluations et d’autres mesures appropriées. Nous encourageons tous les acteurs pertinents à fournir une transparence et une responsabilité appropriées au contexte concernant leurs plans de mesure, de surveillance et de réduction des capacités potentiellement nocives et des effets associés qui peuvent se produire, en particulier pour prévenir les abus et les problèmes de contrôle, ainsi que l’amplification d’autres risques.

Dans le cadre de notre coopération, et pour informer les actions aux niveaux national et international, notre programme visant à aborder les risques liés à l’IA de pointe se concentrera sur :

  • L’identification des risques de sécurité de l’IA d’intérêt commun, la création d’une compréhension scientifique et factuelle partagée de ces risques, et le maintien de cette compréhension à mesure que les capacités continuent d’augmenter, dans le contexte d’une approche mondiale plus large visant à comprendre l’impact de l’IA dans nos sociétés.
  • L’élaboration de politiques fondées sur les risques respectifs dans nos pays pour garantir la sécurité à la lumière de ces risques, en collaborant au besoin tout en reconnaissant que nos approches peuvent différer en fonction des circonstances nationales et des cadres juridiques applicables. Cela inclut, aux côtés d’une plus grande transparence de la part des acteurs privés développant des capacités d’IA de pointe, des métriques d’évaluation appropriées, des outils de test de sécurité, et le développement de capacités du secteur public pertinentes et de la recherche scientifique.

Dans le cadre de cette démarche, nous nous engageons à soutenir un réseau de recherche scientifique internationalement inclusif sur la sécurité de l’IA de pointe qui englobe et complète la collaboration multilatérale, plurilatérale et bilatérale existante et nouvelle, y compris par le biais des instances internationales existantes et d’autres initiatives pertinentes, afin de faciliter la fourniture de la meilleure science disponible pour l’élaboration de politiques et le bien public.

Reconnaissant le potentiel positif transformateur de l’IA, et dans le cadre de l’assurance d’une plus large coopération internationale sur l’IA, nous nous engageons à maintenir un dialogue mondial inclusif qui engage les instances internationales existantes et d’autres initiatives pertinentes et contribue de manière ouverte aux discussions internationales plus larges, et à poursuivre la recherche sur la sécurité de l’IA de pointe afin de garantir que les avantages de la technologie puissent être exploités de manière responsable pour le bien de tous. Nous attendons avec impatience de nous retrouver en 2024.

Accord
Les pays représentés étaient :

Australie
Brésil
Canada
Chili
Chine
Union européenne
France
Allemagne
Inde
Indonésie
Irlande
Israël
Italie
Japon
Kenya
Royaume d’Arabie saoudite
Pays-Bas
Nigéria
Les Philippines
République de Corée
Rwanda
Singapour
Espagne
Suisse
Türkiye
Ukraine
Émirats arabes unis
Royaume-Uni de Grande-Bretagne et d’Irlande du Nord
États-Unis d’Amérique

Les références aux « gouvernements » et aux « pays » incluent les organisations internationales agissant conformément à leurs compétences législatives ou exécutives.

** Cette traduction a été réalisée à l’aide de ChatGPT.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

Laisser un commentaire