Le Canada mise sur la sécurité pour encadrer l’essor de l’intelligence artificielle

En lançant officiellement le Canadian AI Safety Institute à l’automne 2024, le gouvernement fédéral a posé un jalon stratégique dans la course mondiale à l’intelligence artificielle. Un an plus tard, le bilan du programme de recherche confié à CIFAR permet de mesurer concrètement comment le Canada tente de structurer une réponse scientifique, sociale et politique aux risques associés aux systèmes d’IA avancés. Le rapport annuel 2025 dresse le portrait d’un écosystème en rapide consolidation, où la sécurité devient un levier central de l’innovation plutôt qu’un frein.

Dès sa première année d’existence, le programme de recherche de CAISI à CIFAR s’est imposé comme le moteur scientifique indépendant de l’institut fédéral. Sa mission consiste à mobiliser des expertises issues autant de l’informatique que du droit, de l’éthique, des sciences sociales et de la santé mentale afin de traiter l’IA comme un enjeu sociotechnique. Cette approche marque une rupture avec les cadres strictement technologiques qui dominaient encore récemment les politiques d’innovation.

Les chiffres avancés dans le rapport témoignent de cette montée en puissance rapide. En 2025, plus de 2,4 millions de dollars ont été investis pour lancer douze projets de recherche, incluant dix projets dits « catalyseurs » et deux réseaux de solutions. Le programme fédère désormais plus de 55 experts, dont 28 chercheurs principaux, des boursiers postdoctoraux spécialisés en sécurité de l’IA et des scientifiques rattachés aux trois grands instituts canadiens, Amii, Mila et le Vector Institute. À cela s’ajoutent des partenariats nationaux et internationaux ainsi qu’une série de tables rondes réunissant chercheurs et décideurs publics.

L’un des axes majeurs mis de l’avant concerne la protection de la société face aux risques systémiques de l’IA. Le rapport souligne que la désinformation de masse, l’ingérence étrangère et les perturbations économiques figurent désormais parmi les menaces les plus sérieuses associées aux modèles génératifs. Dans ce contexte, plusieurs projets financés visent explicitement la défense des institutions démocratiques canadiennes. Le projet CIPHER, mené par des chercheurs de l’Université de l’Alberta et de l’Université de Regina, développe un système d’IA assisté par l’humain capable de détecter des campagnes de désinformation coordonnées, notamment dans des contextes géopolitiques sensibles. L’objectif est moins l’automatisation que le soutien aux organisations de la société civile appelées à analyser et contrer ces opérations.

La question de la santé mentale occupe également une place centrale dans le rapport. CIFAR met en garde contre l’usage croissant des agents conversationnels à des fins de soutien émotionnel, en particulier chez les jeunes. Le document cite des travaux indiquant qu’une proportion importante de jeunes Canadiens se tournent vers des compagnons artificiels pour de la validation personnelle, avec des risques avérés de dépendance et de détresse psychologique. En réponse, le programme soutient le travail du AI Safety Studio de Mila, qui développe des garde-fous techniques et des benchmarks indépendants pour détecter et bloquer les contenus favorisant l’automutilation ou le suicide. Ces outils, encore en phase de développement, doivent être rendus publics en 2026.

Au-delà de la prévention des dommages, le rapport insiste sur la nécessité de bâtir une relation de confiance entre les humains et les systèmes d’IA. Plusieurs projets explorent les limites actuelles du raisonnement des grands modèles de langage, notamment leur incapacité à justifier de manière fiable leurs réponses. Des chercheurs associés à CIFAR travaillent ainsi sur des cadres de débat algorithmique et de raisonnement normatif, inspirés du droit et des sciences sociales, afin de rendre les décisions de l’IA plus compréhensibles et auditables par des non-spécialistes. L’enjeu est clair : une IA puissante mais opaque risque d’éroder la confiance publique, même en l’absence d’intention malveillante.

La sécurisation des systèmes critiques constitue le troisième pilier du programme. Le rapport met en lumière une étude d’évaluation indépendante menée par le Vector Institute sur onze modèles d’IA de pointe, incluant des systèmes ouverts et fermés. Cette analyse, basée sur seize benchmarks reconnus, vise à mesurer la fiabilité, l’exactitude et l’équité de ces modèles dans des contextes concrets. Le choix d’ouvrir l’ensemble des résultats et du code source s’inscrit dans une logique de transparence destinée à favoriser une adoption responsable de l’IA dans des secteurs sensibles comme la santé, l’éducation et les services publics.

En filigrane du document, une idée revient avec insistance : la sécurité de l’IA n’est pas un état final, mais un processus continu. Les auteurs rappellent que l’accélération des capacités des modèles impose une vigilance constante et une adaptation des outils de gouvernance. Le Canada mise ici sur son avantage comparatif historique, soit une tradition de recherche interdisciplinaire et un écosystème où les liens entre universités, institutions publiques et société civile sont déjà bien établis.

Le rapport 2025 ne prétend pas apporter de réponses définitives aux défis posés par l’intelligence artificielle avancée. Il montre plutôt comment le pays tente de structurer une capacité collective d’anticipation, d’évaluation et de correction. Dans un contexte international marqué par une compétition technologique intense, le pari canadien consiste à faire de la sécurité et de la confiance non pas des contraintes, mais des conditions de durabilité de l’innovation.

Source : CIFAR

******

Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.

Ou encore…

Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

Laisser un commentaire