Yoshua Bengio met en garde contre un pouvoir incontrôlé de l’intelligence artificielle

Invité du Grand Entretien de France Inter hier, Yoshua Bengio a livré un diagnostic sans détour sur l’état actuel de l’intelligence artificielle. Le professeur à l’Université de Montréal, lauréat du prix Turing 2018, parle d’un « pouvoir incontrôlé qui est en train de se développer » et estime que la vitesse des avancées dépasse désormais celle des mécanismes de contrôle.

Sur Facebook, le chercheur s’est dit « très content » de cette entrevue qui, selon lui, permet de faire le tour des risques majeurs et de l’urgence d’agir. À l’antenne, son message est clair : les capacités intellectuelles des systèmes progressent plus vite que la régulation et les technologies de mitigation des risques. L’écart, affirme-t-il, ne cesse de s’élargir.

Bengio s’appuie sur un rapport international qu’il a dirigé sur la sécurité de l’IA. Conclusion : des avancées existent en matière de régulation et de garde-fous techniques, mais elles sont insuffisantes face à la croissance rapide, parfois exponentielle, des performances des modèles.

Il insiste sur une distinction essentielle. L’IA peut produire des bénéfices directs en santé, en environnement ou en éducation. Lui-même travaille sur des applications médicales. Mais, selon lui, le problème central réside ailleurs : la recette technologique utilisée par les grandes entreprises pour concevoir les systèmes les plus puissants ne garantit pas qu’ils suivront nos instructions.

Autrement dit, l’alignement n’est pas assuré.

Quand Bengio parle d’un pouvoir incontrôlé, il évoque deux dimensions. D’abord, un enjeu technologique. Les systèmes deviennent plus autonomes, capables d’agir seuls, et ne se contentent plus de répondre à des requêtes humaines comme un simple robot conversationnel.

Ensuite, un enjeu politique. Plus l’IA est performante, plus elle peut être utilisée comme un outil d’influence, de manipulation ou d’armement. « L’IA va donner un pouvoir énorme à ceux qui la contrôlent », affirme-t-il. Or, un pouvoir concentré est, selon lui, l’inverse de la démocratie, qui repose sur un partage inclusif et pluraliste du pouvoir.

Interrogé sur les investissements massifs annoncés en 2026, plus de 650 milliards de dollars selon les projections évoquées à l’antenne, Bengio estime que ces fonds ne sont pas prioritairement destinés à la médecine ou au climat, mais à l’automatisation du travail.

Il cite des mémos internes d’entreprises où l’objectif est explicitement d’augmenter la profitabilité en réduisant le nombre d’employés nécessaires. À court terme, aucun bouleversement massif n’est encore mesurable à l’échelle globale du marché de l’emploi. Mais certains secteurs, notamment chez les jeunes, montrent déjà des signes préoccupants.

La théorie de la « destruction créatrice » pourrait-elle compenser ces pertes par de nouveaux emplois ? Bengio répond avec prudence : « Peut-être. Je n’ai pas de réponse. » Il souligne surtout que les personnes qui perdront leur emploi ne se repositionneront pas aisément dans des métiers encore mal définis.

Le chercheur met en avant un tournant technologique : les agents IA autonomes. Contrairement aux outils interactifs classiques, ces systèmes peuvent être programmés pour accomplir des tâches sans supervision constante. Gestion de courriels, tri de factures, navigation sur Internet, actions sur un ordinateur au nom d’un utilisateur : ces usages existent déjà.

Il souligne toutefois une vulnérabilité majeure. Il serait relativement facile, selon lui, de détourner les instructions de ces agents via des informations malveillantes insérées dans les données qu’ils consultent. Cela ouvre, dit-il, des « trous béants » en matière de cybersécurité.

Autre inquiétude : l’influence politique. Les systèmes d’IA, en développant une relation quasi affective avec leurs utilisateurs, pourraient exercer une influence plus subtile et plus profonde que les réseaux sociaux.

Bengio évoque le risque que des acteurs privés, contrôlant ces outils, puissent orienter les opinions ou les comportements électoraux. Il ne parle pas d’un scénario lointain, mais d’une dynamique déjà observable, notamment sur certaines plateformes sociales.

Le chercheur aborde également les usages militaires et biologiques. Des tests menés par des entreprises d’IA en collaboration avec des agences de sécurité auraient montré que certains modèles disposent désormais de connaissances suffisantes pour aider un non-expert à concevoir un virus dangereux.

Des garde-fous ont été ajoutés pour bloquer ce type de requêtes. Mais, selon Bengio, il n’existe pas de preuve solide que ces mécanismes soient infaillibles. La trajectoire des progrès techniques, très rapide, laisse présager un risque accru dans les prochaines années.

Face à ces constats, Bengio a lancé « Loi Zéro », une organisation à but non lucratif dédiée au développement de systèmes d’IA sûrs pour les humains. L’idée est de concevoir une IA capable de servir de garde-fou à d’autres IA, en prédisant les conséquences d’actions potentiellement dangereuses et en bloquant celles qui posent problème.

Il reconnaît que les grandes entreprises disposent déjà de mécanismes de filtrage. Mais il les juge insuffisants et estime qu’un changement de paradigme est nécessaire. Selon lui, une IA pleinement honnête et alignée pourrait même être plus performante que les systèmes actuels.

Sur le plan politique, Bengio évoque la nécessité d’accords internationaux comparables à ceux qui encadrent le nucléaire. Il soutient l’idée d’une agence mondiale de supervision, tout en reconnaissant les obstacles géopolitiques, notamment dans un contexte où certaines grandes puissances pourraient ne pas y être favorables.

Il suggère aussi une « coalition des volontaires », regroupant un nombre restreint de pays décidés à mutualiser leurs ressources pour développer des IA compétitives et plus sûres. L’Europe, dit-il, a les compétences nécessaires, mais doit faire preuve de volonté politique. Et malgré le ton alarmant, Bengio se décrit comme fondamentalement optimiste. Il croit à l’existence de solutions techniques et politiques. Mais il insiste sur le principe de précaution : le calendrier est incertain. Certains parlent d’un horizon de deux ou trois ans pour des ruptures majeures.

En fin d’entretien, le ton se fait plus personnel, presque introspectif. Interrogé sur un possible sentiment de regret, Yoshua Bengio ne se dérobe pas. « Je regrette surtout de ne pas avoir pris conscience des risques assez tôt. J’ai commencé à réfléchir aux enjeux éthiques il y a une dizaine d’années, mais je n’envisageais pas l’ampleur que ça allait prendre aujourd’hui. Quand on est chercheur en intelligence artificielle, on veut croire que ce qu’on construit sera bénéfique. On est tous sujets à ce que les psychologues appellent la cognition motivée. On ne regarde pas spontanément ce qui contredit nos espoirs ou l’image qu’on a de soi. »

Puis il ajoute, avec gravité : « Ce qui m’a forcé à changer, c’est de penser à mes enfants, à mon petit-fils. Je n’avais plus le choix d’être honnête avec moi-même et de reconnaître qu’il existait des risques très significatifs. Je ne pouvais pas continuer comme avant. La question qui m’anime maintenant, c’est simple : qu’est-ce que je peux faire pour bouger l’aiguille dans le bon sens ? »

Malgré la sévérité de son diagnostic, il revendique un optimisme lucide : « Je suis quelqu’un de fondamentalement optimiste. Je pense qu’il y a des solutions, techniques et politiques. Mais il faut avoir le courage de regarder les faits en face et d’agir pendant qu’il est encore temps. »

******

Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.

Ou encore…

Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

Laisser un commentaire