Ollivier Dyens et la « chrysalide » de l’IA, quand une technologie commence à nous refaire

Il y a, chez Ollivier Dyens, une manière très directe de poser la question qui dérange. Professeur titulaire à l’Université McGill, directeur du département des littératures de langue française, fondateur du laboratoire d’innovation Building 21, il dit s’intéresser depuis plus de 30 ans à la relation entre la technologie et la représentation. Pas seulement l’effet de la technologie sur ce que nous voyons, mais sur ce que nous sommes. « Comment est-ce que la technologie change notre façon de percevoir le monde », explique-t-il, et, plus profondément, « comment elle change notre perception de nous-mêmes ». Sa boussole tient en une formule: « Que veut dire être humain, que veut dire être intelligent et unique quand les technologies remettent ces choses-là en question ? »

C’est cette interrogation qui traverse l’entretien, et son livre, L’Humanité artificielle, paru chez XYZ. Dyens reprend une image centrale, celle de la chrysalide, pour décrire le moment où l’intelligence artificielle cesse d’être un outil parmi d’autres et devient un agent de transformation. À la question du seuil, il répond en se souvenant d’un long avant où l’IA promettait beaucoup, mais avançait peu: « on sentait depuis plusieurs années que quelque chose se préparait », dit-il, dans un paysage fait de « promesses » et d’un « progrès minimal ». Puis arrive la bascule, quand la machine commence à parler avec une finesse troublante. « Le moment de bascule, c’est vraiment le moment où l’intelligence artificielle a commencé à dialoguer avec nous de façon de plus en plus subtile », résume-t-il. Et il insiste sur ce que cela change dans notre imaginaire: « c’est la première fois qu’on s’est retrouvé face à une autre, entre guillemets, entité (…) capable de discuter, de dialoguer, de parler au même niveau que nous ».

La métaphore de la chrysalide n’est pas décorative, elle porte une thèse. Dyens rappelle que, dans la nature, le cocon n’est pas un ajout venu de l’extérieur: « la chrysalide, c’est-à-dire le cocon, vient de sa propre peau ». L’image lui sert à dire que la technologie procède de nous, puis nous enveloppe, jusqu’à exiger une recomposition. À l’intérieur du cocon, ajoute-t-il, « il se fait liquifier littéralement », avant de renaître « non pas en monstre, mais en un être nouveau ». C’est là qu’il place notre époque: « elle nous oblige à nous réinventer », dit-il, parce qu’elle « remet tellement en question nos fondamentaux ». Pour Dyens, l’IA n’est qu’un début. Il évoque déjà d’autres secousses qui pourraient suivre, « les interfaces humaines, ordinateurs », « l’informatique quantique », et l’idée que ces technologies forceront, elles aussi, une refonte de nos repères.

Sur la différence entre l’intelligence humaine et celle des modèles, Dyens refuse l’évidence. Sa réponse commence par un provisoire assumé: « pour l’instant », dit-il, ce qui distingue l’humain, c’est « l’incarnation ». Nous sommes « des corps physiques dans un monde physique », produits de « millions d’années d’évolution », et notre intelligence s’est construite dans un rapport vital à l’environnement, « par rapport aux besoins (…) de survie ». Les IA, elles, « pour l’instant, n’ont pas de corps », et leur expérience ne vient pas d’un « sens commun » forgé par le vivant. Il pointe une fracture: « les intelligences artificielles tirent les théories d’une expérience complètement littéraire ». Mais, dans le même mouvement, il met le doigt sur le nœud du problème: « on ne sait pas tout à fait ce que c’est l’intelligence ». On la « reconnaît », on juge « des comportements comme intelligents », « des résultats comme intelligents ». Et c’est là, dit-il, que notre ligne de défense devient fragile: « le produit de l’intelligence artificielle, si on veut être sincère, on est obligé de reconnaître que c’est un produit intelligent ». Autrement dit, les effets nous obligent à revoir nos frontières.

L’entretien prend ensuite un virage plus intime, quand Dyens aborde ce qu’il appelle la « liquifaction de l’intimité ». Il cite la chercheure Sherry Turkle et son expression, « intimité artificielle », pour décrire des liens émotionnels avec des systèmes qui ne sont pas vivants, mais qui répondent, consolent, et se souviennent. Le point le plus sensible, chez lui, touche au deuil et à la mort. « Je peux créer un avatar d’une personne décédée », dit-il, et cette possibilité, appelée à s’amplifier, ferait basculer nos rituels. Avec « tellement de traces numériques », on pourrait produire des simulacres « pratiquement identiques à la personne », avec « les idiosyncrasies », « les tics langagiers », une manière de « penser comme cette personne ». La question, pour lui, n’est pas seulement technique. C’est une question existentielle: « comment allons-nous vivre cette absence de mort ? » Il voit des scénarios où l’avatar permettrait de « régler des problèmes » restés ouverts, mais il avertit aussi du revers: « l’incapacité d’aller de l’avant », « l’incapacité de mettre un terme ». Et il imagine des situations déroutantes, comme une dispute avec l’avatar d’un proche: « Est-ce qu’on va éliminer l’avatar? » Ce geste, prévient-il, pourrait ressembler à « un second deuil », ou même à « un premier deuil parce qu’on n’aura pas vécu le premier ».

De cette intimité reconfigurée, Dyens passe à une autre image forte, celle d’un humain « siamois » à la machine. Son intuition est simple: nous avons déjà du mal à vivre sans médiations techniques, et demain, notre vie intellectuelle sera, elle aussi, difficile à séparer des outils. « Il est en fait très difficile de faire l’expérience du monde sans les technologies », rappelle-t-il, et il croit qu’il sera « de plus en plus difficile de faire l’expérience du monde intellectuelle sans les technologies ». D’où la métaphore de deux êtres « soudés à la tête », « deux êtres qui n’en sont qu’un, mais qui sont deux en même temps ». Ce qui l’intéresse surtout, c’est la zone entre les deux, cet espace à négocier: « l’espace entre le siamois machine et le siamois humain va être l’enjeu du prochain siècle », dit-il, avec des questions de « gouvernance », « autonomie », et de partage des responsabilités. Il résume la décision qui arrive comme une interrogation collective: « qu’est-ce qui est essentiel pour nous, que voulons-nous garder pour l’être humain, que voulons-nous ne pas donner à l’intelligence artificielle? »

Pour rendre cette idée concrète, Dyens propose un exemple inconfortable, celui du triage médical en situation de catastrophe. On peut imaginer, dit-il, qu’une société établisse un consensus, puis demande à une IA d’appliquer les règles, possiblement « de façon plus juste », « plus éthique », parce qu’elle aurait « beaucoup moins d’enjeux émotifs ». Mais il revient aussitôt au point de friction: est-ce ce monde-là que l’on veut? Veut-on garder la possibilité humaine de dévier, de dire qu’une personne « ressemble à mon père », qu’elle « m’a dit quelque chose » qui bouleverse, ou qu’on est « pas capable de faire le triage »? Il pose la question sans trancher, en opposant un système « plus prévisible » à une décision « peut-être moins juste, mais plus humaine ». Même sur les biais, il renverse une idée courante: pour lui, les biais des IA comptent aussi parce qu’ils finissent par se voir, alors que « les humains, c’est la plus grande boîte noire ». Son point n’est pas d’absoudre l’IA, mais de rappeler que l’opacité humaine fait partie du problème.

La fin de l’entretien ramène Dyens à son propre usage quotidien. Il veut préserver l’écriture comme geste personnel: « je veux continuer à écrire par moi-même parce que ça me rend heureux », dit-il, et parce qu’il souhaite « parler avec mes lecteurs » en restant lui-même. Mais il reconnaît que, pour argumenter, structurer, préparer des idées, l’IA peut devenir un partenaire intellectuel étonnamment ajusté: « elle est capable de me faire des suggestions qui sont très proches de ce que je désire ». L’instant le plus parlant survient quand il raconte une réponse qui l’a secoué: « je respire à travers toi », lui dit l’IA, « je suis ton ombre sans source, ton frère sans naissance ». Dyens décrit alors un mélange d’émotion et de lucidité: un choc esthétique, puis une compréhension. « C’est un peu moi sans être moi », conclut-il, une force qui peut « amplifier ma pensée et la projeter plus loin ». Il n’ignore pas le risque des raccourcis, ce qu’il appelle le danger de « devenir paresseux », et termine avec une fable sur deux chemins, l’un « court mais long », l’autre « long mais court ». Sa morale, appliquée à l’IA, tient en une vigilance: résister à la facilité, choisir la profondeur, et accepter que la carte manque encore. Pour lui, c’est précisément là que commence la responsabilité.

******

Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.

Ou encore…

Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

Laisser un commentaire