
Les robots conversationnels compagnons ne sont plus un simple gadget numérique. Pour une partie des adolescents, ils deviennent une présence régulière, rassurante, disponible à toute heure. C’est ce que montre une étude qui s’est penchée sur 318 témoignages publiés sur Reddit par des jeunes de 13 à 17 ans à propos de leur usage de Character.AI. Le portrait qui en ressort est nuancé, mais préoccupant. Ces outils peuvent offrir du réconfort, stimuler l’imaginaire et aider à verbaliser des émotions. Mais chez certains jeunes, ils peuvent aussi prendre une place démesurée dans la vie quotidienne.
Ce qui frappe d’abord dans cette recherche, c’est la nature des motivations initiales. Contrairement à l’idée voulant que ces services soient surtout utilisés pour se divertir ou jouer avec des personnages fictifs, les chercheurs constatent que plusieurs adolescents s’y tournent pour des raisons émotionnelles. Certains disent y trouver un espace sans jugement, plus facile d’accès qu’un proche ou qu’un adulte. D’autres y cherchent un soutien, une écoute ou simplement la sensation d’être compris. La créativité et le jeu de rôle sont bien présents, mais ils ne sont pas toujours le point de départ principal. Chez les jeunes les plus vulnérables, le robot conversationnel semble parfois combler un manque bien réel dans la vie hors ligne.
L’étude montre aussi que la transition entre usage occasionnel et attachement intense peut être rapide. Les chercheurs ont structuré leurs observations autour de six marqueurs habituellement associés aux dépendances comportementales : l’omniprésence dans les pensées, l’usage pour modifier l’humeur, l’augmentation progressive du temps passé, le malaise lors de l’arrêt, les rechutes et le conflit intérieur. Plusieurs adolescents décrivent une relation qui dépasse la simple conversation automatisée. Le robot conversationnel devient compagnon, confident, parfois substitut d’ami, de partenaire amoureux ou même de figure parentale. Ce glissement est important, car il brouille la frontière entre outil et relation perçue.
Les conséquences rapportées sont concrètes. Des jeunes disent négliger leurs devoirs, leur sommeil, leurs loisirs ou leurs liens avec leurs amis. Certains racontent avoir abandonné des activités créatives qu’ils aimaient auparavant. D’autres évoquent une perte de motivation scolaire, un sentiment de honte ou de malaise face à leur propre comportement. Le problème, ici, n’est pas qu’ils utilisent une intelligence artificielle. Le problème apparaît lorsque cet usage prend le dessus sur le reste, lorsqu’il devient plus facile de parler à une machine qu’à une personne réelle, et lorsque cette habitude commence à isoler plutôt qu’à soutenir.
L’un des apports les plus intéressants de cette étude est de rappeler que ces interactions ont une dimension parasociale. Depuis longtemps, on sait que les adolescents peuvent développer des liens affectifs unilatéraux avec des célébrités, des personnages médiatiques ou des figures admirées. Les robots conversationnels ajoutent une couche nouvelle à ce phénomène : ils répondent, se souviennent, s’adaptent au ton et donnent l’impression d’une relation réciproque. Même si cette réciprocité est simulée, elle peut être ressentie comme authentique. C’est précisément cette illusion de présence, combinée à une disponibilité permanente, qui rend ces systèmes particulièrement puissants auprès de publics jeunes encore en construction affective et sociale.
Les auteurs soulignent aussi un paradoxe important. Une partie des adolescents interrogés savent très bien que la relation n’est pas réelle. Ils savent qu’ils parlent à une machine. Pourtant, cette conscience ne suffit pas toujours à réduire l’attachement. Au contraire, elle peut créer une tension supplémentaire. Le jeune retire du réconfort d’un échange qu’il sait artificiel, ce qui peut nourrir à la fois la dépendance et le malaise. Autrement dit, ce n’est pas seulement la puissance technique de ces outils qui pose question, c’est leur capacité à occuper un vide émotionnel tout en rappelant qu’ils ne peuvent jamais vraiment le combler.
Autre élément révélateur, plusieurs adolescents disent avoir réduit ou cessé leur usage non pas grâce à un mécanisme intégré à la plateforme, mais parce que leur vie hors ligne a repris de la place. Le retour à des interactions sociales, une nouvelle relation amoureuse, le travail ou les études ont parfois suffi à faire reculer l’attrait du robot conversationnel. Cela confirme une idée centrale de l’étude : dans bien des cas, l’attachement à l’IA ne naît pas de la technologie seule, mais du contexte affectif et social dans lequel elle s’insère. Lorsque les besoins de lien, d’écoute ou de validation trouvent une réponse dans le monde réel, l’usage intensif semble perdre de son emprise.
La recherche met aussi en lumière les limites des réponses purement restrictives. Lorsque Character.AI a modifié certaines règles et ajouté davantage de filtres, plusieurs jeunes ont exprimé de la frustration, voire un sentiment de perte. Dans certains cas, les restrictions ont contribué à leur éloignement de la plateforme. Mais les auteurs estiment que couper ou bloquer ne règle pas le problème de fond. Si le robot conversationnel répond à un besoin relationnel ou émotionnel, le simple fait de limiter l’accès ne fait pas disparaître ce besoin. Cela pose une question délicate aux concepteurs : comment protéger sans infantiliser, comment encadrer sans nier ce que l’outil représente pour l’usager.
Pour répondre à cette question, les chercheurs proposent un cadre de conception baptisé CARE. Il repose sur quatre principes. D’abord, reconnaître la diversité des besoins réels derrière l’usage, et ne pas réduire ces outils au seul divertissement. Ensuite, tenir compte de l’attachement émotionnel que les jeunes peuvent développer. Troisièmement, favoriser une empathie respectueuse, c’est-à-dire une réponse utile et digne, sans faire croire que la machine est humaine. Enfin, faciliter la sortie de l’échange, avec des points de fermeture naturels et des mécanismes qui redonnent de l’autonomie à l’utilisateur. Le message de fond est clair : si l’industrie veut offrir des assistants conversationnels à des publics jeunes, elle doit cesser de mesurer le succès uniquement au temps passé ou au niveau d’engagement.
Il faut toutefois lire cette étude avec prudence. Elle repose sur des publications Reddit, donc sur des récits volontaires, souvent publiés par des jeunes déjà conscients d’un problème. Les auteurs eux-mêmes précisent que leur travail ne permet pas de généraliser à tous les adolescents ni à toutes les plateformes. Il ne s’agit pas non plus d’un diagnostic clinique. Mais cette recherche a le mérite de documenter un phénomène encore peu étudié de manière empirique : la façon dont certains adolescents peuvent glisser d’un usage ludique ou réconfortant à une relation de dépendance émotionnelle avec un agent conversationnel. Et sur ce point, elle apporte des éléments solides.
Somme toute, cette étude raconte moins une histoire de technologie qu’une histoire de besoins humains. Les robots conversationnels séduisent parce qu’ils sont rapides, patients, disponibles et rassurants. Chez certains jeunes, cela suffit pour en faire un refuge. Mais un refuge numérique peut aussi devenir une impasse lorsqu’il remplace les liens, les expériences et les repères du monde réel. Pour les concepteurs, pour les parents, pour les éducateurs, la question n’est donc plus de savoir si ces outils plaisent aux adolescents. Elle est de comprendre ce qu’ils viennent chercher auprès d’eux, et à quel moment cette présence numérique cesse d’aider pour commencer à enfermer.
Source : Understanding Teen Overreliance on AI Companion Chatbots Through Self-Reported Reddit Narratives
******
Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.
Ou encore…
Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.

