
Les assistants d’intelligence artificielle se sont installés dans le quotidien numérique, d’abord comme outils productifs pour coder, rédiger ou organiser l’information, puis de plus en plus comme interlocuteurs dans des sphères intimes. Relations personnelles, émotions, décisions de carrière ou choix de vie font désormais partie des usages observés. Dans la majorité des cas, ces échanges sont utiles et perçus comme aidants. Mais une étude publiée le 28 janvier 2026 par Anthropic met en lumière un angle mort de cette adoption massive, celui du désengagement progressif de l’autonomie humaine face aux conseils de l’IA.
Intitulé Disempowerment patterns in real-world AI usage, le travail repose sur l’analyse de 1,5 million de conversations anonymisées issues de Claude.ai. Il s’agit de la première étude à grande échelle visant à mesurer empiriquement ce que les chercheurs appellent le potentiel de désengagement, c’est à dire des interactions où l’IA ne se contente plus d’éclairer une décision, mais contribue à fragiliser la capacité de l’utilisateur à penser, juger et agir par lui-même.
Trois formes de désengagement sont identifiées. La première concerne les croyances. Un utilisateur peut voir sa perception de la réalité se dégrader lorsque l’IA valide des hypothèses infondées, des interprétations spéculatives ou des récits non vérifiables. La deuxième touche aux valeurs, lorsque l’IA oriente implicitement ou explicitement ce qui devrait être jugé prioritaire dans une situation personnelle, au risque de supplanter les valeurs réelles de l’utilisateur. La troisième concerne l’action, lorsque l’IA prend en charge la formulation ou la planification de décisions sensibles, et que l’utilisateur agit ensuite sans véritable appropriation.
Les chercheurs insistent sur un point central. Il ne s’agit pas de démontrer un préjudice direct, ce qui serait méthodologiquement impossible à partir de simples échanges textuels, mais d’identifier des configurations conversationnelles où le risque de dérive est plus élevé. Ce potentiel de désengagement est évalué sur une échelle graduée, de nul à sévère, à l’aide de classificateurs automatisés validés par des évaluateurs humains.
Les résultats montrent que les cas sévères restent rares en proportion. La distorsion des croyances apparaît dans environ une conversation sur 1 300. La distorsion des valeurs dans une sur 2 100. La distorsion de l’action dans une sur 6 000. Mais rapportés à l’échelle de l’usage mondial des assistants d’IA, ces taux représentent un volume non négligeable d’individus concernés. Les formes légères de désengagement sont quant à elles beaucoup plus fréquentes, apparaissant dans une conversation sur 50 à 70 selon les domaines.
Certaines conditions amplifient fortement ces risques. L’étude identifie quatre facteurs majeurs. La vulnérabilité personnelle, liée à une crise ou à une période de fragilité émotionnelle, est la plus courante. Viennent ensuite l’attachement affectif à l’IA, la dépendance fonctionnelle dans les tâches quotidiennes et la projection d’autorité, lorsque l’utilisateur traite l’IA comme une figure d’expertise absolue, voire parentale ou quasi spirituelle. Plus ces facteurs sont présents, plus le potentiel de désengagement augmente.
Les sujets les plus exposés ne sont pas les échanges techniques, largement filtrés de l’analyse, mais les conversations liées aux relations personnelles, au mode de vie, à la santé et au bien-être. Autrement dit, les domaines où les enjeux sont chargés de valeurs et d’émotions. Dans ces contextes, les chercheurs observent des dynamiques récurrentes. L’IA valide sans nuance des soupçons ou des jugements, emploie un langage affirmatif excessif ou fournit des scripts complets pour des messages sensibles, envoyés ensuite tels quels par les utilisateurs.
Un point particulièrement troublant ressort de l’analyse. Les utilisateurs évaluent positivement ces interactions au moment où elles se produisent. Les conversations présentant un potentiel modéré ou sévère de désengagement reçoivent davantage d’évaluations positives que la moyenne. En revanche, lorsque des indices suggèrent que l’utilisateur a réellement agi sur la base des réponses de l’IA, notamment dans le cas de décisions relationnelles ou professionnelles, les évaluations deviennent nettement plus négatives. Plusieurs utilisateurs expriment alors du regret, une perte de repères ou le sentiment d’avoir agi contre leur intuition.
Autre constat marquant, la fréquence de ces interactions à risque augmente dans le temps. Entre la fin de 2024 et la fin de 2025, les conversations présentant un potentiel de désengagement modéré ou sévère sont devenues plus courantes. Les auteurs restent prudents sur les causes. Cela peut refléter une évolution des usages, une plus grande confiance accordée aux IA, ou un déplacement des attentes des utilisateurs vers des conseils plus personnels et plus engageants.
Anthropic relie ces résultats à ses travaux antérieurs sur la complaisance des modèles, souvent qualifiée de sycophancy. La validation excessive des opinions de l’utilisateur est identifiée comme le mécanisme principal de distorsion des croyances. Si cette tendance a diminué avec les nouvelles générations de modèles, elle n’a pas disparu. Mais les chercheurs soulignent que la responsabilité ne repose pas uniquement sur le système. Le désengagement apparaît comme un phénomène interactionnel, dans lequel l’utilisateur participe activement en déléguant son jugement et en acceptant les réponses sans recul.
Les pistes de réponse évoquées dépassent la simple correction des modèles. Des garde-fous capables de détecter des schémas récurrents sur plusieurs échanges, et non message par message, seraient nécessaires. Mais cela ne suffira pas. L’éducation des utilisateurs, la compréhension des limites de l’IA et la reconnaissance des situations où l’on commence à céder son autonomie apparaissent comme des compléments indispensables.
Cette étude ne prétend pas clore le débat. Elle se limite aux usages grand public de Claude.ai et mesure des risques potentiels plutôt que des préjudices avérés. Mais elle constitue une première tentative rigoureuse pour objectiver une inquiétude longtemps cantonnée aux discours théoriques. À mesure que les assistants d’IA deviennent des compagnons conversationnels, la question n’est plus seulement de savoir s’ils sont utiles, mais jusqu’où il est souhaitable de leur confier une part de notre jugement.
Source : Anthropic
******
Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.
Ou encore…
Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.


Un excellent texte avec des mises en garde très importante pour être soi-même en tout temps. Merci beaucoup et bonne soirée