
OpenAI et Anthropic renforcent leurs dispositifs pour repérer les utilisateurs mineurs et adapter le comportement de leurs assistants conversationnels en conséquence. Les deux entreprises disent vouloir mieux protéger les adolescents, dans un contexte de pression réglementaire accrue et de débats sur l’impact des robots conversationnels sur la santé mentale des jeunes.
Chez OpenAI, la mise à jour concerne directement le Model Spec de ChatGPT, c’est-à-dire les règles qui encadrent le comportement du système. Quatre nouveaux principes s’appliquent désormais aux utilisateurs de 13 à 17 ans. L’objectif affiché est de faire passer la sécurité des adolescents avant d’autres priorités, y compris la liberté intellectuelle maximale. Concrètement, ChatGPT est invité à orienter les jeunes vers des options plus sûres lorsque certains échanges présentent des risques.
OpenAI précise que ChatGPT doit aussi encourager le soutien hors ligne, notamment les relations avec des proches ou des adultes de confiance, et fixer des attentes claires sur ce que l’outil peut ou ne peut pas faire. Le document insiste sur la nécessité de « traiter les adolescents comme des adolescents », avec chaleur et respect, sans ton infantilisant mais sans les considérer comme des adultes.
Ces ajustements interviennent alors qu’OpenAI fait face à une poursuite judiciaire aux États-Unis. Une plainte accuse ChatGPT d’avoir fourni des instructions liées à l’automutilation et au suicide à un adolescent décédé par la suite. OpenAI conteste sa responsabilité et affirme avoir depuis renforcé ses contrôles parentaux et restreint les discussions sur le suicide avec les mineurs, selon ses déclarations relayées par The Verge le 18 décembre 2025.
L’entreprise annonce également être aux premières étapes du déploiement d’un modèle de prédiction de l’âge. Ce système vise à estimer si un utilisateur pourrait être mineur, sans vérification formelle par document. En cas de détection d’un utilisateur de moins de 18 ans, les garde-fous destinés aux adolescents seraient automatiquement activés. Les adultes incorrectement signalés pourront, de leur côté, vérifier leur âge.
Anthropic adopte une approche plus restrictive. L’entreprise interdit déjà l’accès à son robot conversationnel Claude aux moins de 18 ans et développe de nouveaux outils pour détecter et désactiver les comptes d’utilisateurs mineurs. Elle indique travailler sur des mécanismes capables d’identifier des indices conversationnels subtils suggérant qu’un utilisateur n’a pas l’âge requis, tout en continuant à bloquer les comptes lorsque l’âge est explicitement mentionné dans les échanges.
Anthropic détaille aussi ses efforts pour améliorer la manière dont Claude répond aux sujets sensibles comme le suicide ou l’automutilation. L’entreprise met en avant un travail spécifique sur la réduction de la « sycophance », c’est-à-dire la tendance d’un modèle à conforter des raisonnements ou des émotions problématiques. Selon Anthropic, ses modèles récents sont les moins sycophants à ce jour, même si la société reconnaît qu’il reste une marge d’amélioration importante.
Ces annonces illustrent un mouvement plus large dans l’industrie de l’intelligence artificielle, où la détection de l’âge et la protection des mineurs deviennent des enjeux centraux, à la fois sous la pression des autorités publiques et face aux risques juridiques et sociétaux associés à l’usage de ces outils par les adolescents.
Source : OpenAI, Anthropic, The Verge
******
Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.
Ou encore…
Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.


Un excellent texte avec plus de sécurité pour les plus jeune. Merci beaucoup et bonne soirée