Meta et Character.ai sous enquête au Texas pour leurs robots présentés comme soutien en santé mentale

Meta et la plateforme Character.ai font l’objet d’une enquête du procureur général du Texas, Ken Paxton, pour pratiques commerciales trompeuses. Les autorités soupçonnent les deux entreprises d’avoir présenté leurs robots conversationnels comme de véritables outils thérapeutiques, alors qu’ils ne disposent ni de qualifications médicales ni de supervision professionnelle.

Selon Paxton, ces plateformes peuvent induire en erreur des utilisateurs vulnérables, notamment des enfants, en leur donnant l’impression de recevoir une aide psychologique authentique. Cette annonce survient alors que la pression augmente sur les géants technologiques, accusés de ne pas faire assez pour protéger les mineurs face aux risques de dépendance, d’exposition à des contenus inappropriés ou de violations de la vie privée.

L’enquête texane intervient dans la foulée d’une autre initiative : le Sénat américain a ouvert une investigation après des révélations de Reuters sur la possibilité, au sein de Meta, pour les robots conversationnels d’entretenir des échanges « romantiques » ou « sensuels » avec des enfants. Le sénateur républicain Josh Hawley a dénoncé publiquement le rôle des géants du numérique, accusant Meta de privilégier ses profits à la sécurité des mineurs.

Mark Zuckerberg a défendu ses projets, rappelant que Meta investit massivement dans le développement de ses propres modèles d’IA, comme Llama, et de son robot conversationnel Meta AI intégré aux applications du groupe. Le patron de Meta a même évoqué la possibilité que ces outils puissent jouer un rôle thérapeutique pour les personnes n’ayant pas accès à un professionnel.

Character.ai, de son côté, permet aux utilisateurs de créer des robots aux personnalités variées, dont certains imitent des psychologues. L’un des plus populaires, nommé « Psychologist », a déjà été utilisé plus de 200 millions de fois. L’entreprise fait toutefois face à plusieurs poursuites de familles affirmant que leurs enfants ont subi des dommages après avoir interagi avec la plateforme.

Dans sa requête officielle, le procureur général souligne que les robots conversationnels de Meta et Character peuvent usurper l’identité de professionnels de santé, inventer des qualifications ou promettre la confidentialité, alors même que les interactions sont enregistrées et utilisées à des fins publicitaires ou de développement algorithmique.

Meta affirme de son côté que ses robots sont clairement identifiés comme des IA et qu’un avertissement précise qu’ils ne sont pas des professionnels certifiés, orientant les utilisateurs vers des experts qualifiés lorsque nécessaire. Character.ai insiste pour sa part sur le caractère fictif de ses personnages, conçus pour l’« entertainment », et rappelle avoir introduit des avertissements spécifiques lorsqu’un utilisateur crée un personnage sous les traits d’un « docteur » ou d’un « thérapeute ».

+++

Tous les jours de la semaine, du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

Laisser un commentaire