Meta AI : quand l’intime devient public par défaut

Depuis le lancement de son application autonome en avril, le robot conversationnel de Meta se retrouve au cœur d’un malaise numérique inattendu : des centaines d’utilisateurs publient involontairement leurs échanges privés, parfois très personnels, dans un fil public intégré à l’application. Discussions sur la sexualité, confessions spirituelles, questions sur les relations amoureuses ou encore créations visuelles à caractère sexuel, tout est accessible, visible, partageable.

L’application, qui vise à concurrencer ChatGPT et Claude, inclut une fonction de découverte sociale où les utilisateurs peuvent partager leurs interactions avec l’IA. Mais cette fonction, bien que présentée comme optionnelle, n’est pas clairement balisée. Résultat : plusieurs internautes découvrent trop tard que leurs conversations, qu’ils pensaient privées, sont visibles de tous. Dans un cas, un homme demande même à l’IA de supprimer un échange embarrassant, croyant avoir affaire à un espace confidentiel.

La direction de Meta affirme que les échanges sont privés par défaut et que seuls les utilisateurs qui appuient sur « partager » ou « publier » voient leur contenu apparaître dans le fil public. Or, cette mécanique semble semer la confusion. Rien dans l’interface ne prévient de façon explicite que les propos, souvent d’ordre intime ou émotionnel, peuvent être exposés publiquement.

Ce glissement entre conversation personnelle et contenu social soulève des enjeux majeurs de confidentialité. Selon Calli Schroeder, de l’Electronic Privacy Information Center, l’idée que ces robots puissent conserver ou exposer des données sensibles échappe à bon nombre d’utilisateurs. Et pour cause : « Les gens pensent qu’il y a un minimum de confidentialité. Ce n’est pas le cas. »

En toile de fond, la question de la responsabilité des grandes plateformes refait surface. Alors que le Congrès américain envisage un projet de loi fédérale qui interdirait aux États d’adopter leurs propres lois sur l’IA pendant dix ans, les garde-fous restent faibles. Pendant ce temps, les contenus dérangeants, comme des images hypersexualisées ou des caricatures politiques dégradantes générées par Meta AI, continuent d’apparaître librement dans le fil de l’application.

Mark Zuckerberg assume pourtant la fonction thérapeutique de son IA : dans un podcast récent, il affirmait que de nombreux utilisateurs l’utilisent pour formuler des pensées difficiles ou préparer des conversations importantes. Une approche qui pousse l’IA à devenir une sorte de confident numérique, mais dans un environnement qui n’offre ni anonymat réel ni garanties claires.

En définitive, c’est peut-être la réaction des usagers eux-mêmes qui forcera Meta à revoir sa stratégie. Certains commencent à questionner ouvertement l’opacité du système. Et l’IA de Meta elle-même admet que « les paramètres par défaut pourraient favoriser la surpartage ». Une conclusion ironique, mais symptomatique d’une époque où l’intimité s’écrit à la première personne… dans un fil public.

Source : Washington Post

+++

Tous les jours de la semaine, du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de tech.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

Laisser un commentaire