
Les lunettes connectées Ray-Ban Meta connaissent un succès commercial rapide, mais elles se retrouvent au cœur d’une controverse sur la vie privée et les pratiques d’entraînement de l’intelligence artificielle. Une enquête conjointe des journaux suédois Svenska Dagbladet et Göteborgs-Posten révèle que certaines vidéos capturées par ces lunettes sont visionnées par des travailleurs humains chargés d’entraîner les systèmes d’IA de Meta.
Ces lunettes permettent d’enregistrer des vidéos à la première personne grâce à une caméra intégrée et à un réseau de microphones, puis d’analyser l’environnement de l’utilisateur via l’intelligence artificielle de Meta. Le produit a rencontré un succès notable. Selon l’entreprise, plus de sept millions de paires ont été vendues en 2025, alors que deux millions seulement avaient été écoulées entre 2023 et 2024.
Derrière cette popularité se cache toutefois une mécanique moins visible. Pour améliorer ses modèles d’IA, Meta doit entraîner ses algorithmes à partir d’images et de vidéos annotées par des humains. Cette étape, appelée « data labeling », consiste à regarder des extraits et à identifier ce qui s’y trouve. Ces tâches sont souvent confiées à des sous-traitants situés dans des pays comme le Kenya, la Colombie ou l’Inde.
Dans le cas des lunettes Ray-Ban Meta, des annotateurs employés par la société Sama à Nairobi affirment devoir analyser des images extrêmement sensibles. Un employé explique avoir visionné des vidéos montrant des personnes aux toilettes ou en train de se déshabiller. Un autre raconte avoir vu un homme poser ses lunettes sur une table de chevet avant de quitter la pièce, puis sa conjointe entrer et se changer, sans savoir qu’elle était filmée.
Les témoignages évoquent aussi des images de cartes bancaires, de personnes regardant du contenu pornographique ou encore des scènes sexuelles filmées accidentellement. Les annotateurs disent ressentir un malaise face à ces contenus, mais expliquent qu’ils doivent poursuivre leur travail pour ne pas risquer de perdre leur emploi.
Meta, de son côté, rappelle que la possibilité d’une analyse humaine figure dans les conditions d’utilisation de ses services d’IA. Le document précise que l’entreprise peut « examiner les interactions avec les intelligences artificielles, y compris le contenu des conversations ou des messages, et que cette analyse peut être automatisée ou manuelle ». Les conditions recommandent également aux utilisateurs de ne pas partager d’informations sensibles qu’ils ne souhaiteraient pas voir utilisées ou conservées.
Cependant, ces avertissements sont noyés dans de longs documents juridiques que peu d’utilisateurs lisent en détail. De plus, il n’est pas possible d’utiliser les fonctions d’intelligence artificielle des lunettes sans accepter l’envoi des données vers les serveurs de Meta. Une fois ces données intégrées aux modèles d’IA, les utilisateurs perdent en pratique tout contrôle sur leur utilisation, explique l’avocate spécialisée en protection des données Kleanthi Sardeli de l’organisme None Of Your Business.
Interrogée par les deux journaux suédois, Meta n’a pas répondu directement aux questions pendant plusieurs semaines. L’entreprise s’est finalement contentée de renvoyer vers ses politiques de confidentialité, indiquant que les données capturées lors de l’utilisation de l’IA sont traitées conformément à ses conditions d’utilisation.
Ce recours à des annotateurs humains n’est pas propre à Meta. L’agence France-Presse rapportait déjà en 2025 que des travailleurs chargés d’entraîner des modèles d’intelligence artificielle doivent parfois analyser des images très difficiles, allant de scènes de crimes à des photos de corps sans vie. Le phénomène rappelle les pratiques de modération de contenus des réseaux sociaux, souvent confiées à une main-d’œuvre externalisée dans des pays à bas salaires.
Avec l’arrivée d’objets connectés capables de filmer en permanence l’environnement de leur utilisateur, la question prend toutefois une nouvelle dimension. Les lunettes Ray-Ban Meta permettent d’enregistrer facilement des images haute résolution en appuyant simplement sur un bouton situé près de la branche. Pour certains observateurs, cette simplicité risque de multiplier la capture involontaire de moments privés.
Un annotateur interrogé dans l’enquête résume le dilemme de manière directe : selon lui, si les utilisateurs étaient pleinement conscients de l’ampleur de la collecte et de l’analyse des images, beaucoup hésiteraient probablement avant d’utiliser ces lunettes.
Sources : Engadget, BBC, Futurism
******
Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.
Ou encore…
Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.

