
Une récente analyse menée par Surfshark révèle que 30 % des robots conversationnels populaires partagent les données des utilisateurs avec des tiers, notamment des courtiers en données. Google Gemini se distingue comme étant l’outil le plus intrusif, collectant 22 des 35 types de données possibles.
L’étude met en lumière la quantité importante d’informations récupérées par ces applications, incluant les coordonnées personnelles, l’historique de navigation et de recherche, ainsi que les contenus partagés par l’utilisateur. En moyenne, les robots conversationnels analysés collectent 11 types de données chacun, et 40 % d’entre eux enregistrent même la position géographique des utilisateurs.
Selon Tomas Stamulis, Chief Security Officer de Surfshark, certaines données sont nécessaires au bon fonctionnement des applications, mais d’autres peuvent être associées à l’identité des utilisateurs et partagées avec des réseaux publicitaires. Ce phénomène peut entraîner une augmentation du nombre d’appels frauduleux, des publicités hyper-ciblées, voire des risques de phishing en cas de fuite de données.
Parmi les robots analysés, Google Gemini est celui qui collecte le plus d’informations. Il enregistre notamment des données précises de localisation, des contacts, l’historique de navigation et de recherche, ainsi que des informations d’identification personnelle. Ce niveau de collecte soulève des inquiétudes quant au respect de la vie privée des utilisateurs.
À titre de comparaison, ChatGPT collecte 10 types de données, mais évite le suivi ou la diffusion de publicités tierces. OpenAI offre également une option de suppression automatique de l’historique des conversations après 30 jours.
Trois applications analysées – Copilot, Poe et Jasper – utilisent les données des utilisateurs pour le suivi publicitaire et la vente à des courtiers en données. Si Copilot et Poe se limitent à l’identifiant de l’appareil, Jasper va plus loin en collectant des informations sur les interactions avec le produit et d’autres données d’utilisation.
L’analyse de DeepSeek révèle une autre inquiétude : l’application stocke les historiques de discussion sur des serveurs situés en Chine, sans garantie de protection conforme aux normes RGPD européennes. The Hacker News a déjà rapporté une violation majeure des données de DeepSeek, exposant plus d’un million d’historiques de conversations et de clés API.
« Contrairement à ChatGPT ou Gemini, qui sont soumis aux régulations américaines, DeepSeek ne suit pas de cadre réglementaire équivalent, augmentant ainsi les risques pour les utilisateurs », prévient Tomas Stamulis.
Pour limiter les risques, Surfshark recommande aux utilisateurs de :
- Vérifier les paramètres de confidentialité et désactiver l’historique des conversations si possible.
- Éviter de partager des informations sensibles avec ces outils.
- Privilégier des applications qui garantissent un meilleur respect de la confidentialité et offrent des options de gestion des données personnelles.
Alors que l’adoption des robots conversationnels s’accélère, la question de la confidentialité devient cruciale. Les utilisateurs doivent rester vigilants quant aux données qu’ils partagent et aux risques liés à leur exploitation par des tiers.
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.


À qui se fier si la plupart des IA balade nos données? Moi j’utilise Gemini, dois-je plus me fier à chatgpt? Un ou l’autre, les 2 collectes des données. Moi, je suis perdue!