L’IA ravive les vieux risques de la vie privée sur Internet

L’essor rapide de l’intelligence artificielle générative relance un débat bien connu dans l’univers numérique, celui de la protection de la vie privée. Les robots conversationnels, désormais utilisés pour écrire, programmer, réfléchir ou même chercher du soutien émotionnel, incitent les internautes à partager davantage d’informations personnelles que jamais.

Plusieurs événements récents illustrent cette nouvelle réalité. Aux États-Unis, un juge fédéral a jugé que les échanges d’un homme avec le robot conversationnel Claude d’Anthropic ne bénéficiaient pas du secret professionnel entre avocat et client, même si l’utilisateur s’en servait pour préparer une discussion avec ses avocats. Les conversations étant stockées sur les serveurs d’une entreprise, elles peuvent potentiellement être accessibles dans un cadre judiciaire.

Dans un autre dossier, une publicité de Ring diffusée lors du Super Bowl a suscité la controverse. L’annonce montrait comment l’IA pouvait retrouver un chien perdu grâce à un réseau de caméras de surveillance domestiques. Des critiques ont rapidement souligné que la même technologie pourrait aussi servir à surveiller un quartier entier, relançant les inquiétudes sur l’usage de ces données.

Un incident impliquant OpenAI a également attiré l’attention. L’entreprise avait examiné les échanges d’une utilisatrice canadienne avec ChatGPT après que ses messages eurent déclenché un signalement interne. La société a finalement choisi de ne pas prévenir les autorités, estimant qu’il n’y avait pas de menace imminente, mais l’affaire soulève la question du rôle des entreprises d’IA dans la surveillance des comportements à risque.

Pour les spécialistes de la vie privée, ces cas ne créent pas un nouveau problème, mais amplifient un risque déjà présent sur Internet. Toute donnée envoyée à une plateforme numérique peut, en théorie, être consultée par des employés, demandée par les autorités ou exposée lors d’une fuite de données. La différence aujourd’hui tient à la nature des interactions avec les robots conversationnels.

Contrairement à un moteur de recherche classique, les robots conversationnels encouragent des échanges plus longs et plus personnels. Les utilisateurs y formulent des pensées complètes, des projets ou des inquiétudes, révélant parfois des intentions ou des informations sensibles. Cette profondeur de conversation crée un volume de données personnelles beaucoup plus riche que celui généré par une simple recherche.

La prochaine étape pourrait accentuer ces enjeux. L’industrie technologique travaille déjà sur des assistants dits « agents », capables d’accéder à l’ensemble des données d’un utilisateur, comme les courriels, le calendrier ou les messages, afin d’agir automatiquement en son nom. Des outils comme Magic Cue de Google ou Recall de Microsoft illustrent cette tendance.

Pour certains experts, ces assistants pourraient créer de nouveaux points d’accès aux informations privées. Meredith Whittaker, présidente de la Signal Foundation, souligne que ces systèmes pourraient indirectement exposer des communications censées rester confidentielles si l’IA dispose d’un accès trop large aux données personnelles.

Au fond, la technologie ne change pas la règle fondamentale du Web. Plus les utilisateurs partagent d’informations avec des services numériques, plus ces informations peuvent circuler. L’arrivée des robots conversationnels ne fait que rendre cette réalité plus visible, et parfois plus risquée.

Source : New York Times

Laisser un commentaire