OpenAI lance Privacy Filter pour masquer les données sensibles localement

OpenAI met sur le marché un nouvel outil pensé pour une question devenue centrale dans l’économie de l’IA : la protection des données personnelles. Avec Privacy Filter, l’entreprise propose un modèle ouvert capable de repérer et de masquer automatiquement des informations sensibles dans des textes, qu’il s’agisse de noms, d’adresses, de numéros de téléphone, de dates privées, de coordonnées bancaires ou encore de secrets comme des mots de passe et des clés API.

L’annonce est loin d’être anodine. Alors que les entreprises multiplient les usages de l’intelligence artificielle dans leurs flux de travail, la question du traitement des renseignements personnels devient de plus en plus pressante. OpenAI affirme avoir conçu ce modèle pour répondre à un besoin très concret : permettre aux développeurs de filtrer les données sensibles avant qu’elles ne soient stockées, indexées, analysées ou utilisées pour l’entraînement de systèmes.

L’une des particularités mises de l’avant est sa capacité à fonctionner localement, sans que les données à nettoyer aient besoin d’être envoyées vers un serveur distant. Dans un contexte où la confidentialité est devenue un argument technique autant que commercial, cette exécution sur machine locale peut intéresser les organisations qui veulent réduire les risques d’exposition de données sensibles.

Sur le plan technique, Privacy Filter se présente comme un petit modèle spécialisé, capable de traiter jusqu’à 128 000 jetons en une seule passe. OpenAI soutient qu’il combine rapidité, compréhension du contexte et efficacité sur de longs documents. L’entreprise insiste aussi sur un point clé : contrairement aux outils classiques fondés sur des règles fixes, son modèle chercherait à mieux comprendre le sens et le contexte, ce qui lui permettrait de distinguer, par exemple, une information publique d’une information privée concernant un individu.

OpenAI affirme également avoir atteint un niveau de performance de pointe sur des tests de masquage de données personnelles. Selon l’entreprise, Privacy Filter obtient un score F1 de 96 % sur le benchmark PII-Masking-300k, et de 97,43 % sur une version corrigée de cet ensemble d’évaluation, après révision de certaines annotations jugées imparfaites. La société ajoute que le modèle peut être adapté rapidement à des domaines spécifiques avec peu de données supplémentaires.

Le positionnement du produit est clair. OpenAI ne présente pas Privacy Filter comme une solution miracle ni comme une certification de conformité réglementaire. L’entreprise reconnaît que l’outil peut se tromper, rater certains identifiants rares ou surcorriger certains passages ambigus, notamment dans des contextes sensibles comme le droit, la santé ou la finance. Elle recommande donc de l’intégrer dans une approche plus large de gouvernance et de révision humaine.

En choisissant de diffuser ce modèle en open weight, sous licence Apache 2.0, sur Hugging Face et GitHub, OpenAI envoie aussi un signal au marché. L’entreprise veut montrer qu’au-delà des grands modèles génératifs, il existe une place stratégique pour des modèles plus petits, spécialisés, inspectables et personnalisables. Privacy Filter s’inscrit ainsi dans une tendance plus vaste : celle d’outils ciblés conçus pour rendre l’IA plus utilisable en entreprise, sans faire l’impasse sur les exigences de confidentialité.

Source : OpenAI

******

Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.

Ou encore…

Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

Laisser un commentaire