xAI aurait utilisé OpenAI pour entraîner Grok : Musk reconnaît une pratique controversée

Elon Musk a livré, sous serment, une réponse qui pourrait peser lourd dans son procès contre OpenAI. Interrogé jeudi devant un tribunal fédéral en Californie, le patron de xAI a semblé reconnaître que son entreprise avait utilisé, au moins en partie, les modèles d’OpenAI pour entraîner ses propres systèmes d’intelligence artificielle, dont Grok.

La question portait sur la « distillation », une technique bien connue dans le secteur de l’IA. Elle consiste à utiliser les réponses ou le comportement d’un modèle puissant pour entraîner un autre modèle, souvent plus léger, moins coûteux à exploiter et plus rapide. En théorie, la distillation peut être utilisée légalement à l’intérieur d’une même organisation. Elle devient beaucoup plus sensible lorsqu’elle implique les modèles d’un concurrent, surtout si les conditions d’utilisation l’interdisent.

Selon le compte rendu de WIRED, l’avocat d’OpenAI, William Savitt, a demandé à Musk s’il savait ce qu’était la distillation. Musk a répondu qu’il s’agissait d’utiliser un modèle d’IA pour en entraîner un autre. Lorsque l’avocat lui a demandé si xAI avait utilisé cette méthode avec OpenAI, Musk a d’abord répondu que, de manière générale, toutes les entreprises d’IA le faisaient. Pressé de clarifier, il a fini par répondre : « Partly », soit « en partie » .

Cette réponse ne constitue pas nécessairement une admission juridique complète, mais elle ouvre une brèche importante dans l’argumentaire public de Musk. Depuis plusieurs années, il accuse OpenAI d’avoir trahi sa mission initiale en devenant trop commerciale et trop fermée. Or, si xAI a effectivement utilisé les modèles d’OpenAI pour développer les siens, même partiellement, cela pourrait nourrir l’argument de la défense selon lequel Musk agit aussi en concurrent direct dans la course à l’IA générative.

Le contexte judiciaire est déjà lourd. Musk poursuit OpenAI, Sam Altman, Greg Brockman et Microsoft, affirmant qu’OpenAI aurait rompu avec sa mission fondatrice de laboratoire à but non lucratif. Il réclame 150 milliards de dollars et demande notamment que l’entreprise revienne sur sa transformation commerciale. Reuters rapporte qu’OpenAI soutient pour sa part que Musk savait depuis longtemps que l’organisation envisageait une structure à but lucratif et qu’il n’a intenté son recours qu’après l’essor spectaculaire de ChatGPT et la création de xAI .

La question de la distillation dépasse toutefois le duel Musk-Altman. OpenAI a déjà indiqué vouloir protéger ses modèles contre cette pratique, notamment après les inquiétudes soulevées par des entreprises chinoises comme DeepSeek. Le gouvernement américain a aussi commencé à s’intéresser à cette forme de transfert technologique, dans un contexte de rivalité stratégique autour de l’IA. L’enjeu est simple : si un modèle peut être copié ou imité à grande échelle par des requêtes automatisées, la frontière entre apprentissage, concurrence et appropriation devient beaucoup plus floue.

Le procès révèle aussi une contradiction plus large dans l’industrie. Les entreprises d’IA affirment souvent que l’accès aux connaissances et aux modèles ouverts accélère l’innovation. Mais dès que leurs propres modèles deviennent des actifs commerciaux majeurs, elles resserrent les accès, modifient leurs conditions d’utilisation et bloquent certains concurrents. Anthropic a déjà restreint l’accès d’OpenAI et de xAI à certains de ses modèles, selon les éléments rapportés dans le dossier.

Pour OpenAI, cette séquence pourrait servir à affaiblir la posture morale de Musk. Pour xAI, elle souligne une réalité plus pragmatique : dans la course actuelle, les grands laboratoires observent, testent et comparent constamment les modèles rivaux. La différence se joue désormais sur la permission, la transparence et l’usage réel qui en est fait.

Au-delà du spectacle judiciaire, l’affaire pose une question centrale pour toute l’industrie : comment protéger l’investissement massif nécessaire à la création de grands modèles, sans empêcher la concurrence ni bloquer la recherche ? Le tribunal devra trancher un litige entre quelques-uns des acteurs les plus puissants de la Silicon Valley. Mais derrière ce procès, c’est une partie des règles non écrites de l’IA générative qui commence à être exposée au grand jour.

Source : Wired, NY Times,

******

Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.

Ou encore…

Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.


En savoir plus sur Mon Carnet

Subscribe to get the latest posts sent to your email.

Laisser un commentaire