
ChatGPT se présente comme un assistant personnel polyvalent et performant. Pourtant, sur un point pourtant élémentaire, même les utilisateurs les plus indulgents restent perplexes: l’outil n’arrive toujours pas, de manière fiable, à dire l’heure. Une faiblesse d’autant plus frappante qu’elle persiste malgré plusieurs années d’évolution du service.
Les expériences rapportées par les utilisateurs se ressemblent. Parfois, le robot conversationnel affirme tout simplement qu’il ne peut pas donner l’heure, faute d’accès à l’horloge de l’appareil ou de la localisation. Parfois, il tente une estimation en se basant sur un fuseau horaire, mais se trompe de plusieurs minutes ou mélange les contextes. Et d’autres fois encore, il donne la bonne réponse… avant de se tromper quelques instants plus tard. Sur les forums d’OpenAI comme sur Reddit, ce comportement suscite un mélange d’amusement et de frustration.
Cette apparente absurdité s’explique pourtant assez simplement. Les modèles génératifs comme ceux derrière ChatGPT, Gemini ou Claude ne fonctionnent pas comme des logiciels classiques. Par défaut, ils ne disposent d’aucun accès continu à des données actualisées comme l’heure. Ils produisent des réponses à partir de leur entraînement et du texte fourni en entrée. « Un modèle linguistique fonctionne dans son propre espace de langage. Il ne référence que ce qui se trouve dans cet espace », résume le chercheur Yervant Kulbashian, interrogé par The Verge. Autrement dit, sans explicitement aller chercher l’heure, le modèle n’a rien à quoi se raccrocher.
OpenAI pourrait, en théorie, connecter systématiquement l’outil à l’horloge locale. Et dans certains cas, cela arrive déjà. Pendant son entretien, le chercheur Pasquale Minervini a remarqué que l’application de bureau de ChatGPT affichait correctement l’heure de Milan. L’explication est prosaïque: il avait activé la fonction Search, qui donne au modèle la permission de consulter l’heure du système ou de faire une recherche web. Sans cette permission, le modèle « renaît » à chaque requête, comme le décrit le chercheur.
Mais même si la solution technique semble simple, elle comporte un compromis. Chaque fois que ChatGPT consulte une horloge, cette information occupe un espace dans sa fenêtre de contexte, cette mémoire temporaire qui contient les échanges en cours. Multipliée en continu, cette accumulation créerait du bruit et risquerait de perturber la cohérence des réponses. En clair, rappeler l’heure à chaque seconde finirait par encombrer l’assistant plutôt que l’aider.
D’autres limites temporelles subsistent. Selon Minervini, les modèles peinent toujours à lire l’heure sur une horloge analogique et ont des difficultés avec les calendriers. L’autre problème, plus général, est la manière dont ces outils expriment ou non leurs propres limites. Un assistant humain qui ignore l’heure le dit clairement. Un modèle génératif, lui, peut produire une réponse plausible simplement parce que la probabilité linguistique l’y pousse.
OpenAI affirme travailler à rendre le comportement de ChatGPT plus cohérent lorsqu’il doit faire appel à des données actualisées. Mais pour l’instant, ceux qui veulent connaître l’heure doivent demander explicitement une recherche. Une contrainte surprenante à l’ère où l’on confie à l’IA des tâches autrement plus complexes, mais révélatrice du fonctionnement fondamental de ces modèles.
Source : The Verge
++++++
Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.
Ou encore…
Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.

