
Google ajoute une nouvelle couche de personnalisation à son intelligence artificielle générative. L’entreprise annonce que Gemini pourra désormais s’appuyer sur la photothèque personnelle des utilisateurs de Google Photos pour générer ou modifier des images. L’idée est simple : plutôt que de téléverser une photo ou de décrire longuement un contexte familial, un style de vie ou des préférences visuelles, l’outil pourra aller chercher ces éléments directement dans les contenus déjà associés au compte Google.
Cette nouveauté s’inscrit dans la stratégie plus large de Google autour de ce qu’elle appelle l’« intelligence personnelle ». Après avoir commencé à connecter Gemini à différentes données issues de l’écosystème Google, notamment les courriels et certaines activités de l’utilisateur, l’entreprise étend maintenant cette logique à Nano Banana 2, son moteur de génération et d’édition d’images. L’objectif est de rendre les créations plus pertinentes, plus rapides à produire et surtout plus adaptées à la vie réelle de l’utilisateur.
Concrètement, une personne qui active cette option pourra demander à Gemini de créer une image de sa famille dans un style particulier, par exemple en pâte à modeler, sans devoir fournir manuellement une photo de référence. Le système pourra s’appuyer sur les images déjà présentes dans Google Photos et sur des libellés comme « famille » pour comprendre qui est représenté et comment composer la scène. Google mise ainsi sur des requêtes beaucoup plus simples, où quelques mots suffiraient pour lancer une création pourtant très personnalisée.
Cette approche change la nature même de la génération d’images. Jusqu’ici, les outils demandaient généralement soit un texte très détaillé, soit des images à téléverser pour guider le résultat. Avec cette intégration, Google cherche à réduire cette friction. En théorie, l’IA pourra déjà connaître les goûts, les habitudes visuelles ou certains repères personnels de l’utilisateur, ce qui rend l’expérience plus fluide, mais aussi plus intime.
C’est évidemment sur le terrain de la vie privée que cette annonce soulève le plus de questions. Google affirme qu’un bouton « sources » permettra d’indiquer d’où provient le contexte utilisé pour générer l’image. L’entreprise précise également qu’elle ne se sert pas directement des bibliothèques privées de Google Photos pour entraîner ses modèles. Elle reconnaît toutefois utiliser certaines informations limitées, comme les requêtes et les réponses du système, dans le cadre du fonctionnement du service.
Pour l’instant, cette fonction sera déployée au cours des prochains jours auprès de certains abonnés AI Plus, Pro et Ultra aux États-Unis, d’abord sur le navigateur Chrome pour ordinateur. Google indique vouloir élargir ensuite la disponibilité à d’autres utilisateurs. Ce déploiement progressif permettra sans doute à l’entreprise de tester à la fois l’accueil du public et la sensibilité des réactions autour de cette personnalisation poussée.
Avec cette annonce, Google pousse un peu plus loin l’idée d’une IA qui ne se contente plus de répondre à des commandes, mais qui connaît déjà une partie de votre univers personnel. Sur le plan technologique, c’est une avancée logique. Sur le plan social, c’est un autre pas vers une IA plus pratique, mais aussi plus intrusive. Toute la question sera de savoir jusqu’où les utilisateurs seront prêts à laisser leurs souvenirs numériques nourrir leur assistant créatif.
******
Du lundi au vendredi, Bruno Guglielminetti vous propose un regard sur l’essentiel de l’actualité numérique avec 120 secondes de Tech.
Ou encore…
Écoutez la plus récente édition de Mon Carnet,
le magazine hebdomadaire de l’actualité numérique.
En savoir plus sur Mon Carnet
Subscribe to get the latest posts sent to your email.

