La dernière mise à jour de l’application Gemini, version 2.5, révolutionne la photographie sur iPhone avec l’introduction des fonctionnalités Flash et Live Camera. Grâce à ces améliorations, les utilisateurs peuvent capturer des moments inoubliables avec une clarté et une créativité sans précédent. Découvrez une nouvelle ère de la photographie mobile !

Mises à jour du modèle
Lors de la conférence I/O 2025, Google a dévoilé plusieurs mises à jour pour l’application Gemini, y compris le lancement de Gemini 2.5 Flash et la caméra et le partage d’écran Gemini Live sur iOS. La mise à jour de Gemini 2.5 Flash, annoncée pour la première fois en avril, améliore la performance du modèle en matière de raisonnement, de multimodalité, de code et de benchmarks de contexte long. De plus, il utilise 20 à 30 % de tokens en moins, rendant ainsi l’application plus efficace. Cette version est désormais accessible à tous les utilisateurs de l’application Gemini, tandis qu’une version préliminaire mise à jour (05-20) est disponible dans Google AI Studio et Vertex AI. Elle sera mise à disposition pour une utilisation en production aux développeurs et aux clients d’entreprise début juin.
Google a également présenté Gemini 2.5 Deep Think, qui offre des capacités de réflexion avancées et se distingue dans les benchmarks de mathématiques (USAMO 2025), de code (LiveCodeBench v6) et de multimodalité (MMMU). Ce mode de raisonnement amélioré utilise de nouvelles techniques de recherche permettant au modèle de considérer plusieurs hypothèses avant de répondre.
La société prend le temps nécessaire pour mener des évaluations de sécurité approfondies et obtenir des retours d’experts en sécurité. Gemini 2.5 Deep Think sera d’abord accessible aux testeurs de confiance via l’API Gemini pour recueillir des avis, avant d’être largement disponible. Une fois cela terminé, le mode Deep Think de Gemini 2.5 sera accessible aux consommateurs dans le cadre de l’abonnement Google AI Ultra.
Nous continuerons à améliorer Deep Think en fonction de nos évaluations de sécurité et des retours des utilisateurs avant de le publier plus largement.
Google a également présenté Imagen 4, qui offre des détails « réalistes » et de meilleures sorties de texte/typographie, ainsi que des améliorations de vitesse. Veo 3, qui génère de l’audio natif, est également accessible via l’application Gemini (aux États-Unis) pour les abonnés Google AI Ultra, incluant des effets sonores, des bruits de fond et des dialogues entre personnages.
Nouvelles fonctionnalités de Gemini
En ce qui concerne les nouvelles fonctionnalités de l’application Gemini présentées lors de l’I/O 2025, Google introduit la caméra et le partage d’écran alimentés par Project Astra dans l’application Apple après leur lancement sur Android le mois dernier. L’interface pleine écran de Gemini Live affichera de nouveaux boutons pour lancer cette fonctionnalité. Cela sera accessible à tous les utilisateurs gratuits, et le déploiement commencera dès aujourd’hui pour iOS.
A l’avenir, Gemini Live bénéficiera d’un support pour des applications/extensions Gemini telles que Google Maps, Calendar, Tasks et Keep dans les semaines à venir. Au sein d’une conversation, vous pourrez demander à Live de créer des événements dans Calendar et de rechercher sur Maps, avec l’espoir d’un support accru pour d’autres services dans le futur.
La fonctionnalité Deep Research peut désormais combiner des données publiques avec vos PDF et images privés pour une compréhension « holistique, croisant vos connaissances uniques avec des tendances plus larges ». Les intégrations avec Gmail et Drive seront « bientôt disponibles ».
Par exemple, un chercheur de marché peut maintenant télécharger des chiffres de ventes internes (au format PDF) pour les croiser avec des tendances de marché publiques, le tout au sein de Deep Research. De même, un académique peut intégrer des articles de revues spécifiques et difficiles à trouver pour enrichir sa revue de littérature.
Lorsqu’une rédaction est effectuée avec Gemini Canvas, un nouveau menu « Créer » permettra de générer une page Web, une infographie et un quiz, en plus de l’aperçu audio déjà existant. Il y a également une boîte de saisie ouverte « Décrivez votre propre application ».

Gemini ajoute également des quizzes interactifs :
Par exemple, demandez simplement à Gemini de « créer un quiz de pratique sur la thermodynamique », puis plongez dans une expérience d’apprentissage personnalisée. À mesure que vous répondez, Gemini fournit des retours instantanés, mettant en évidence les sujets nécessitant plus d’attention. Une fois terminé, Gemini propose proactivement un quiz de suivi personnalisé, axé sur les domaines où vous avez rencontré des difficultés, vous aidant à transformer vos faiblesses en forces.
Les abonnés de Google AI Ultra auront bientôt accès au « Mode Agent » sur gemini.google.com, alimenté par Project Mariner : « Imaginez simplement énoncer votre objectif, et Gemini orchestre intelligemment les étapes pour y parvenir. » Vous aurez une conversation à gauche, tandis que le côté droit affichera une fenêtre de navigateur. Cela combine « navigation web, recherche approfondie et intégrations intelligentes avec vos applications Google ».
Quelles sont les nouveautés de l’application Gemini annoncées lors de Google I/O 2025 ?
Google a annoncé plusieurs mises à jour pour l’application Gemini, y compris le lancement de Gemini 2.5 Flash et la fonctionnalité de partage d’écran et de caméra Gemini Live pour iOS.
Qu’est-ce que Gemini 2.5 Deep Think ?
Gemini 2.5 Deep Think est une mise à jour avec des capacités de réflexion avancées, surpassant les benchmarks pour les Mathématiques, le Code et la Multimodalité. Il utilise des techniques de recherche nouvelles pour évaluer plusieurs hypothèses avant de répondre.
Comment fonctionne le nouveau mode « Agent » dans Gemini ?
Le mode « Agent », prochainement disponible pour les abonnés Google AI Ultra, permettra aux utilisateurs d’énoncer leurs objectifs, et Gemini orchestrera intelligemment les étapes nécessaires pour les atteindre, tout en intégrant la navigation web et les applications Google.
Quelles sont les intégrations prévues pour Deep Research ?
Deep Research combinera bientôt des données publiques avec des fichiers PDF et images privés, permettant une compréhension holistique et un recoupement des connaissances uniques avec des tendances plus larges. Les intégrations avec Gmail et Drive sont également à venir.






Discussion about this post