Découvrez les dernières innovations de l’application Gemini avec les mises à jour 2.5, intégrant des fonctionnalités Flash et Live Camera sur l’iPhone. Ces avancées révolutionnent la manière dont nous capturons et partageons nos moments précieux, offrant une expérience utilisateur inégalée grâce à une optimisation ciblée.

Sommaire :
Mises à jour du modèle
Lors de l’événement I/O 2025, Google a révélé des avancées significatives concernant l’application Gemini, notamment le lancement de Gemini 2.5 Flash. Cette mise à jour améliore la performance de raisonnement, la multimodalité, le codage et les benchmarks de long contexte, diminuant l’utilisation de tokens de 20 à 30 %. Cette version est désormais accessible à tous via l’application Gemini.
Une version de prévisualisation mise à jour (05-20) est aussi disponible dans Google AI Studio et Vertex AI, avec une disponibilité générale pour les développeurs et clients d’entreprise prévue pour début juin. La version Gemini 2.5 Pro suivra peu après.
Google introduit également Gemini 2.5 Deep Think, qui inclut des capacités de raisonnement avancées, positionnant le modèle en tête des benchmarks en mathématiques (USAMO 2025), en codage (LiveCodeBench v6) et en multimodalité (MMMU). Ce « mode de raisonnement amélioré » s’appuie sur de nouvelles techniques de recherche permettant au modèle de considérer plusieurs hypothèses avant de répondre.
L’entreprise prend le temps nécessaire pour réaliser des évaluations de sécurité approfondies et recueillir des retours d’experts. Le mode Deep Think sera d’abord accessible aux testeurs de confiance via l’API Gemini avant d’être largement diffusé. Après cette phase, il sera disponible pour les consommateurs dans le cadre de l’abonnement Google AI Ultra.
Nous continuerons à améliorer Deep Think sur la base de nos évaluations de sécurité avancées et des retours des utilisateurs avant de le publier plus largement.
En plus, Google a révélé Imagen 4, qui propose des détails réalistes et de meilleures sorties rédactionnelles, ainsi que des améliorations de vitesse. Veo 3, avec génération audio native, est également disponible pour les utilisateurs de Google AI Ultra. Cela inclut des effets sonores, des bruits de fond, et des dialogues entre personnages.
Nouvelles fonctionnalités de Gemini
Les nouvelles fonctionnalités de l’application Gemini, révélées lors de l’I/O 2025, incluent un appareil photo propulsé par Project Astra et le partage d’écran pour les utilisateurs d’iPhone et d’iPad. Après sa sortie sur Android le mois précédent, l’interface en plein écran de Gemini Live montrera de nouveaux boutons pour accéder à ces fonctionnalités. Ce service sera disponible pour tous les utilisateurs gratuits et lancera (aujourd’hui) sur iOS.
D’ici peu, Gemini Live intégrera le support d’applications/extensions pour Google Maps, Calendar, Tasks et Keep. Les utilisateurs pourront créer des événements dans le calendrier et effectuer des recherches sur Maps directement à partir d’une conversation, avec d’autres services de Google prévus pour le futur.
Dès aujourd’hui, Deep Research permet de combiner des données publiques avec des PDF et des images privées pour une compréhension globale, permettant de croiser votre savoir unique avec des tendances encore plus larges. Les intégrations avec Gmail et Google Drive sont à venir.
Par exemple, un chercheur de marché peut désormais télécharger des chiffres internes de ventes (en PDF) pour les croiser avec des tendances de marché publiques, tout cela dans Deep Research. Ou un universitaire peut intégrer des articles de journaux spécifiques et difficiles à trouver pour enrichir leur revue de littérature.
Lorsque vous rédigez avec Gemini Canvas, un nouveau menu “Créer” vous permettra de générer une page Web, une infographie, et un quiz, en plus des résumés audio existants. Une boîte de saisie ouverte vous permettra également de « décrire votre propre application ».

Gemini introduit également des quiz interactifs, permettant par exemple de demander à Gemini de “créer un quiz sur la thermodynamique” pour une expérience d’apprentissage sur mesure. Pendant que vous répondez, Gemini fournit un retour instantané, mettant en évidence les sujets nécessitant plus d’attention. À la fin, Gemini propose proactivement un quiz de suivi personnalisé, se concentrant sur les domaines que vous avez trouvés difficiles.
Les abonnés à Google AI Ultra recevront bientôt le “Mode Agent” sur gemini.google.com, alimenté par Project Mariner. Cela permettra à l’utilisateur d’énoncer simplement son objectif, et Gemini orchestrera intelligemment les étapes pour y parvenir. Un chat à gauche et une fenêtre de navigateur à droite rassembleront la navigation web, la recherche approfondie et des intégrations intelligentes avec vos applications Google.
Quelles sont les nouvelles fonctionnalités de l’application Gemini annoncées lors de Google I/O 2025 ?
Google a introduit le partage d’écran et la caméra Gemini Live sur iOS, avec des mises à jour pour le mode Deep Think et d’autres fonctionnalités innovantes.
Qu’est-ce que le modèle Gemini 2.5 Flash ?
Le modèle Gemini 2.5 Flash améliore la performance en raisonnement et en multimodalité tout en étant plus efficace, utilisant 20-30% moins de jetons.
Quand Gemini 2.5 Deep Think sera-t-il disponible ?
Le mode Deep Think sera d’abord accessible aux testeurs de confiance via l’API Gemini, avant d’être largement disponible après des évaluations de sécurité supplémentaires.
Comment fonctionnent les quiz interactifs dans Gemini ?
En demandant à Gemini de créer un quiz de pratique, les utilisateurs peuvent bénéficier d’une expérience d’apprentissage personnalisée avec des retours instantanés sur leurs performances.

Bonjour, je m’appelle Manu Dibango et j’ai 37 ans. Cadre supérieur dans l’administration, je suis passionné par la gestion et l’organisation. Bienvenue sur Camernews où je partage ma veille sur les nouvelles technologies et l’innovation.