Le lancement par Google du 18 novembre 2025 de Gemini 3, avec Gemini 3 Pro disponible en aperçu public, marque une volonté affirmée d’orienter les workflows de développement vers une approche agent-first. L’annonce positionne Gemini 3 Pro comme un modèle conçu pour un raisonnement multimodal approfondi et une utilisation pratique des outils, tout en précisant où les développeurs et les équipes peuvent y accéder : Google AI Studio, Vertex AI, le Gemini CLI et le nouvel IDE Antigravity.
L’aperçu public est documenté dans les supports Vertex/Vertex AI de Google sous l’identifiant de modèle gemini-3-pro-preview et indique une limite de connaissances à janvier 2025. La sortie inclut une fenêtre de contexte très large, des outils spécialisés pour les développeurs et une expérience utilisateur centrée sur les agents, qui visent ensemble à transformer la façon dont les ingénieurs construisent, testent et vérifient du code avec l’aide de l’IA.
Lancement, identité et phase de publication
Gemini 3 et Gemini 3 Pro ont été officiellement annoncés par Google le 18 novembre 2025, avec la version Pro proposée en aperçu public. La documentation et le blog de Google enregistrent explicitement l’identifiant du modèle comme gemini-3-pro-preview et détaillent les conditions de l’aperçu, la disponibilité et le filtrage initial pour des variantes spéciales comme Deep Think.
Le statut d’aperçu public est important pour les développeurs qui évaluent les compromis entre accès anticipé et éventuelles limitations de débit ou politiques d’utilisation. Google présente l’aperçu comme largement accessible : Antigravity est disponible sur Windows, macOS et Linux, et Google évoque des « limites de débit généreuses » pour l’utilisation de Gemini 3 Pro durant cette période d’aperçu.
Les canaux officiels (blog produit de Google et documentation des modèles Vertex) fournissent l’enregistrement canonique des spécifications, de la date de sortie et des affirmations de Google sur les capacités et évaluations de sécurité du modèle. La presse spécialisée comme The Verge, VentureBeat et d’autres a ajouté des démonstrations indépendantes et des analyses des premiers résultats de benchmarks.
Fenêtres de contexte massives et capacités pour développeurs
Techniquement, Gemini 3 Pro augmente considérablement le plafond de contexte : Google annonce un support d’environ 1 048 576 tokens en entrée (≈1M) et environ 65 536 tokens en sortie (≈64k). Cette échelle permet des workflows où un agent peut raisonner sur de très grands bases de code, de longues historiques de documents ou des entrées multimodales complexes sans jongler constamment avec le contexte.
En plus de la fenêtre de contexte, Vertex et la documentation développeur listent un support intégré pour l’exécution de code, l’appel de fonctions, l’ancrage (Search), les sorties structurées et l’utilisation d’outils en streaming/agentique. Ces fonctionnalités sont conçues pour permettre aux modèles de fonctionner comme des agents actifs qui appellent des fonctions, évaluent les résultats et intègrent des recherches externes et des sorties d’exécution dans leurs réponses.
Pour les développeurs, cela signifie moins de séparations artificielles entre l’ingénierie de prompt, l’orchestration d’outils et l’exécution. L’architecture et les outils de Gemini 3 Pro visent à rendre possible l’alimentation du modèle avec de grands documents de conception, des résultats de tests ou le contexte complet d’un dépôt, et d’obtenir en retour des conseils structurés et exécutables.
Antigravity : un IDE agent-first
Google a introduit Antigravity comme un environnement de développement intégré « agent-first » construit autour de Gemini 3 Pro. L’idée centrale est d’élever les agents au rang de participants de premier plan dans la boucle édition-exécution-débogage : les agents peuvent accéder directement à l’éditeur, au terminal et au navigateur intégré, et Antigravity expose deux vues principales pour ce travail.
La vue Éditeur inclut une barre latérale d’agent où un ou plusieurs agents peuvent suggérer des modifications, exécuter des extraits ou expliquer des décisions en ligne. La vue Manager est axée sur l’orchestration : les équipes peuvent exécuter, surveiller et coordonner plusieurs agents travaillant sur différentes parties d’un projet ou sur une tâche complexe unique.
La conception d’Antigravity traite les agents comme des coéquipiers avec des autorisations et des artefacts d’audit, plutôt que comme de simples journaux d’appels de fonctions opaques. Cette réorientation vise à faire en sorte que les workflows pilotés par des agents ressemblent moins à l’envoi de prompts boîte noire et plus à une collaboration avec un assistant toujours disponible et discipliné.
Artefacts, vérification et mémoire d’agent
Une innovation clé d’Antigravity est la notion d’Artefacts : des enregistrements vérifiables par l’humain que les agents produisent en planifiant et en agissant. Les artefacts incluent des listes de tâches, des plans étape par étape, des captures d’écran et des enregistrements de navigateur qui documentent ce que les agents vont faire et ce qu’ils ont fait. Google avance que ces éléments sont plus faciles à vérifier pour les utilisateurs que de simples journaux d’appels d’outils.
Antigravity prend également en charge la mémoire persistante des agents. Les agents peuvent conserver des extraits et des étapes de sessions passées pour les réutiliser, permettant ainsi une amélioration progressive : les corrections courantes, les heuristiques spécifiques au projet et les checklists de publication deviennent partie intégrante de la mémoire de travail de l’agent et accélèrent les sessions suivantes.
En combinant Artefacts et mémoire, Antigravity vise à répondre à deux préoccupations récurrentes : la transparence et la répétabilité. Les utilisateurs peuvent inspecter les artefacts pour confirmer l’intention avant toute action, et les agents peuvent s’appuyer sur les leçons passées pour éviter de répéter les mêmes erreurs.
Benchmarks, mode Deep Think et sécurité
Google a publié les points forts des benchmarks pour Gemini 3 Pro dans son billet de lancement. Parmi les chiffres notables : une note WebDev Arena de 1487 Elo, Terminal‑Bench 2.0 = 54,2 % pour l’utilisation terminal/outils, et SWE‑bench Verified = 76,2 % sur un benchmark de codage agentique. D’autres chiffres rapportés par la presse incluent des performances de premier plan telles que MMMU‑Pro ≈81 %, Video MMMU ≈87,6 %, MathArena Apex ≈23,4 % et ARC‑AGI‑2 ≈31,1 %, avec Humanity’s Last Exam autour de 37-38 % sur certains indicateurs.
Google a également introduit une variante « Deep Think » de Gemini 3, destinée à un raisonnement plus profond et plus lent, initialement réservée aux testeurs AI Ultra/sécurité. Google et la presse indiquent que Deep Think obtient de meilleurs scores sur plusieurs tâches de raisonnement complexe, illustrant un compromis que Google formalise entre débit et délibération approfondie.
En matière de sécurité, Google indique que Gemini 3 a subi la série d’évaluations de sécurité la plus complète à ce jour pour un modèle IA de Google, avec des améliorations en résistance à l’injection de prompt et une réduction de la flagornerie. L’entreprise a publié une fiche modèle et fait référence à des évaluations indépendantes dans le cadre du récit de lancement.
Accès développeur, tarification, support multi‑modèles et écosystème
Gemini 3 est accessible via Google AI Studio, Vertex AI, le Gemini CLI et Antigravity, et Google a annoncé des partenariats avec des éditeurs d’outils tiers comme Cursor, GitHub, JetBrains, Manus et Replit. Google précise aussi qu’Antigravity prend en charge d’autres modèles (par exemple Anthropic Claude Sonnet 4.5 et certains modèles open source comme GPT‑OSS), permettant des workflows agentiques multi‑modèles.
La tarification API en aperçu, rapportée par la presse spécialisée, fixe les tarifs de base à environ 2 $ pour 1M tokens en entrée et 12 $ pour 1M tokens en sortie pour des prompts jusqu’à 200K tokens, avec des paliers supérieurs (rapportés) à environ 4 $/18 $ par 1M au-delà de ce seuil. Google évoque des limites de débit généreuses en aperçu, et la presse note que les limites sont réinitialisées toutes les cinq heures, seule une très petite fraction des utilisateurs intensifs risquant de les atteindre durant l’aperçu.
L’annonce de Sundar Pichai a replacé Gemini 3 dans le contexte plus large de l’IA chez Google, citant les AI Overviews à environ 2 milliards d’utilisateurs/mois, l’application Gemini à ~650 millions d’utilisateurs mensuels, et ~13 millions de développeurs ayant déjà utilisé les modèles génératifs de Google. Pour les développeurs qui évaluent l’adoption, la combinaison du support multi‑modèles, des intégrations partenaires et des points d’entrée accessibles réduit la barrière pour tester des workflows de code agent-first.
Vibe coding et interfaces génératives
Google décrit Gemini 3 comme permettant le « vibe coding » et des interfaces génératives plus riches où le langage naturel, les croquis ou la voix peuvent créer des applications interactives, des composants UI et même de l’art 3D ou voxel. Les démonstrations présentées lors du lancement ont mis en avant la production rapide d’artefacts de code interactifs à partir de prompts de haut niveau et d’entrées multimodales.
Le vibe coding reconsidère l’acte de construire comme une guidance itérative : un développeur décrit l’intention, les agents génèrent du code échafaudé et des prototypes, puis le développeur affine la conception avec des instructions ciblées. L’éditeur intégré, le terminal et l’accès au navigateur d’Antigravity raccourcissent les boucles de feedback, permettant d’exécuter et de valider immédiatement les composants UI générés.
À mesure que ces interfaces mûrissent, la frontière entre prototypage et production s’estompe : les développeurs ont toujours besoin de tests rigoureux et de vérification humaine, mais les interfaces génératives promettent une exploration plus rapide, de nouveaux schémas UX pour les non-codeurs, et des gains de productivité concrets pour les ingénieurs.
La combinaison du large contexte de Gemini 3 Pro, des outils axés développeur et de l’UX centrée agent d’Antigravity marque une avancée significative vers le codage agent-first. Les artefacts et la mémoire persistante sont des choix de conception explicites qui privilégient la transparence et l’amélioration itérative, tandis que Deep Think et les évaluations de sécurité montrent que Google cherche à équilibrer capacités et pratiques de diffusion responsables.
Pour les équipes et les développeurs individuels, la nouvelle pile, Gemini 3 Pro via AI Studio, Vertex, CLI ou Antigravity, offre un moyen flexible d’expérimenter les workflows agentiques, l’orchestration multi‑modèles et les schémas d’UI générative. À mesure que l’aperçu s’élargit et que les benchmarks indépendants et les retours développeurs s’accumulent, Antigravity et Gemini 3 Pro seront à surveiller de près pour quiconque s’intéresse sérieusement à l’avenir du codage avec l’IA.