La refonte de Siri, promise depuis longtemps par Apple, passe enfin de la rumeur à la feuille de route, et le catalyseur est un partenariat qui aurait semblé improbable il y a quelques années : Gemini, la famille de modèles d’IA phare de Google, devrait alimenter des fonctionnalités clés de Siri et des capacités plus larges de « Apple AI ».
Plusieurs reportages tout au long de 2025 laissaient entendre des tests en coulisses et des négociations d’accord. En janvier 2026, ces indices sont devenus une annonce formelle, recontextualisant la prochaine ère de Siri comme un hybride d’expériences contrôlées par Apple et de fondations d’IA fournies par Google, le tout délivré selon les règles de confidentialité d’Apple.
1) De la spéculation à un partenariat « officiel » Apple, Google en IA
Le 12 janvier 2026, TechCrunch a rapporté qu’Apple et Google avaient rendu leur partenariat « officiel », confirmant que Gemini alimenterait Siri et d’autres fonctionnalités Apple AI. Le reportage qualifie l’accord de pluriannuel et non exclusif, une formulation importante, car elle suggère qu’Apple conserve des options stratégiques plutôt que de confier l’avenir de Siri à un seul fournisseur externe.
TechCrunch a également inclus une citation de déclaration conjointe qui capture la justification publique d’Apple : « Après une évaluation minutieuse, nous avons déterminé que la technologie de Google fournit la base la plus performante pour les Apple Foundation Models… » La formulation est révélatrice : Apple n’ajoute pas simplement « un chatbot », elle choisit une couche de base qu’elle estime pouvoir accélérer sa propre stratégie de modèles.
Apple a en outre souligné qu’elle maintiendrait ses normes de confidentialité. Cette assurance est centrale dans l’histoire : Apple tente d’emprunter des capacités de modèles de pointe sans abandonner la confiance des utilisateurs qu’elle a bâtie en limitant l’exposition des données et en renforçant les contrôles de la plateforme.
2) Pourquoi Siri avait besoin d’un nouveau cerveau : retards, attentes et la pression de 2026
Le chemin de mise à niveau de Siri a été cahoteux. TechCrunch a noté qu’Apple avait retardé la « Siri plus personnalisée » à plusieurs reprises, mais confirme maintenant, via un porte-parole d’Apple, qu’une mise à niveau arrivera « cette année ». Des reportages antérieurs faisaient état d’un calendrier printanier, mais le message de janvier se lit mieux comme un engagement après des reports répétés.
L’Associated Press a de même présenté le moment comme Apple « faisant appel à Google » et à Gemini pour aider à personnaliser Apple Intelligence et Siri sur l’iPhone et d’autres produits. L’AP a également fait référence à la reconnaissance antérieure par Apple qu’une mise à niveau majeure de Siri n’arriverait pas avant un moment en 2026, fixant l’attente que les plus grands changements puissent arriver par phases plutôt que par une seule livraison.
Cette séquence importe parce que les attentes ne sont plus abstraites. Les utilisateurs ont vu à quoi pourrait ressembler le « prochain Siri » : plus contextuel, plus performant dans les apps et plus conversationnel, et ont pourtant attendu à travers plusieurs remises de calendrier. Le mouvement vers Gemini ressemble à un effort pragmatique pour combler rapidement l’écart de capacités pendant qu’Apple continue de construire sa propre pile à long terme.
3) L’argent et le modèle : rapports d’un accord personnalisé Gemini à ~1 milliard $/an
Quelques mois avant la confirmation de janvier 2026, Bloomberg a rapporté (5 novembre 2025) qu’Apple approchait d’un accord d’environ 1 milliard de dollars par an pour un modèle Gemini personnalisé destiné à aider à exécuter la refonte tant promise de Siri. Le reportage citait aussi une affirmation frappante : un modèle de « 1,2 trillion de paramètres », décrit comme « ultra-puissant », attribué à des personnes ayant connaissance des négociations.
MacRumors, citant Bloomberg, a repris le chiffre d’environ 1 milliard $/an et a répété le détail des « 1,2 trillion de paramètres », ajoutant une note clé d’implémentation : le modèle personnalisé fonctionnerait sur le Private Cloud Compute d’Apple. Dans ce cadre, les capacités de Gemini seraient présentes « en arrière-plan », tandis que l’interface de Siri resterait conçue par Apple, sans couche visible « services Google » à l’intérieur de l’interface de Siri.
Même si les comptes de paramètres sont souvent des proxys imparfaits pour les performances réelles, l’orientation est claire : Apple semble prête à dépenser massivement pour acquérir rapidement des capacités de modèles de pointe. Le pari stratégique est qu’Apple peut gagner du temps, en livrant des fonctionnalités Siri améliorées plus tôt, tout en continuant à développer et différencier ses propres « Apple Foundation Models » et l’expérience utilisateur.
4) Private Cloud Compute, contrôle et la promesse d’une confidentialité au standard Apple
Un thème récurrent dans les couvertures est que « Gemini alimentant Siri » ne signifie pas nécessairement « Gemini fonctionne sur votre iPhone » de manière directe. AppleInsider a tempéré les interprétations exubérantes avec le contrepoint net : « Gemini ne prendra pas le contrôle de votre iPhone », en mettant l’accent sur le contrôle d’Apple sur l’expérience sur appareil et la différence entre utiliser une technologie comme fondation et céder l’assistant en bloc.
Le reportage de MacRumors (via Bloomberg) s’alignait sur cette distinction en indiquant que le modèle Gemini fonctionnerait sur le Private Cloud Compute d’Apple, impliquant une infrastructure et des politiques gérées par Apple. L’objectif pratique est de garder les données des utilisateurs sous l’égide d’Apple, même si la technologie de modèle sous-jacente provient de Google.
Le rapport de TechCrunch du 12 janvier notait également la déclaration d’Apple selon laquelle elle maintiendrait ses normes de confidentialité. La question non résolue est de savoir comment Apple communiquera ces limites en termes produits : quelles requêtes restent sur l’appareil, ce qui transite vers le cloud d’Apple, ce qui est journalisé (ou non), et comment les utilisateurs peuvent comprendre et contrôler ce comportement sans avoir besoin de lire un livre blanc.
5) Ce que Siri propulsé par Gemini pourrait réellement faire : contexte, écrans et actions multi‑étapes
Une partie de l’excitation, et de l’impatience, vient des capacités qu’Apple a déjà teasées publiquement. Les comptes rendus liés aux cycles d’essai attendus d’iOS 26.4, y compris Cinco Días (El País) le 10 février 2026, renvoient aux thèmes de démonstration de la WWDC 2024 tels que le contexte personnel, la compréhension à l’écran et la réalisation d’actions au sein et entre les apps.
Le résumé de MacRumors des reportages de Bloomberg en novembre 2025 décrivait un Siri qui gère mieux les requêtes complexes et les tâches multi‑étapes à travers les apps, un domaine où les assistants vocaux classiques échouent souvent. En termes pratiques, cela pourrait signifier enchaîner des actions (« trouver l’email, extraire la date, l’ajouter à mon calendrier, puis envoyer un message au groupe ») sans retomber dans des interactions fragiles à commande unique.
La couverture business d’El País (23 janvier 2026), résumant également les affirmations de Bloomberg, suggérait que la refonte ferait évoluer Siri vers le premier chatbot d’Apple, améliorant la conversation interactive par rapport à Siri actuel. Si ce cadrage s’avère exact, les utilisateurs pourraient bénéficier d’une syntaxe de commande moins rigide et d’échanges plus naturels, tandis qu’Apple s’efforce de maintenir l’assistant ancré, fiable et sûr.
6) Quand vous le verrez : aperçus en février, bêtas iOS 26.4 et déploiements échelonnés
Le calendrier reste la plus grande question pratique. Le 25 janvier 2026, TechCrunch a cité des reportages de Gurman/Bloomberg selon lesquels Apple prévoyait de dévoiler une nouvelle version de Siri dans la seconde moitié de février, suggérant un aperçu ou une révélation contrôlée avant une disponibilité large.
Business Standard (27 janvier 2026) a récapitulé des affirmations similaires, y compris des attentes selon lesquelles les fonctionnalités de Siri propulsé par Gemini pourraient apparaître dans une bêta iOS « 26.4 », potentiellement accompagnées d’une démo gérée ou d’un briefing média pour montrer les premiers résultats du partenariat. Cela correspondrait au schéma d’Apple de chorégraphier étroitement les premiers récits des changements majeurs de plateforme.
TechRadar (10 février 2026) a ajouté une fenêtre plus précise : une bêta développeur iOS 26.4 attendue la semaine du 23 février 2026, avec « certains composants » de la refonte susceptibles d’apparaître en premier. Pris ensemble avec la confirmation d’Apple « cette année », le chemin le plus plausible est une livraison incrémentale : d’abord des éléments visibles par les développeurs, puis des fonctionnalités grand public plus larges, et les capacités les plus personnalisées arrivant après qu’Apple aura testé la confidentialité, la fiabilité et les intégrations d’apps à grande échelle.
7) Le jeu à long terme d’Apple : IA non exclusive, travaux préparatoires depuis iOS 18.4, et « reste à définir par Apple »
Le partenariat ne semble pas sorti de nulle part. Dès le 22 février 2025, 9to5Mac rapportait que les chaînes backend de la bêta iOS 18.4 incluaient à la fois « Google » et « OpenAI » comme options de modèle tiers à l’intérieur d’Apple Intelligence, laissant entendre qu’Apple concevait un cadre d’intégration plutôt qu’un add‑on ponctuel de type ChatGPT.
L’ouverture d’Apple à plusieurs partenaires de modèles est aussi apparue autour de la WWDC 2024. AppleInsider a cité des commentaires post‑keynote de Craig Federighi et John Giannandrea indiquant qu’Apple avait l’intention de prendre en charge plusieurs intégrations de modèles tiers, « y compris Gemini », au‑delà de ChatGPT. Ce contexte rend l’accord de janvier 2026 moins comme un pivot soudain et plus comme une expansion planifiée.
Le commentaire d’analystes repris par Tom’s Guide (13 janvier 2026) soutenait que l’accord Gemini ne signifiait pas qu’Apple « avait abandonné ». Au contraire, Apple pourrait construire ses propres modèles « basés sur Gemini » pour alimenter un Siri plus avancé, utilisant la technologie de Google comme base tout en conservant la responsabilité de la direction produit, de l’UX et de la différenciation. La structure « non exclusive » rapportée par TechCrunch renforce l’idée qu’Apple veut de l’optionnalité, du levier et de la marge d’évolution.
La préparation par Apple d’un Siri propulsé par Gemini se comprend mieux comme une accélération pragmatique : Apple obtient des capacités de modèles de pointe, tandis que Google gagne une validation très visible et un potentiel vaste réseau de distribution. Le langage public , « base la plus performante », « pluriannuel », « non exclusif » et « maintien des normes de confidentialité » , signale un partenariat conçu pour être puissant mais limité.
Les mois à venir détermineront si cette stratégie se traduit par des changements visibles pour les utilisateurs. Si les bêtas d’iOS 26.4 commencent à faire apparaître des actions multi‑étapes réellement utiles, une compréhension du contexte personnel et une conversation plus naturelle, sans compromettre la confiance, Apple pourra enfin livrer la transformation de Siri qu’elle promet depuis les premières présentations d’Apple Intelligence.