El prometido desde hace mucho tiempo rediseño de Siri de Apple finalmente está pasando de rumor a hoja de ruta, y el catalizador es una asociación que habría parecido improbable hace unos años: Gemini, la familia de modelos de IA insignia de Google, está destinada a impulsar funciones clave de Siri y capacidades más amplias de la “IA de Apple”.
Varios informes a lo largo de 2025 insinuaron pruebas entre bastidores y negociaciones del acuerdo. En enero de 2026, esas migas de pan se convirtieron en un anuncio formal, redefiniendo la próxima era de Siri como un híbrido de experiencias controladas por Apple y fundamentos de IA provistos por Google, implementados bajo las normas de privacidad de Apple.
1) De la especulación a una asociación “oficial” de IA entre Apple y Google
El 12 de enero de 2026, TechCrunch informó que Apple y Google hicieron su asociación “oficial”, confirmando que Gemini alimentará a Siri y otras funciones de IA de Apple. El informe describe el acuerdo como plurianual y no exclusivo, un matiz importante, porque sugiere que Apple mantiene abiertas opciones estratégicas en lugar de comprometer el futuro de Siri a un único proveedor externo.
TechCrunch también incluyó una cita de la declaración conjunta que recoge la justificación pública de Apple: «Tras una evaluación cuidadosa, determinamos que la tecnología de Google proporciona la base más capaz para los modelos fundacionales de Apple…». La redacción revela mucho: Apple no se limita a «añadir un chatbot», está eligiendo una capa base que cree que puede acelerar la propia estrategia de modelos de Apple.
Apple además enfatizó que mantendrá sus estándares de privacidad. Esa garantía es central en la historia: Apple intenta aprovechar capacidades de modelos de última generación sin renunciar a la confianza de los usuarios que ha construido limitando la exposición de los datos y reforzando los controles de la plataforma.
2) Por qué Siri necesitaba un nuevo cerebro: retrasos, expectativas y la presión de 2026
La ruta de actualización de Siri ha sido accidentada. TechCrunch señaló que Apple había retrasado la “Siri más personalizada” varias veces, pero ahora confirma, a través de un portavoz de Apple, que una actualización llegará “este año”. Informes anteriores apuntaban a una fecha en primavera, pero el mensaje de enero debe entenderse mejor como un compromiso tras repetidos retrasos.
La Associated Press enmarcó de manera similar el momento como que Apple “recurre a Google” y a Gemini para ayudar a personalizar Apple Intelligence y Siri en el iPhone y otros productos. AP también hizo referencia al reconocimiento previo de Apple de que una gran actualización de Siri no llegaría hasta algún momento de 2026, lo que establece la expectativa de que los cambios más importantes podrían llegar en fases en lugar de en una sola entrega.
Esa secuenciación importa porque las expectativas ya no son abstractas. A los usuarios se les ha mostrado cómo podría ser la “próxima Siri”: más contextual, más capaz a través de las apps y más conversacional, y sin embargo han esperado tras múltiples reajustes de calendario. El movimiento hacia Gemini se lee como un esfuerzo pragmático para cerrar rápidamente la brecha de capacidad mientras Apple continúa construyendo su propia pila a largo plazo.
3) El dinero y el modelo: informes de un acuerdo personalizado con Gemini de aproximadamente 1.000 millones USD al año
Meses antes de la confirmación de enero de 2026, Bloomberg informó (5 de noviembre de 2025) que Apple se acercaba a un acuerdo por valor de aproximadamente 1.000 millones de dólares al año para un modelo Gemini personalizado que ayudaría a impulsar el prometido rediseño de Siri. El informe también citó una afirmación llamativa: un modelo con “1,2 billones de parámetros”, descrito como “ultrapoderoso”, atribuido a personas con conocimiento de las negociaciones.
MacRumors, citando a Bloomberg, repitió la cifra de aproximadamente 1.000 millones de dólares al año y volvió a mencionar el detalle de “1,2 billones de parámetros”, añadiendo una nota clave de implementación: el modelo personalizado se ejecutaría en el Private Cloud Compute de Apple. En ese marco, las capacidades de Gemini estarían presentes “en segundo plano”, mientras que la interfaz de Siri seguiría siendo diseñada por Apple, sin una capa visible de “servicios de Google” dentro de la interfaz de Siri.
Incluso si los recuentos específicos de parámetros suelen ser proxies imperfectos del rendimiento en el mundo real, la dirección es clara: Apple parece dispuesta a gastar mucho para adquirir rápidamente capacidades de modelo de vanguardia. La apuesta estratégica es que Apple puede ganar tiempo, lanzando mejores funciones de Siri antes, mientras continúa desarrollando y diferenciando sus propios modelos fundacionales de Apple y la experiencia de usuario.
4) Private Cloud Compute, control y la promesa de privacidad al nivel de Apple
Un tema recurrente en la cobertura es que “Gemini alimentando a Siri” no significa necesariamente de forma directa que “Gemini esté ejecutándose en tu iPhone”. AppleInsider rechazó interpretaciones alarmistas con la contundente réplica: “Gemini no se hará cargo de tu iPhone”, enfatizando el control de Apple sobre la experiencia en el dispositivo y la diferencia entre usar la tecnología como base y ceder el asistente por completo.
El informe de MacRumors (vía Bloomberg) coincidía con esa distinción al decir que el modelo Gemini se ejecutaría en el Private Cloud Compute de Apple, lo que implica infraestructura y políticas gestionadas por Apple. El objetivo práctico es mantener los datos de los usuarios bajo el paraguas de Apple, incluso si la tecnología del modelo subyacente proviene de Google.
El informe de TechCrunch del 12 de enero también señaló la declaración de Apple de que mantendrá sus estándares de privacidad. La cuestión sin resolver es cómo comunicará Apple estos límites en términos de producto: qué solicitudes permanecen en el dispositivo, qué se envía a la nube de Apple, qué se registra (o no) y cómo los usuarios pueden entender y controlar ese comportamiento sin tener que leer un documento técnico.
5) Qué podría hacer en realidad la Siri potenciada por Gemini: contexto, pantallas y acciones multi‑paso
Parte de la emoción, y de la impaciencia, proviene de las capacidades que Apple ya ha insinuado públicamente. La cobertura relacionada con los ciclos de prueba esperados de iOS 26.4, incluido Cinco Días (El País) el 10 de febrero de 2026, remite a los temas de la demo de la WWDC 2024, como el contexto personal, la comprensión en pantalla y la realización de acciones dentro y entre aplicaciones.
El resumen de MacRumors del informe de Bloomberg de noviembre de 2025 describió una Siri que maneja mejor consultas complejas y tareas en varios pasos a través de las aplicaciones, un área en la que los asistentes de voz clásicos a menudo fallan. En términos prácticos, eso podría significar encadenar acciones («encuentra el correo, extrae la fecha, añádela a mi calendario y luego envía un mensaje al grupo») sin romperse en interacciones frágiles de un solo comando.
La cobertura de negocios de El País (23 de enero de 2026), también resumiendo las afirmaciones de Bloomberg, sugirió que el rediseño acercaría a Siri al primer chatbot de IA de Apple, mejorando la conversación interactiva en comparación con la Siri actual. Si ese marco resulta exacto, los usuarios podrían experimentar una sintaxis de comandos menos rígida y un intercambio más natural, mientras Apple intenta mantener el asistente anclado, fiable y seguro.
6) Cuándo lo verás: vistas previas en febrero, betas de iOS 26.4 y despliegues por etapas
El calendario sigue siendo la mayor cuestión práctica. El 25 de enero de 2026, TechCrunch citó informes de Gurman/Bloomberg que indicaban que Apple planeaba presentar una nueva versión de Siri en la segunda quincena de febrero, lo que sugiere una vista previa o un lanzamiento controlado antes de la disponibilidad general.
Business Standard (27 de enero de 2026) resumió reclamos similares, incluyendo expectativas de que las funciones de Siri potenciada por Gemini podrían aparecer en una “beta 26.4” de iOS, potencialmente acompañadas por una demo gestionada o una sesión informativa para medios para mostrar resultados tempranos de la asociación. Eso encajaría en el patrón de Apple de coreografiar estrechamente las narrativas iniciales para cambios importantes en la plataforma.
TechRadar (10 de febrero de 2026) añadió una ventana más específica: una beta para desarrolladores de iOS 26.4 esperada la semana del 23 de febrero de 2026, con “algunos componentes” del rediseño que probablemente aparecerían primero. En conjunto con la confirmación de Apple de que sería “este año”, la ruta más plausible es una entrega incremental: primero las partes visibles para desarrolladores, luego funciones más amplias para consumidores y, finalmente, las capacidades más personalizadas tras las pruebas a gran escala de Apple sobre privacidad, fiabilidad e integraciones con apps.
7) El juego a largo plazo de Apple: IA no exclusiva, bases desde iOS 18.4 y “todavía es Apple quien lo define”
La asociación no surgió de la nada. Ya el 22 de febrero de 2025, 9to5Mac informó que las cadenas del backend de la beta de iOS 18.4 incluían tanto “Google” como “OpenAI” como opciones de modelos de terceros dentro de Apple Intelligence, sugiriendo que Apple estaba diseñando un marco de integración en lugar de un complemento puntual al estilo ChatGPT.
La apertura de Apple a múltiples socios de modelos también se mostró alrededor de la WWDC 2024. AppleInsider citó comentarios posteriores al keynote de Craig Federighi y John Giannandrea indicando que Apple tenía la intención de soportar múltiples integraciones de modelos de terceros, “incluyendo Gemini de Google”, además de ChatGPT. Ese contexto hace que el acuerdo de enero de 2026 se sienta menos como un giro repentino y más como una expansión planificada.
Los comentarios de analistas recogidos por Tom’s Guide (13 de enero de 2026) sostuvieron que el acuerdo con Gemini no significa que Apple “se rindiera”. En cambio, Apple podría estar construyendo sus propios modelos “basados en Gemini” para potenciar una Siri más avanzada, usando la tecnología de Google como base mientras conserva la responsabilidad de la dirección del producto, la experiencia de usuario y la diferenciación. La estructura “no exclusiva” reportada por TechCrunch refuerza que Apple quiere opciones, palanca y espacio para evolucionar.
Preparar una Siri impulsada por Gemini se entiende mejor como una aceleración pragmática: Apple obtiene capacidades de modelos de vanguardia, mientras que Google gana una validación de alto perfil y una huella de distribución potencialmente masiva. El lenguaje público , “la base más capaz”, “plurianual”, “no exclusivo” y “mantener los estándares de privacidad”, señala una asociación diseñada para ser poderosa pero limitada.
Los próximos meses determinarán si esta estrategia da resultados visibles para los usuarios. Si las betas de iOS 26.4 comienzan a mostrar acciones en varios pasos realmente útiles, comprensión del contexto personal y una conversación más natural, sin comprometer la confianza, Apple podría finalmente entregar la transformación de Siri que ha prometido desde las primeras vistas previas de Apple Intelligence.