La “nueva Siri” que Apple presentó en la WWDC de 2024 empieza por fin a asomar la cabeza. No lo hace con una keynote grandilocuente ni con demos espectaculares, sino a través de briefings, filtraciones controladas y un despliegue progresivo que apunta a febrero de 2026 como primer punto de inflexión. Casi veinte meses después de las promesas originales, Apple estaría lista para cumplir —al menos en parte— con lo que vendió hace dos años.
Y ese retraso es clave para entender todo lo que está pasando ahora.
La promesa de 2024: una Siri que entendía el mundo
En la WWDC 2024, Apple no habló de pequeños retoques. Habló de una reinvención profunda de Siri. Una versión capaz de entender lo que hay en pantalla, de actuar sobre una imagen, un formulario o un correo, de mantener conversaciones con contexto y de ejecutar acciones complejas entre aplicaciones sin obligar al usuario a aprender comandos artificiales.
Era, sobre el papel, la Siri que llevaba años prometiéndose.
El problema es que esa Siri no llegó en 2024. Ni tampoco en 2025.
Durante ese tiempo, Apple fue desplegando piezas sueltas de Apple Intelligence, pero el núcleo del asistente seguía siendo el mismo: sin memoria real, sin contexto persistente y con límites evidentes frente a los asistentes basados en IA generativa que ya estaban en el mercado.
Febrero de 2026: Siri 1.0, o cómo saldar una deuda
Según el timeline adelantado por Mark Gurman, Apple ha optado por una estrategia poco habitual para una de sus apuestas clave: demos privadas y briefings a partir de febrero de 2026, en lugar de un anuncio público masivo.
Lo que se activa en esta primera fase no es una “nueva Siri” en sentido estricto. Es la Siri que Apple prometió en 2024.
Esta etapa —que podríamos llamar Siri 1.0— pone en marcha, por fin, las funciones anunciadas casi dos años antes:
- Conciencia de pantalla: Siri puede entender lo que aparece en una imagen, una web o una app y actuar sobre ello, por ejemplo rellenando un formulario con datos visibles.
- Contexto real: las conversaciones dejan de reiniciarse cada vez que se formula una nueva pregunta.
- Type to Siri: texto y voz pasan a ser formas equivalentes y naturales de interacción.
- Acciones complejas entre apps: Siri puede encadenar tareas sin romper el flujo.
Nada de esto es rompedor en 2026. Lo relevante es que por fin llega.
El cambio estructural: Gemini ya es infraestructura oficial
Aquí conviene ser muy preciso, porque este punto no es especulación.
Apple y Google han anunciado oficialmente un acuerdo estratégico por el cual la tecnología de Gemini pasa a formar parte de la base técnica de Apple Intelligence. No se trata de una colaboración experimental ni de un parche temporal, sino de una decisión estructural.
De hecho, ya analizamos este movimiento en Hefestec en Gemini será la base de Apple Intelligence y Siri, donde queda claro que hablamos de infraestructura, no de un simple añadido.
Este acuerdo implica varias cosas importantes:
- Gemini no es visible para el usuario ni se presenta como producto.
- No hay un “modo Gemini” dentro de iOS.
- Apple mantiene el control absoluto de la interfaz, la experiencia y la privacidad.
Google aporta músculo de modelo y capacidad de escalado, algo que Apple no había logrado cerrar a tiempo con desarrollo propio para cumplir las promesas hechas en 2024. Este movimiento no estaba en la hoja de ruta original: es una corrección estratégica para poder llegar, aunque sea tarde.
¿Qué cabe esperar frente a Gemini en los móviles Android?
Dado que Gemini es ahora infraestructura oficial dentro de Apple Intelligence, es razonable suponer que la nueva Siri acabará ofreciendo capacidades similares a las que hoy tiene Gemini en los móviles Android. No necesariamente idénticas en forma, pero sí comparables en fondo.
Eso implica, previsiblemente:
- Mejor comprensión del lenguaje natural en peticiones largas.
- Capacidad para mantener conversaciones encadenadas con contexto.
- Uso combinado de texto, voz e información visual.
- Ejecución de tareas complejas sin necesidad de comandos rígidos.
La diferencia clave no estará tanto en lo que puede hacer el modelo, sino en cómo se presenta al usuario. Mientras que en Android Gemini se muestra como un asistente explícitamente conversacional y protagonista, Apple sigue apostando por una integración mucho más silenciosa y controlada.
En la práctica, Siri no va a “parecer” Gemini, pero sí puede comportarse de forma muy similar en capacidades, especialmente en aquellas funciones donde el modelo subyacente marca la diferencia.
Dicho de otra manera: Apple no busca que Siri compita con Gemini. Busca que Siri deje de perder contra él.
iOS 26.4: cuando el usuario empieza a notarlo
El despliegue real para el público general llegaría previsiblemente con iOS 26.4, entre marzo y abril de 2026, con un requisito claro de hardware: iPhone 15 Pro o modelos posteriores.
Aquí es donde el cambio se percibe de verdad en el día a día:
- Siri entiende mejor peticiones largas.
- Mantiene contexto entre preguntas.
- Ejecuta tareas más complejas con menos errores.
La sensación no será la de estar usando “la IA más avanzada del mercado”, sino algo mucho más reconocible para cualquiera que lleve tiempo usando productos de Apple:
Ahora sí es la Siri que me prometieron.
No es una revolución, es un ajuste de rumbo
Apple no ha reinventado Siri de la noche a la mañana. Lo que está haciendo es reconocer, de forma implícita, que no llegaba sola a lo que prometió en 2024. El acuerdo con Google y la integración de Gemini como base técnica no son una casualidad, son una necesidad.
Primero toca cumplir. Después, ya habrá tiempo de enseñar la “nueva” Siri con todas las letras. Hasta entonces, lo que veremos es una evolución progresiva, menos vistosa que en otras plataformas, pero probablemente más integrada y estable para el usuario medio.

Deja una respuesta