Apple acaba de lanzar iOS 26.5 y, con esa actualización, el ciclo de iOS 26 entra prácticamente en su recta final. A menos de un mes de la WWDC 2026, todas las miradas empiezan a apuntar hacia iOS 27 y hacia una nueva etapa de Apple Intelligence. La pregunta ya no es solo qué funciones enseñará Apple, sino si será capaz de convertir su inteligencia artificial en una experiencia realmente útil, integrada y creíble dentro del iPhone.
iOS 26.5 no es el final, es la antesala
Apple ha publicado iOS 26.5 a menos de un mes de su próxima conferencia mundial de desarrolladores, que se celebrará del 8 al 12 de junio. La actualización trae mejoras importantes, especialmente en seguridad, y también novedades visibles como el cifrado de extremo a extremo para mensajes RCS entre iPhone y Android, nuevos fondos de pantalla y ajustes menores en la experiencia del sistema.
Pero lo más interesante de iOS 26.5 no está solo en lo que trae, sino en el momento en el que llega. Esta no es la versión llamada a cambiar el relato de Apple Intelligence. Es, más bien, el último movimiento antes de que Apple abra una nueva etapa con iOS 27. Una especie de cierre ordenado antes de enseñar qué entiende ahora la compañía por inteligencia artificial en sus dispositivos.
Y esa es precisamente la clave. Apple Intelligence nació con una promesa muy Apple: una IA privada, útil, integrada en el sistema y pensada para ayudar sin convertir el iPhone en un escaparate de chatbots. La idea sigue siendo buena. El problema es que el mercado se ha movido muy rápido, la competencia ha ganado terreno y la sensación general es que Apple no ha conseguido convertir todavía esa promesa en una experiencia cotidiana claramente diferencial.
La WWDC ya no va solo de nuevas funciones
La WWDC siempre ha sido el escenario donde Apple enseña el futuro de sus sistemas operativos. Este año, sin embargo, la presión es distinta. iOS 27 no llega en un vacío. Llega después de meses en los que Apple Intelligence ha vivido entre expectativas altas, funciones parciales, retrasos y una comparación constante con lo que están haciendo OpenAI, Google, Microsoft o Anthropic.
Apple no necesita necesariamente tener el chatbot más espectacular del mercado. Esa nunca ha sido exactamente su guerra. Su terreno natural es otro: hacer que la tecnología se integre tan bien en el dispositivo que el usuario casi no tenga que pensar en ella. El reto está en demostrar que esa filosofía también funciona en inteligencia artificial.
Porque una cosa es prometer una IA más personal, más contextual y más privada, y otra muy distinta es que el usuario la sienta en el día a día. Que Siri entienda mejor. Que las herramientas de escritura sean realmente útiles. Que la generación de imágenes no parezca un añadido simpático, sino una función con sentido. Que el sistema sepa cuándo ayudar, cuándo callarse y cuándo apoyarse en un modelo más potente.
Ahí es donde iOS 27 puede ser decisivo. No porque tenga que resolver de golpe todos los problemas de Apple en IA, sino porque tiene que demostrar que existe un plan creíble. Ya lo contamos cuando analizamos cómo la nueva Siri empezaba a asomar casi dos años después de su gran promesa: el problema de Apple no es solo enseñar funciones, sino conseguir que el usuario perciba que esa espera tenía sentido.
Los chatbots de terceros pueden ser la gran pista
La última hora apunta precisamente en esa dirección. Según Bloomberg, recogido también por Reuters, Apple estaría preparando para iOS 27, iPadOS 27 y macOS 27 una función conocida internamente como “Extensions”. La idea sería permitir que los usuarios pudieran elegir modelos de inteligencia artificial de terceros para determinadas tareas dentro de Apple Intelligence, como generación de texto o imágenes.
No está anunciado oficialmente por Apple, así que conviene tratarlo como lo que es: una filtración relevante, no una función confirmada. Pero encaja demasiado bien con el momento actual como para ignorarla.
Apple ya abrió la puerta a ChatGPT como apoyo externo dentro de Apple Intelligence. El usuario puede recurrir al modelo de OpenAI en determinadas situaciones, siempre bajo el marco de privacidad y permisos que Apple quiere controlar. El siguiente paso lógico sería ampliar esa posibilidad a otros modelos, como Gemini, Claude o cualquier servicio compatible que el usuario ya esté pagando.
Y aquí el matiz es importante. No se trataría simplemente de “meter más chatbots” dentro del iPhone. La idea interesante sería permitir que Apple Intelligence funcionara como una capa de sistema capaz de apoyarse en distintos modelos según la necesidad del usuario. Apple pondría la interfaz, la integración, los permisos y el contexto. Los modelos externos pondrían parte de la potencia.
Dicho de otra manera: Apple quizá no tiene que ganar la carrera fabricando el modelo más avanzado. Puede intentar ganarla construyendo el lugar donde todos esos modelos se vuelven útiles.
Una ayuda incómoda, pero también una jugada inteligente
La posible integración de IAs de terceros tiene una doble lectura. La primera es incómoda para Apple: si necesita apoyarse más en modelos externos, es porque su propia IA todavía no llega a todo. Esa lectura existe y sería absurdo negarla. Apple ha vendido durante años la idea de controlar hardware, software y servicios de extremo a extremo. En inteligencia artificial, ese control total parece más difícil de sostener.
Pero la segunda lectura es más estratégica. Apple puede convertir esa apertura en una ventaja si logra presentarla como elección, no como dependencia. Si el usuario ya paga ChatGPT, Gemini o Claude, tiene sentido que pueda usar ese modelo dentro del sistema, con una experiencia más cómoda que saltar constantemente entre aplicaciones.
Ahí Apple puede jugar una carta muy potente: no competir solo por tener el modelo más llamativo, sino por ofrecer el marco más limpio, privado y coherente para usar inteligencia artificial en el móvil.
Esta idea conecta con algo que ya vimos al hablar de que Gemini podía convertirse en una pieza clave para Apple Intelligence y Siri. Lo importante no era tanto si Apple usaba tecnología de Google, OpenAI o cualquier otra compañía, sino qué hacía después con ella: si la convertía en una experiencia integrada, privada y con sentido propio.
La pregunta es si será capaz de hacerlo sin que parezca un parche. Porque si la integración se siente limitada, confusa o demasiado dependiente de terceros, el relato será claro: Apple llega tarde y está intentando ponerse al día como puede. Pero si lo ejecuta bien, puede venderlo como una evolución natural de Apple Intelligence.
Europa también empuja hacia una IA menos cerrada
Hay otro elemento que hace que esta filtración tenga bastante sentido: Europa.
La Comisión Europea ya está presionando a Google para que Android no convierta a Gemini en una capa privilegiada frente a otros servicios de inteligencia artificial. El debate no va solo de tener una app instalada. Va de algo más profundo: si el asistente de IA se convierte en una parte central del sistema operativo, otros servicios deben poder acceder a determinadas funciones, interactuar con aplicaciones, invocar capacidades del sistema y competir en condiciones razonables.
Esto afecta directamente al futuro de los móviles. La inteligencia artificial ya no es solo una aplicación más. Empieza a comportarse como una capa del sistema. Si esa capa decide qué modelo responde, qué datos usa, qué aplicaciones puede tocar y qué acciones puede ejecutar, entonces la elección del usuario se vuelve mucho más importante.
Y Apple lo sabe.
Aunque la presión europea ahora esté mirando especialmente a Google y Android, sería ingenuo pensar que Apple no está tomando nota. iOS es un ecosistema mucho más cerrado, y Apple lleva años defendiendo ese control como parte de su promesa de seguridad, privacidad y calidad. Pero en el nuevo escenario de la IA, ese argumento tendrá que convivir con una palabra cada vez más presente: interoperabilidad.
Por eso, abrir Apple Intelligence a modelos de terceros no sería solo una forma de ponerse al día en capacidades. También podría ser una forma de anticiparse a una presión regulatoria que, tarde o temprano, puede pedir más elección dentro del iPhone. Es una continuación natural de una conversación más amplia: el futuro de la tecnología ya no depende solo de inventar algo nuevo, sino también de entender sus límites y su regulación.
Apple puede adelantarse antes de que la obliguen
Este es probablemente el punto más interesante. Apple puede presentar la integración de IAs de terceros como una decisión propia, elegante y controlada. Algo así como: tú eliges el modelo que quieres usar, pero el iPhone sigue siendo el lugar donde todo sucede de forma ordenada, segura y comprensible.
Eso es muy distinto a que un regulador le obligue dentro de dos años a abrir partes del sistema de forma apresurada y menos cuidada. Si Apple prepara ahora el terreno, puede convertir una obligación futura en una ventaja presente.
La compañía ya ha vivido algo parecido con otros cambios forzados o acelerados por Europa, desde el USB-C hasta las tiendas alternativas en iOS. La diferencia es que la inteligencia artificial toca algo mucho más sensible: la relación diaria entre el usuario y el dispositivo.
Si Apple Intelligence se convierte en la nueva capa inteligente del iPhone, Apple tendrá que decidir hasta qué punto esa capa pertenece solo a Apple o puede ser también el lugar donde conviven varios modelos. Y esa decisión no será solo técnica. Será estratégica, regulatoria y de relato.
En cierto modo, esto encaja con la idea de Apple como compañía que sabe cerrar ciclos antes de abrir otros nuevos. Lo vimos al analizar el evento de marzo como cierre de una etapa para Apple: no todos los movimientos importantes son rupturas visibles. A veces son transiciones cuidadosamente preparadas.
El nuevo Apple Intelligence tiene que demostrar que existe de verdad
La WWDC 2026 llega, por tanto, en un momento delicado. Apple acaba de cerrar una etapa con iOS 26.5 y ahora tiene que enseñar qué viene después. iOS 27 no puede limitarse a pequeños retoques visuales y funciones dispersas. Necesita explicar hacia dónde va Apple Intelligence.
La compañía tiene una ventaja evidente: controla el iPhone, el iPad, el Mac, el Apple Watch y buena parte de la experiencia diaria de millones de usuarios. Si alguien puede convertir la IA en algo invisible, cómodo y profundamente integrado, es Apple. Pero esa ventaja también se ha convertido en presión. Porque cuanto más controlas el ecosistema, más se espera que la experiencia final sea impecable.
Los chatbots de terceros pueden ser una pieza clave de esa nueva etapa. No porque Apple vaya a renunciar a su propia IA, sino porque quizá ha entendido que el futuro no pasa por obligar al usuario a vivir dentro de un único modelo. Puede pasar por darle una capa inteligente común, privada y bien diseñada, capaz de apoyarse en distintas inteligencias según el contexto.
Eso suena bien sobre el papel. Ahora falta lo difícil: que funcione.
La gran prueba llega en junio
Con iOS 26.5 ya en la calle, la cuenta atrás hacia iOS 27 ha empezado. La WWDC no será solo la presentación de otro sistema operativo. Será una prueba de credibilidad para Apple Intelligence.
Apple tiene que demostrar que su visión de la inteligencia artificial no es simplemente más lenta, sino distinta. Que la privacidad no es una excusa para llegar tarde. Que la integración no es una forma elegante de decir “todavía no está listo”. Y que abrirse a modelos de terceros puede ser una decisión inteligente, no una admisión de derrota.
La pregunta incómoda es clara: ¿puede Apple ponerse al día en IA sin dejar de ser Apple?
La respuesta empezará a conocerse en junio, cuando iOS 27 suba al escenario y Apple tenga que enseñar si Apple Intelligence está preparado para dejar de ser una promesa y convertirse, por fin, en una parte real del iPhone.