Android ya no quiere que abras apps: quiere que Gemini las use por ti

Cabecera editorial sobre Gemini Intelligence y la nueva integración de IA de Google en Android, Chrome y apps del sistema.

Google quiere convertir Gemini en una capa de inteligencia capaz de actuar dentro de Android, Chrome y las apps del sistema.

Google ha presentado una nueva capa de inteligencia para Android, Chrome y sus futuros Googlebook. La idea suena espectacular: pedirle algo al móvil y que Gemini use apps, webs, Gmail, Calendar o formularios por nosotros. Pero la pregunta importante no es solo si esto será útil. Es si funcionará bien fuera de la demo, fuera de Estados Unidos y fuera del ecosistema perfecto de Google.

Google quiere que Android deje de ser solo un sistema operativo

Durante años hemos entendido Android como un lugar lleno de iconos. Abríamos Gmail para buscar un correo, Calendar para mirar una fecha, Chrome para consultar algo, Maps para orientarnos, una app de comida para pedir la cena y otra de viajes para reservar una escapada. El móvil era el centro de nuestra vida digital, sí, pero seguía funcionando como una especie de cajón de herramientas: tú elegías la herramienta, tú hacías el proceso y tú ibas saltando de una pantalla a otra.

Lo que Google acaba de enseñar con Gemini Intelligence apunta justo en la dirección contraria. La compañía ya no quiere que Android sea simplemente el sistema operativo que sostiene las aplicaciones. Quiere que sea una capa inteligente capaz de entender lo que necesitamos y actuar por nosotros dentro de esas aplicaciones.

Dicho más claro: Google ya no quiere que abras apps. Quiere que le pidas cosas a Gemini y que Gemini use las apps por ti.

La idea es muy potente. También muy cómoda. Y, como casi todo lo que rodea a la inteligencia artificial actual, ligeramente inquietante cuando uno se para a pensar en todo lo que necesita saber de nosotros para funcionar realmente bien.

La promesa: menos tocar pantallas, más pedir resultados

El ejemplo clásico de móvil sigue siendo bastante manual. Ves una lista de la compra en una nota, la copias, abres una app de supermercado, buscas producto por producto, eliges cantidades, comparas marcas, corriges errores y confirmas el pedido. Google quiere que ese proceso se reduzca a una orden mucho más natural: “añade todo esto al carrito”.

Según los ejemplos mostrados por la compañía, Gemini Intelligence podrá usar el contexto de la pantalla o incluso de una imagen para transformar información en acciones. Una lista de la compra en una app de notas podría convertirse en un carrito de supermercado. Un folleto de viajes visto en un hotel podría servir para pedirle al móvil que busque una experiencia similar en Expedia para seis personas. Un correo con información académica podría convertirse en una búsqueda de libros necesarios para clase. Una fecha detectada en un email podría acabar directamente en el calendario.

Esto es bastante más interesante que otro chatbot dentro del móvil. Aquí la IA no se limita a responder. Interpreta, cruza contexto y ejecuta pasos. En cierto modo, se parece a lo que ya ocurre cuando usamos un asistente con herramientas conectadas: pedirle que lea Gmail, revise Calendar, busque vuelos o prepare un borrador. En Hefestec ya hemos hablado de esa idea de usar la IA como una especie de Jarvis sin perder del todo el control. La diferencia es que Google quiere llevar esa lógica al corazón de Android y hacerla parte del uso diario del teléfono.

Si funciona, el cambio puede ser enorme. No porque vayamos a dejar de usar apps de un día para otro, sino porque muchas de esas apps podrían pasar a ser infraestructura invisible. Seguirían ahí, pero cada vez entraríamos menos en ellas de forma directa. El usuario pediría un resultado y el sistema se encargaría del recorrido.

Gemini en Chrome: el navegador también quiere hacer cosas

Chrome es otra pieza clave de esta historia. Google va a llevar Gemini en Chrome a Android con funciones para resumir páginas, hacer preguntas sobre lo que estamos leyendo, comparar información y conectar la navegación con apps de Google. También aparece Auto Browse, una función pensada para automatizar tareas tediosas en la web, como reservar una plaza de aparcamiento o modificar un pedido.

Esto es importante porque el navegador siempre ha sido una puerta de entrada a internet, pero ahora empieza a comportarse como un asistente operativo. Ya no se trata solo de buscar una web y leerla. Se trata de que Chrome entienda lo que hay en esa web, lo relacione con nuestro contexto y pueda completar parte del proceso.

El ejemplo de reservar aparcamiento antes de ir a un evento es bastante gráfico. Si el sistema puede leer la confirmación de la entrada, entender dónde y cuándo ocurre, buscar opciones cercanas, iniciar la reserva y pedir confirmación antes de pagar, estamos ante algo más que una mejora de productividad. Estamos ante el principio de una navegación agéntica en el móvil.

Y aquí conviene mantener la cabeza fría. Todo esto suena muy bien en una presentación, pero la web real es caótica. Hay formularios mal diseñados, ventanas emergentes, captchas, cookies, versiones móviles pobres, errores de traducción, métodos de pago diferentes y servicios que cambian cada dos semanas. Que Gemini pueda hacer una demo impecable no significa que vaya a funcionar con la misma naturalidad en el restaurante de tu barrio, en la aseguradora que parece hecha en 2008 o en una web europea con mil capas de consentimiento.

Googlebook: el portátil pensado para una IA en el centro

La otra pieza llamativa es Googlebook, una nueva categoría de portátiles que Google presenta como diseñada desde cero para Gemini Intelligence. No es solo un Chromebook con otro nombre. Al menos sobre el papel, Google habla de una nueva etapa en la que Android, ChromeOS y Gemini se acercan para crear una experiencia de portátil más integrada con el móvil.

El detalle más interesante es Magic Pointer. Google quiere convertir el cursor en una especie de punto de entrada para Gemini. Mueves el puntero, señalas algo en pantalla y el sistema ofrece sugerencias contextuales. Una fecha en un correo puede convertirse en una reunión. Dos imágenes, por ejemplo un salón y un sofá, pueden combinarse para visualizar cómo quedaría una idea. Un widget personalizado puede generarse con lenguaje natural y conectar información de Gmail, Calendar, vuelos, hoteles o reservas.

Aquí se ve muy bien el movimiento de fondo. Google no está pensando solo en “meter IA” en productos existentes. Está intentando rediseñar la interfaz alrededor de la IA. El móvil, el navegador, el portátil, el reloj o incluso el coche empiezan a formar parte de una misma lógica: menos capas manuales, más contexto y más automatización.

Es una idea muy Google, pero también muy Apple en ambición. La diferencia es que Apple ha construido su ecosistema desde la integración de hardware y software, mientras que Google intenta hacerlo desde Android, Chrome, Gmail, Maps, Calendar, Search, YouTube y ahora Gemini. Si alguien tiene datos y servicios para intentarlo, es Google. Y no deja de ser curioso que, al mismo tiempo, la industria también esté pendiente de cómo Apple intenta poner al día Apple Intelligence y Siri en esta misma carrera.

Lo más interesante no son las funciones, sino el cambio de interfaz

La tentación es quedarse en la lista de novedades: rellenado inteligente de formularios, widgets generados por IA, dictado más natural con Rambler, Gemini en Chrome, automatización entre apps, Quick Share más compatible, integración con Googlebook. Todo eso importa, pero la lectura grande está en otra parte.

Google está intentando que la IA sustituya parte de la interfaz tradicional.

Hasta ahora, usar tecnología implicaba aprender rutas: abrir una app, buscar un menú, pulsar un botón, copiar un dato, pegarlo en otro sitio, confirmar una acción. La promesa de esta nueva etapa es que muchas de esas rutas desaparezcan. No porque la app deje de existir, sino porque el sistema puede recorrerla por nosotros.

Es el paso de “usar el móvil” a “pedirle cosas al móvil”. Y aunque parezca una diferencia pequeña, cambia bastante la relación con la tecnología. El teléfono deja de ser una pantalla llena de accesos y empieza a parecerse más a un intermediario permanente entre nosotros y el mundo digital.

Eso puede ser comodísimo. También puede volvernos más dependientes de una plataforma que decide cómo se hacen las cosas, qué servicio se prioriza, qué información se muestra y qué camino se considera más conveniente.

El entusiasmo está justificado, pero el escepticismo también

Aquí es donde conviene no caer ni en el cinismo automático ni en la fe ciega. Lo que Google plantea tiene sentido. De hecho, probablemente sea una de las evoluciones más naturales del smartphone en los próximos años. Si la IA puede entender texto, imágenes, voz, contexto, ubicación y servicios conectados, lo lógico es que empiece a operar sobre todo eso. En el fondo, esto conecta con otra tendencia que ya estamos viendo en móviles: la inteligencia artificial deja de ser una app concreta y empieza a vivir dentro del propio dispositivo, algo que también se está moviendo en alianzas como OPPO y MediaTek con la IA integrada en smartphones.

El problema es que ya hemos visto esta película muchas veces. Una función se presenta como el futuro, llega primero a Estados Unidos, funciona en inglés, se limita a unos pocos móviles, depende de suscripciones, se integra con un puñado de apps asociadas y tarda meses —o años— en aterrizar de forma útil en mercados como España.

Con Gemini Intelligence pasa algo parecido. Google habla de despliegues por oleadas, primero en los últimos Samsung Galaxy y Google Pixel durante el verano, con expansión posterior a otros dispositivos. Gemini en Chrome para Android arrancará en dispositivos seleccionados, con Android 12 o superior, al menos 4 GB de RAM y, en el caso de Auto Browse, con disponibilidad inicial para usuarios de AI Pro y Ultra en Estados Unidos. Además, hay funciones condicionadas por idioma, región, hardware y compatibilidad de apps.

Es decir: la visión es global, pero la experiencia real será fragmentada.

Y eso importa mucho. Porque una IA que automatiza tareas solo resulta mágica cuando funciona de manera constante. Si un día puede añadir ingredientes a un carrito, pero al siguiente falla porque la app no está soportada; si resume una web en inglés pero se atasca en una española; si puede reservar aparcamiento en SpotHero pero no en los servicios que usamos aquí; si entiende Gmail pero no esa confirmación rara que te manda una aerolínea europea; entonces la promesa se convierte en otra función curiosa que usas tres veces y luego olvidas.

La privacidad será el precio emocional de la comodidad

Google insiste en que el usuario mantiene el control, que Gemini solo actúa bajo petición, que se detiene al completar la tarea y que pedirá confirmación antes de acciones sensibles como compras o publicaciones. Todo eso es necesario y tranquilizador. Pero no elimina la pregunta de fondo.

Para que una IA así sea realmente útil necesita contexto. Mucho contexto. Correos, calendario, ubicación, navegación, compras, fotos, archivos, contactos, hábitos, preferencias, idioma, historial y probablemente mil señales pequeñas que ni siquiera percibimos como datos personales hasta que alguien las junta.

No es nuevo. Google ya vive en buena parte de nuestra vida digital. La diferencia es que hasta ahora esos servicios estaban más separados en nuestra cabeza. Gmail era Gmail. Maps era Maps. Calendar era Calendar. Chrome era Chrome. Con Gemini, todo puede empezar a funcionar como un cerebro común. Y precisamente por eso tienen sentido movimientos recientes como la llegada de memoria y personalización de Gemini en España: la IA ya no compite solo por contestar bien, sino por conocernos mejor y mantener continuidad.

Y eso es precisamente lo que lo hace tan potente. También lo que lo hace delicado.

Porque el futuro cómodo de la tecnología pasa por delegar. Delegar búsquedas, reservas, compras, mensajes, organización, navegación y pequeñas decisiones. Pero cada acto de delegación exige confianza. No solo confianza en que la IA no se equivoque, sino en que la plataforma no abuse de su posición, no priorice sus propios servicios de forma invisible y no convierta nuestra comodidad en otra capa de dependencia.

Android podría estar entrando en su etapa más importante en años

Lo más interesante de todo esto es que Android llevaba tiempo necesitando una nueva narrativa. Durante años, cada versión del sistema ha traído mejoras útiles, cambios visuales, privacidad, batería, seguridad y pequeños ajustes de experiencia. Todo necesario, pero poco emocionante. La sensación era que el smartphone había madurado tanto que ya quedaba poco por reinventar.

Google también ha presentado otras novedades para Android que van en esa misma dirección: más conexión entre dispositivos, más continuidad y una experiencia menos fragmentada entre móvil, portátil, reloj o coche. No son solo funciones sueltas. Son piezas de una estrategia más amplia.

Gemini Intelligence le da a Google una historia distinta. Android ya no sería solo el sistema que corre en miles de móviles. Sería la capa inteligente que conecta móvil, portátil, reloj, coche, navegador y servicios personales. Un sistema menos centrado en abrir apps y más centrado en resolver tareas.

Eso sí puede ser un cambio grande. No necesariamente mañana, ni este verano, ni en España desde el primer día. Pero sí como dirección de viaje.

La clave estará en los detalles menos vistosos: qué apps funcionarán, en qué países, con qué idiomas, en qué dispositivos, con qué coste, con qué permisos, con qué controles y con qué porcentaje de acierto en la vida real. Porque una IA agéntica no se juzga por lo espectacular que queda en una keynote. Se juzga por si un martes cualquiera, con prisa, mala cobertura y una web mal hecha, consigue ayudarte sin liarla.

Un futuro brillante, si no se queda en demo

Google ha enseñado una de las visiones más claras hasta ahora de hacia dónde puede ir el móvil: un dispositivo que no solo responde, sino que actúa; que no solo abre apps, sino que las coordina; que no solo muestra información, sino que la convierte en tareas completadas.

Como idea, es fascinante. Como producto real, todavía habrá que verlo con bastante escepticismo. Porque entre la demo perfecta y el uso diario hay un mundo lleno de regiones no soportadas, funciones que llegan tarde, suscripciones, idiomas, apps incompatibles y automatizaciones que prometen ahorrarte cinco minutos pero acaban pidiéndote diez de supervisión.

Aun así, sería un error quitarle importancia. Google no está presentando simplemente otra capa de IA para presumir en el Google I/O. Está ensayando una nueva manera de relacionarnos con Android, Chrome y sus futuros portátiles. Una en la que la interfaz deja de ser solo una pantalla llena de iconos y empieza a ser una conversación con consecuencias reales.

Y ahí está lo bonito y lo incómodo de todo esto. Si funciona, será una de esas tecnologías que en unos años parecerán obvias. Si funciona a medias, será otro recordatorio de que la inteligencia artificial todavía vive mejor en los vídeos de presentación que en nuestra caótica vida diaria.