💡 Resumen (TL;DR):
- Google liberó la automatización de pantallas de Gemini para realizar acciones dentro de apps de terceros.
- El servicio incluye límites diarios: desde 5 peticiones gratuitas hasta 120 en el plan de pago más alto.
- La función marca el salto hacia una IA capaz de operar un smartphone de forma autónoma.
Google liberó oficialmente la automatización de pantallas de Gemini para la serie Pixel 10 a través del Feature Drop del 17 de marzo de 2026. Esta herramienta permite que el asistente de inteligencia artificial complete tareas en aplicaciones de terceros sin la intervención manual del usuario.
La automatización de pantalla de Gemini es una función de machine learning que ejecuta acciones multipaso, como pedir comida o solicitar transporte, navegando directamente por la interfaz de tu celular. Tras un comando de voz como “pide un viaje al aeropuerto”, el asistente abre la aplicación en una ventana virtual segura.
El procesamiento basado en la nube indica a Gemini dónde hacer scroll, tocar y escribir. Puedes observar el proceso en tiempo real o dejar que ocurra en segundo plano. Para garantizar la seguridad financiera, la IA siempre devuelve el control al usuario en el último paso para confirmar el pago o la reserva.

Límites de uso y apps compatibles
Actualmente, la característica opera en Estados Unidos y es compatible con Lyft, Uber, Uber Eats, GrubHub, DoorDash y Starbucks. Google confirmó que pronto añadirá soporte para plataformas como Instacart.
Debido al costo de procesamiento en la nube, Google impuso límites de uso diarios basados en los niveles de suscripción:
* Usuarios gratuitos: 5 peticiones por día.
* Google AI Plus ($7.99 USD/mes): 12 peticiones.
* AI Pro ($19.99 USD/mes): 20 peticiones.
* AI Ultra ($249.99 USD/mes): Hasta 120 peticiones.
La actualización está disponible en los Pixel 10, Pixel 10 Pro y Pixel 10 Pro XL que corren Android 16 QPR3. Un reporte de 9to5Google señaló que la configuración de automatización también apareció en el Pixel 10 Pro Fold, aunque el dispositivo no figura en la lista oficial de soporte.
Esta evolución tecnológica materializa el concepto de IA “agente” que Google adelantó en febrero. El objetivo es dejar atrás las respuestas reactivas para ejecutar acciones tangibles. Como publicó The Verge tras probar la herramienta en la serie Galaxy S26: “ver tu teléfono operar de forma autónoma es una experiencia bastante surrealista”.