Gemini da un paso más hacia el control directo de otras aplicaciones en teléfonos Android. La función fue anticipada por Google en el evento Google I/O 2025 bajo el nombre de Project Astra.
La propuesta apunta a que el asistente pueda ver la pantalla, desplazarse y tocar botones para resolver tareas cotidianas. La idea es reducir la intervención del usuario en acciones repetitivas.

Qué es Project Astra y qué mostró Google
Durante Google I/O 2025, la compañía mostró a Gemini interactuando con el celular en tiempo real. El asistente no solo interpretó texto e imágenes, sino que también ejecutó acciones.
Ese enfoque marca el salto hacia los agentes de IA. En lugar de responder consultas, Gemini pasa a hacer cosas por el usuario.
Screen automation: así se llamaría la función
En la versión beta 17.4.66 de la app de Google para Android aparecieron nuevas cadenas de texto. Allí se menciona el nombre interno “bonobo” y el término screen automation.
Según la descripción, Gemini podrá hacer pedidos o reservar viajes usando apps instaladas en el teléfono. El enlace asociado todavía apunta a una página genérica de soporte.
Qué tareas podría hacer Gemini en tu celular
La automatización en pantalla estaría pensada para acciones simples. Entre los ejemplos figuran compras online y apps de transporte como Uber o Lyft.











