Mundo, 08 de feb 2026 (ATB Digital).- Google avanza hacia un futuro donde los usuarios dejarán de controlar directamente sus teléfonos móviles desde la pantalla, delegando esa función a su sistema de inteligencia artificial, Gemini.
Esta apuesta representa un cambio radical en la forma en que se interactúa con los dispositivos Android, abriendo la puerta a una nueva era de automatización en la que las acciones cotidianas dejarán de depender de la intervención manual.
Cómo es el proyecto de Google para la automatización
La compañía presentó públicamente las primeras pinceladas de este plan bajo el nombre de Project Astra, en su última conferencia de desarrolladores. Allí, mostró cómo Gemini puede actuar como un agente autónomo, capaz de ejecutar tareas en el teléfono, analizar el contenido en pantalla e incluso desplazarse y activar botones dentro de aplicaciones, sin que el usuario tenga que tocar la pantalla.
En las versiones beta más recientes de la aplicación de Google para Android, los desarrolladores han encontrado nuevas cadenas de código que confirman la inminente llegada de una funcionalidad bautizada como “screen automation”.
El nombre en clave interno para el sistema es “bonobo”. Esta herramienta permitirá a Gemini realizar acciones dentro de aplicaciones específicas: desde hacer pedidos en línea hasta solicitar un viaje en apps como Uber o Lyft, todo sin la necesidad de que el usuario interactúe físicamente con su móvil.
El propósito detrás de esta automatización es claro: liberar al usuario de las tareas repetitivas o simples que consumen tiempo, permitiendo que la inteligencia artificial asuma el control operativo bajo una supervisión constante.
Según lo demostrado en Project Astra, Gemini no solo es capaz de leer la información que se muestra en pantalla, sino que también puede desplazarse por interfaces, identificar y seleccionar opciones, y confirmar acciones de forma autónoma.
Cómo funcionaría la automización de Gemini en Android
El funcionamiento previsto de screen automation se apoya en la capacidad de Gemini para analizar, comprender y ejecutar instrucciones dentro de diferentes apps. Por ejemplo, el usuario podrá pedirle a la IA que compre un producto en línea o reserve un viaje.
La inteligencia artificial analizará la pantalla, detectará los elementos necesarios y procederá a realizar los pasos requeridos, desde el inicio del proceso hasta la confirmación final, sin que el usuario deba tocar la pantalla.
Los primeros indicios encontrados en el código de la versión beta de la aplicación de Google para Android sugieren que, aunque las funciones iniciales sean limitadas, el potencial de expansión es considerable. A futuro, Gemini podría gestionar desde el seguimiento de compras y pedidos hasta la organización de actividades personales, todo ello a través de una interfaz conversacional y proactiva.
La integración de screen automation en Android también trae consigo novedades en la interfaz de usuario. Se han detectado nuevas secciones, como “Purchases” (Compras) y “My orders” (Mis pedidos), dentro del área de gestión de cuentas y en la propia app de Gemini.
Aunque estas opciones aún no están operativas, anticipan la posibilidad de que los usuarios puedan consultar y gestionar órdenes directamente desde un panel centralizado, facilitando el seguimiento y la administración de las actividades realizadas por la inteligencia artificial.
Cómo será la privacidad y control del usuario
La autonomía de Gemini, sin embargo, no significa que el usuario pierda el control sobre su dispositivo. El propio código de la aplicación de Google incorpora advertencias claras: el usuario debe supervisar siempre las acciones realizadas por Gemini.
Aunque la IA está diseñada para minimizar la intervención humana, Google recalca que pueden producirse errores y que la responsabilidad última por cualquier acción ejecutada recae en el usuario. En todo momento, este podrá retomar el control manualmente si lo considera necesario.
Un aspecto relevante que surge de las cadenas de código encontradas es la preocupación por la privacidad y la seguridad de la información. Si el usuario habilita la función de mantener la actividad (“Keep Activity”), revisores entrenados podrán ver capturas de pantalla del dispositivo para garantizar el buen funcionamiento del sistema.
Por esta razón, se recomienda no ingresar información sensible o datos de pago mientras la automatización está activa, aunque no está claro si la IA podrá detectar automáticamente estos casos y pausar su intervención, o si dependerá del usuario desactivarla manualmente.
Fuente: Infobae
