Google ha dado un paso más en la evolución de su inteligencia artificial. Gemini está a punto de convertirse en un asistente mucho más proactivo, con las primeras capacidades de agente que le permitirán realizar tareas del mundo real sin intervención constante del usuario. La función, llamada automatización de tareas, debutará en los nuevos Pixel 10 y en la serie Samsung Galaxy S26, permitiendo que la IA pida un Uber o complete un pedido en DoorDash de forma autónoma.
El funcionamiento es sencillo: el usuario lanza un comando a Gemini, como “consígueme un Uber al Palace of Fine Arts”. La IA abre entonces la aplicación en una ventana virtual y recorre el proceso paso a paso. El usuario puede observar la secuencia, detenerla o intervenir si es necesario. Gemini notificará si necesita ayuda para elegir entre dos opciones o si el producto solicitado no está disponible, pero en condiciones normales completará la tarea y alertará para la confirmación final.

Sameer Samat, presidente del ecosistema Android, explicó que esta capacidad forma parte de la visión de transformar Android de un “sistema operativo” a un “sistema de inteligencia” . Las automatizaciones no se limitarán a Gemini: llegarán a la próxima gran actualización de Android, Android 17. Google ha preparado el terreno desde 2024 con un marco de funciones para que las aplicaciones expongan acciones, pero Gemini también será capaz de razonar y navegar por sí mismo cuando no haya integraciones específicas.
La función estará disponible inicialmente en EE.UU. y Corea como una vista previa en los Pixel 10, Pixel 10 Pro, Pixel 10 Pro XL y los nuevos Galaxy S26, y solo funcionará con un puñado de aplicaciones como Uber y Grubhub. Google es consciente de que esta evolución puede generar recelos entre los desarrolladores de aplicaciones, pero Samat lo tiene claro: “Esta tecnología está llegando. La cuestión es cómo descubrimos la mejor manera de abrazarla juntos”.
