Google Reorganiza Agentes Navegador: ¿Respuesta a OpenClaw?

Actualizado el 28/03/2026: Google anunció en KubeCon + CloudNativeCon Europe 2026 (Amsterdam, 23-26 de marzo) la publicación como open source del GKE Cluster Autoscaler y el driver DRA para TPUs, posibilitando portabilidad real de cargas de IA en Kubernetes. La comunidad cloud-native alcanzó 19,9 millones de desarrolladores.

En 30 segundos

  • En KubeCon + CloudNativeCon Europe 2026 (Amsterdam, 23-26 de marzo), Google abrió como open source el GKE Cluster Autoscaler, el componente central que gestiona el aprovisionamiento automático de infraestructura en Kubernetes.
  • Google también publicó el driver DRA (Dynamic Resource Allocation) para TPUs, permitiendo que las cargas de trabajo de IA sean portables entre diferentes plataformas Kubernetes certificadas.
  • Se lanzó la certificación CNCF AI Conformance, que garantiza que modelos y herramientas de IA puedan ejecutarse sin cambios entre entornos certificados (GKE, Azure, etc.).
  • La comunidad cloud-native alcanzó 19,9 millones de desarrolladores, crecimiento del 28% desde Q3 2025; 7,3M ya son desarrolladores de IA.
  • Microsoft y NVIDIA también presentaron novedades: DRA a GA, Workload Aware Scheduling, AI Runway (API de Kubernetes para inferencia), y el GPU DRA driver donado a la CNCF.

KubeCon + CloudNativeCon Europe 2026: qué pasó en Amsterdam

Del 23 al 26 de marzo de 2026, Amsterdam fue el epicentro de la industria cloud-native. KubeCon + CloudNativeCon Europe es la conferencia más importante del ecosistema, donde se reúnen contribuidores de código abierto, equipos de empresas proveedoras de infraestructura y desarrolladores que usan Kubernetes en producción. Este año, la inteligencia artificial fue el eje vertebral del evento.

Los números hablan: el reporte de la CNCF y SlashData publicado durante el evento reveló que 82% de los equipos de infraestructura ya usa Kubernetes. Pero existe una brecha importante: mientras que la adopción de Kubernetes es masiva, solo el 7% de los equipos despliega cargas de IA diariamente en producción. Eso es lo que la comunidad llama el “AI execution gap” — sabemos cómo desplegar Kubernetes, pero llevar cargas de IA a Kubernetes sigue siendo complicado.

Dos tercios de las cargas gen-AI ya corren en Kubernetes según reportes presentados en el evento. Eso es importante porque significa que la gente ya está usando Kubernetes para IA, pero sin herramientas de primer nivel. Todo lo que Google, Microsoft, NVIDIA e Intel anunciaron en Amsterdam va dirigido a cerrar esa brecha: hacer que desplegar IA en Kubernetes sea tan maduro y confiable como desplegar una aplicación web.

GKE Cluster Autoscaler se vuelve open source: qué cambia para la infraestructura

Google hizo open source su GKE Cluster Autoscaler. Pero espera — antes de asumir que es “lo mismo de siempre”: no. Kubernetes ya tiene un Cluster Autoscaler nativo del proyecto. El de Google es distinto. Es más maduro, más capaz, y resuelve problemas específicos del GKE. Al hacerlo open source, Google está apostando a que la comunidad lo adopte como referencia.

¿Qué es el GKE Cluster Autoscaler exactamente? Es el componente que escucha cuándo pods no encajan en los nodos disponibles (status “Pending”) y automáticamente pide nodos nuevos al proveedor de cloud. Es tan simple como eso, pero la ejecución es brutal: tiene que entender topologías de máquinas, pricing, zonas de disponibilidad, node pools distintos, y todo sin desestabilizar cargas que ya están corriendo.

El movimiento estratégico de Google es crear una “plataforma vendor-neutral” que cualquiera pueda usar y sobre la que pueda construir. Si tu cluster Kubernetes corre en GKE, en AKS de Azure, en EKS de AWS o on-premise, el autoscaler tiene la misma lógica de base. Eso permite que herramientas de terceros (proveedores de monitoreo, plataformas de IA, integradores) dependan de un comportamiento predecible sin estar atados a Google.

Google publicó más detalles en su blog oficial destacando que otros proveedores y proyectos open source ahora pueden adoptar la misma lógica de autoescalado sin reinventar la rueda. Para infraestructura, eso es crítico: menos fragmentación, menos bugs duplicados, más velocidad en iteración.

Driver DRA para TPUs: portabilidad real de cargas de IA en Kubernetes

Este es el anuncio que cambia las reglas del juego para quien despliega IA en Kubernetes. DRA significa Dynamic Resource Allocation, una solución estándar de la industria que permite describir hardware especializado (GPUs, TPUs, NPUs) sin exponer detalles de bajo nivel a los schedulers de Kubernetes. Cubrimos ese tema en detalle en como explicamos en nuestra guía sobre cloud-hosting.

Hasta ahora, si querías usar TPUs en Kubernetes, tenías que escribir YAML con configuración específica de Google. Los pods estaban acoplados a TPU. Si querías cambiar de proveedor o correr el mismo workload en GPUs de NVIDIA, tenías que reescribir el manifiesto. DRA soluciona eso: describís “necesito un acelerador” y el sistema encuentra cuál está disponible (TPU, GPU, o lo que sea) que cumple los requisitos.

Google liberó su driver DRA para TPUs. Colaboró con NVIDIA en el diseño e implementación, así que el driver no es solo para TPUs — sienta las bases para que otros aceleradores (GPUs NVIDIA, AMD, Intel) tengan drivers DRA compatibles. La CNCF formalizó estos estándares en su anuncio oficial.

Un caso concreto del impacto: en GKE, podés tener un node pool de TPU con machine type ct5lp-hightpu-4t y topología 16×16, equivalente a 64 nodos. El autoscaler escala atómicamente desde 0 a 64 TPUs cuando llegan cargas de IA. Con DRA, ese mismo workload podría correr en Azure Kubernetes Service con GPUs NVIDIA sin cambiar el YAML. Eso es portabilidad real.

Microsoft anunció DRA a GA (disponibilidad general) con soporte RDMA en Azure Kubernetes Service. Para quien corre Kubernetes on-premise, NVIDIA donó el GPU DRA driver a la CNCF, así que ahora hay soporte end-to-end para GPUs en OSS Kubernetes también.

CNCF AI Conformance: la certificación que garantiza portabilidad entre plataformas IA

Google lanzó el programa CNCF Kubernetes AI Conformance junto a la comunidad. No es una certificación de seguridad ni de performance; es de compatibilidad. Qué significa: si tu modelo o herramienta de IA está optimizado para una plataforma certificada (GKE, AKS, on-premise con Kubernetes), debería funcionar sin cambios en otra plataforma certificada.

GKE fue la primera plataforma certificada AI-conformant. Azure Kubernetes Service y otros proveedores están en proceso de certificarse. El programa valida que el soporte de aceleradores (TPUs, GPUs), schedulers, y APIs de networking funcione de forma compatible para cargas de IA.

Aclaración importante: NO es una certificación de precio, latencia o costo. Una imagen de cargas de IA puede correr en plataformas certificadas, pero el performance y el precio varían. Lo que garantiza es compatibilidad: tu vLLM, tu modelo Hugging Face fine-tuned, tu pipeline de RAG con Ray — debería tener muy pocas fricciones al cambiar de plataforma.

En la práctica, eso significa que los equipos ya no están tan atados a un proveedor. Si Google sube los precios de TPU o hay indisponibilidad, podés probar en Azure sin tener que refactorizar toda la inferencia. Para empresas que corren IA en Kubernetes, eso reduce riesgo operacional. Tema relacionado: si estás considerando migrar a hosting cloud.

Google también menciona que vLLM (la herramienta más popular para servir LLMs en Kubernetes) fue actualizado para soportar TPUs e intercambiar entre TPU, GPU o ejecución híbrida. Eso acelera la adopción de DRA porque la herramienta más usada por la comunidad ya está lista.

TPUs en Ray, Ironwood y el nuevo stack de IA en Kubernetes

Ray (el framework de distributed computing más usado para IA en Kubernetes) agregó soporte nativo para TPUs en su versión 2.55. Anyscale (la empresa detrás de Ray) y Google colaboraron en esto. La implicancia es que si estás usando Ray para training distribuido, ajuste de hiperparámetros o inferencia escalada, ahora podés usar TPUs sin acoplamiento a Google Cloud — Ray abstrae los detalles.

Ray History Server es otra novedad: permite debuggear RayJobs incluso después de que terminaron o fueron terminados. Eso es útil para troubleshooting de training fallido. Ray History Server usa KubeRay (la distribución de Ray para Kubernetes) para persistir logs, estado y métricas, así que no desaparecen cuando se mata el pod.

Google puso online sus TPU Ironwood para clientes cloud. Ironwood es la generación más nueva de TPU con mejoras en ancho de banda de memoria y latencia. Que estén disponibles en GKE significa que quien quiera experimentar con Ironwood en Kubernetes ya puede hacerlo sin esperar custom hardware.

Microsoft presentó AI Runway: una nueva API de Kubernetes para cargas de inferencia. Incluye descubrimiento automático de modelos desde Hugging Face Hub, indicadores de memoria GPU requerida, y estimaciones de costo. No es un producto Google, pero muestra que el ecosistema está convergiendo en abstracciones comunes para IA en Kubernetes.

El ecosistema más allá de Google: Microsoft, NVIDIA y nuevos proyectos CNCF

Google no fue la única empresa con grandes anuncios en KubeCon. Microsoft llevó una agenda igual de ambiciosa: publicó Workload Aware Scheduling para Kubernetes 1.36, una feature que mejora cómo el scheduler coloca pods teniendo en cuenta patrones de carga reales (CPU spiky, memoria flat, I/O intenso). Incluye soporte para KubeRay, así que los jobs de Ray distribuido ahora se planifican más inteligentemente.

Microsoft también anunció DRA a disponibilidad general (era preview antes) con soporte RDMA en Azure Kubernetes Service. RDMA (Remote Direct Memory Access) es crítico para training distribuido porque reduce latencia entre nodos — fundamental si estás entrenando LLMs enormes. Que Microsoft lo haya integrado en AKS significa que el stack end-to-end para training distribuido en Azure es ahora sólido.

HolmesGPT es un nuevo proyecto que Microsoft lanzó como CNCF Sandbox. Es un agente de troubleshooting para Kubernetes que usa IA para diagnosticar problemas. Si un pod falla, HolmesGPT analiza logs, eventos del cluster, métricas, y sugiere qué puede estar mal. Para operadores de Kubernetes, eso es crítico en términos de MTTR (Mean Time To Recovery). Esto se conecta con lo que analizamos en como vimos en la anterior edición de KubeCon.

Dalec (Declarative Application Landscapes Enabling Container) es otro proyecto de Microsoft — especificaciones declarativas para paquetes de software. Permite que tengas un archivo YAML que describe no solo tu aplicación Kubernetes, sino sus dependencias de sistema, configuración, y cómo se construye. Es una solución menos sexy que HolmesGPT pero probablemente más útil para equipos que mantienen infraestructura compleja.

NVIDIA donó el GPU DRA driver a la CNCF. Eso fue un movimiento importante: significa que el soporte de GPUs en Kubernetes open source ahora es de calidad empresarial, no experimental. Canonical (la empresa detrás de Ubuntu) también estuvo presente con integraciones de Kubernetes. La convergencia es clara: múltiples vendors en DRA como estándar, no solo Google siendo propietario.

La comunidad cloud-native llega a 19,9 millones de desarrolladores

El reporte conjunto de CNCF y SlashData publicado el 24 de marzo muestra que la comunidad cloud-native alcanzó 19,9 millones de desarrolladores. Eso es el 39% de los desarrolladores del mundo. Comparado con el Q3 2025 (15,6 millones), representa un crecimiento del 28% en menos de un año.

De esos 19,9 millones, 7,3 millones son desarrolladores de IA. Ese número es enorme — equivale a la población de Buenos Aires entera siendo desarrolladores de IA. Muestra que la convergencia de Kubernetes + IA no es un trend, es la realidad actual del desarrollo.

El 52% de los desarrolladores backend ahora es cloud-native (sube desde 49% en Q1 2025). El 88% de backend developers usa alguna forma de estandarización de infraestructura (containers, orquestación, infraestructura como código). Eso indica que las prácticas cloud-native se consolidaron: no son experimentales, son el default.

La adopción se expande más allá del desarrollo web tradicional: gaming e IoT industrial son nuevos mercados donde cloud-native (principalmente Kubernetes) está ganando terreno. Para quien corre infraestructura, eso significa que las skills en Kubernetes no van a desaparecer. Si algo, van a ser más buscadas.

Antes y después de KubeCon 2026: qué cambió para IA en Kubernetes

Los anuncios de KubeCon no son solo incremental tweaks. Representan un shift en cómo el ecosistema aborda IA en Kubernetes. Miralo en esta tabla:

AspectoAntes de KubeCon 2026Post-KubeCon 2026
Autoscalado de infraestructuraCluster Autoscaler nativo de Kubernetes (básico), variantes propietarias de cada proveedor (GKE, AKS)GKE Autoscaler open source como referencia; comunidad converge en un solo modelo
Soporte de aceleradores (TPU, GPU)Device plugins propietarios; acoplamiento a proveedor (TPU solo en GKE, GPU solo en AKS/AWS)DRA como estándar; portabilidad entre proveedores certificados
Portabilidad de cargas IAModelos y tools acoplados a infraestructura; migración = reescrituraCNCF AI Conformance certifica compatibilidad; mismo YAML corre en GKE, AKS, on-premise
GPU/TPU en training distribuidoRay sin soporte native TPU; workarounds propietarios para RDMARay 2.55 con TPUs nativo; AKS soporte RDMA a GA; training distribuido end-to-end
Scheduling de cargas IAScheduler genérico; sin awareness de patrones de IA (spiky CPU, memory flat, GPU sharing)Workload Aware Scheduling en K8s 1.36; Microsoft integra KubeRay awareness
Inferencia multiCloudHerramientas propietarias por proveedor; elegir GPU vs TPU = bound a un vendorAI Runway (Microsoft) descubre modelos HF, estima costo, abstrae acelerador; vLLM soporta TPU/GPU/híbrido
Debugging de training fallidoLogs desaparecen cuando muere el pod; debugging = análisis manual de stdoutRay History Server persiste logs y estado; HolmesGPT (CNCF Sandbox) diagnóstico automático
Soporte GPU en OSS KubernetesExperimental; GPU device plugin sin DRANVIDIA dona GPU DRA driver a CNCF; OSS Kubernetes soporte empresarial
kubecon 2026 google kubernetes diagrama explicativo

La tendencia es clara: antes, cada proveedor tenía su pila propietaria. Ahora, la comunidad está convergiendo en estándares abiertos (DRA, AI Conformance, KubeRay). Eso reduce fragmentación y hace que los equipos sean menos rehenes de un vendor. Sobre eso hablamos en en el portafolio de aceleradores de Google.

Esto se cruza directamente con KubeCon 2026: Google libera como open source el Autoscaler d, donde analizamos la jugada open source de Google.

Si querés entender mejor cómo los grandes jugadores abren su infraestructura, podés profundizar en KubeCon 2026: Google libera como open source el Autoscaler d.

Si querés profundizar en esto, tenemos un análisis en KubeCon 2026: Google libera como open source el Autoscaler d.

Profundizamos esto en nuestro artículo KubeCon 2026: Google libera como open source el Autoscaler d.

Lo profundizamos en KubeCon 2026: Google libera como open source el Autoscaler d, si querés seguir leyendo.

Podés leer más detalles en KubeCon 2026: Google libera como open source el Autoscaler d.

Podés conocer más detalles en KubeCon 2026: Google libera como open source el Autoscaler d.

Si profundizás en esto, tenemos un artículo relacionado sobre KubeCon 2026: Google libera como open source el Autoscaler d.

Preguntas frecuentes: KubeCon 2026 y IA en Kubernetes

¿Qué es el GKE Cluster Autoscaler y por qué Google lo hizo open source?

El GKE Cluster Autoscaler es el componente que automáticamente solicita nodos nuevos a Google Cloud cuando hay pods en estado Pending (sin espacio para correr). Entiende topologías de máquinas, pricing, zonas de disponibilidad y node pools. Google lo abrió como open source para crear un estándar vendor-neutral que otros proveedores y el ecosistema OSS puedan usar y mejorar colaborativamente, reduciendo fragmentación en el mercado de Kubernetes.

¿Qué es DRA (Dynamic Resource Allocation) y por qué importa para IA?

DRA es un estándar que permite describir hardware especializado (TPU, GPU) sin acoplar los pods a un proveedor específico. Antes, si querías TPU, tu YAML estaba bound a GKE. Con DRA, describís “necesito un acelerador” y el sistema encuentra cuál disponible (TPU en Google Cloud, GPU en Azure, lo que sea) que cumpla requisitos. Importa porque hace que cargas de IA sean portables entre plataformas certificadas, reduciendo lock-in de vendor.

¿Qué es CNCF AI Conformance y para qué sirve?

Es una certificación de compatibilidad (no de seguridad ni performance) que garantiza que un modelo o herramienta de IA funcione sin cambios entre plataformas certificadas. GKE fue la primera plataforma certificada. Significa que tu vLLM, tu modelo Hugging Face, tu pipeline RAG puede correr en GKE, AKS o Kubernetes on-premise sin reescribir YAML, siempre que ambos entornos estén certificados.

¿Cuántos desarrolladores tiene la comunidad cloud-native en 2026?

19,9 millones (39% del total mundial) según el reporte CNCF + SlashData de marzo 2026. De esos, 7,3 millones son desarrolladores de IA. Representa un crecimiento del 28% desde Q3 2025 (15,6M), mostrando que cloud-native + IA es la tendencia dominante del desarrollo actual.

¿Cuál es el “AI execution gap” que mencionan en KubeCon?

Es la brecha entre adopción de Kubernetes (82% de equipos infraestructura) y despliegue de IA en Kubernetes (solo 7% lo hace a diario). La mayoría sabe correr Kubernetes, pero todavía falta madurez, herramientas y estándares para IA. Todos los anuncios de KubeCon 2026 van dirigidos a cerrar esa brecha: DRA, AI Conformance, Ray TPU support, Workload Aware Scheduling.

Conclusión: KubeCon 2026 marca el turning point de IA en Kubernetes

KubeCon + CloudNativeCon Europe 2026 no fue un evento de anuncios incrementales. Fue el punto donde el ecosistema aceptó colectivamente que IA en Kubernetes requiere nuevos estándares, y decidió construirlos conjuntamente en lugar de que cada vendor inventara los suyos.

Tres movimientos clave lo marcan: Google abrió Autoscaler para crear referencia común, DRA pasó de Google-only a estándar multi-vendor (Microsoft, NVIDIA, Canonical), y CNCF AI Conformance surgió como forma de garantizar portabilidad entre plataformas. Antes, correr IA en Kubernetes te hacía rehén de un proveedor. Ahora, con estándares abiertos, tenés alternativas reales.

Para infraestructura en Latinoamérica, esto importa. Si necesitás hosting confiable y escalable para proyectos con Kubernetes, Donweb ofrece opciones sólidas para el mercado regional. Pero más allá de eso: el mensaje de KubeCon es que los estándares abiertos ganaron, y eso reduce fricción técnica y mejora portabilidad.

Los números lo confirman: 19,9 millones de desarrolladores cloud-native, 7,3 millones siendo de IA. El AI execution gap existe todavía, pero por primera vez tenemos herramientas y estándares para cerrarlo. Si estás evaluando dónde correr cargas de IA en Kubernetes, este es un momento donde tenés más opciones que nunca — y menos riesgo de lock-in. Seguí de cerca el roadmap de CNCF AI Conformance en los próximos meses; las plataformas certificadas van a multiplicarse.

¿Qué es Google Project Mariner?

Project Mariner es un agente de IA desarrollado por Google que automatiza navegación y control de navegadores web. Puede realizar tareas como llenar formularios, navegar sitios y ejecutar acciones sin intervención manual.

¿Cuándo se anunció Project Mariner oficialmente?

Google anunció Project Mariner en 2026 como parte de sus iniciativas de IA avanzada. Actualmente está en desarrollo y disponibilidad limitada para partners seleccionados.

¿En qué se diferencia Project Mariner de un bot web tradicional?

A diferencia de bots que siguen reglas fijas, Project Mariner usa modelos de IA generativa para entender interfaces visuales y adaptarse a cambios dinámicos, permitiendo ejecutar tareas en sitios nuevos sin reprogramación manual.

¿Qué es Google Project Mariner?

Project Mariner es el agente de navegación de Google que puede entender y navegar la web por vos. Puede ejecutar tareas complejas en sitios sin que tengas que hacer clic en cada botón, leyendo y entendiendo el contenido como lo haría una persona.

¿Cuándo estará disponible Project Mariner?

Google anunció Project Mariner en KubeCon 2026 como parte de su reorganización de IA. Está en fase de pruebas limitadas y su disponibilidad general aún se está definiendo.

¿Cuál es la diferencia entre Project Mariner y Google Lyria?

Project Mariner es un agente que navega la web y ejecuta tareas automáticas. Lyria 3 Pro es la suite integrada de IA de Google que incluye búsqueda, análisis y generación de contenido. Mariner es el componente especializado en automatización de navegación.

Fuentes

Similar Posts