Google Cloud Next 2024: chip Axion (ARM), TPU v5p y Gemini en Workspace
Esta semana terminó Google Cloud Next 2024 en Las Vegas (9-11 de abril) y, a diferencia de eventos pasados donde el ruido superaba al contenido, esta edición trajo varios anuncios con peso real para empresas medianas. Los tres más importantes: el chip Axion (la primera CPU ARM custom de Google), la disponibilidad general de TPU v5p y la integración profunda de Gemini en Workspace.
Filtramos lo que vimos durante los tres días y abajo dejamos lo que recomendamos evaluar este Q2 si tu empresa ya está en Google Cloud o lo está considerando.
Axion: Google entra al juego ARM en serio
Hasta esta semana, AWS tenía prácticamente solo el mercado de CPU ARM custom en cloud con su familia Graviton (ya en cuarta generación). Google anunció Axion, su propio diseño basado en cores Neoverse V2 de Arm, prometiendo hasta 30% mejor rendimiento que las VMs ARM existentes de propósito general y 50% mejor eficiencia energética que instancias x86 comparables.
Lo que esto significa en operación: si corres cargas que ya están portadas a ARM (mucho del stack moderno de Java, Go, Python, Node) o que toleran recompilación, Axion abre la puerta a recortes de 20% a 40% en el bill de cómputo. Los precios oficiales aún no están publicados al cierre del evento, pero la expectativa es agresiva para competir con Graviton4.
El timing importa. Las cargas que más se benefician son web servers, microservicios stateless, workers de procesamiento batch y bases de datos open-source (PostgreSQL, MySQL, Redis). Las que no son candidatas: cualquier cosa con dependencias compiladas a x86 sin alternativa ARM, software empresarial legacy con licencias atadas a arquitectura, y cargas de IA que ya están en GPU o TPU.
Nuestra recomendación práctica para Q2: identificar 2 o 3 servicios candidatos en staging, recompilar y correr pruebas de carga comparativas. La migración real a Axion conviene esperarla a que estén GA y tengan SLA productivo, probablemente segunda mitad del año.
TPU v5p en GA: el chip diseñado para entrenar modelos de frontera
Google anunció disponibilidad general de TPU v5p, su acelerador de quinta generación pensado específicamente para entrenamiento de modelos grandes. Las especificaciones que importan: 8,960 chips por pod, casi 4x el rendimiento del TPU v4 para entrenamiento de LLMs, y bandwidth de interconexión que escala mejor que clusters GPU equivalentes.
Para la mayoría de empresas mexicanas, esto no aplica directamente. TPU v5p tiene sentido para entrenar modelos propios de frontera, no para inferencia. Si tu caso es consumir modelos vía API (Gemini, OpenAI, Claude) o correr modelos open-weights medianos, esto es ruido.
Donde sí importa: si tu empresa entrena modelos propios (algunas fintechs, plataformas de data science maduras, equipos de research), TPU v5p compite directamente con clusters H100 de NVIDIA con una propuesta de precio agresiva. Vale pedir cotización si estás considerando entrenar algo serio.
Más interesante para más empresas es el anuncio paralelo de Vertex AI Agent Builder, una plataforma para armar agentes con búsqueda, function calling y conexión a fuentes empresariales. Está en preview y simplifica lo que hoy hacemos con LangChain o construcciones manuales sobre la API de Gemini.
Gemini en Workspace: la apuesta para productividad de oficina
El anuncio con más impacto inmediato para usuarios finales es la integración de Gemini en toda la suite Workspace: Gmail, Docs, Sheets, Slides, Meet y Drive. No es novedad absoluta (existía Duet AI desde 2023, ahora rebrand y mejorado), pero la integración es notablemente más profunda y los modelos detrás son Gemini 1.5 Pro con contexto de 1 millón de tokens.
Casos concretos que ya funcionan en producción:
- Gmail: redacción asistida, resúmenes de hilos largos, respuestas inteligentes con contexto de la conversación completa.
- Docs: generación de borradores a partir de prompts, refinamiento de tono, traducción contextual.
- Sheets: generación de tablas estructuradas desde descripciones en lenguaje natural, análisis con preguntas en español sobre datos cargados.
- Meet: transcripción automática, resumen de la reunión, captura de acuerdos y siguientes pasos.
Pricing actual: el add-on Gemini for Workspace cuesta $20 USD por usuario al mes (Business) y $30 USD (Enterprise), encima de la licencia base. No es trivial: para una empresa de 100 personas hablamos de $24,000 USD al año adicionales en la versión Business.
Cómo estructurar la adopción Gemini Workspace en una empresa mediana
Lo que recomendamos en ALCA es no rolarlo a toda la empresa de golpe. El patrón que funciona:
Fase 1 (mes 1): licencias para 10 a 15 usuarios pilotos en áreas que escriben mucho (marketing, ventas, legal, RH). Medir con honestidad: ¿están guardando tiempo real? ¿qué casos están funcionando? ¿qué casos no?
Fase 2 (mes 2-3): expandir a equipos donde el piloto mostró ROI claro. Capacitación práctica de 90 minutos por usuario nuevo: cómo escribir buenos prompts, cómo verificar outputs, qué información sensible no meter.
Fase 3 (mes 4 en adelante): decisión informada de rollout completo o segmentado. Algunas empresas se quedan con una mezcla: Gemini Business para todos en Gmail/Docs, Enterprise solo para áreas de mayor uso.
El error que vemos: comprar 200 licencias el día 1, tener 30% de uso a los 3 meses y dolor para justificar la renovación.
Otros anuncios que vale conocer
- Imagen 2 llegó como parte de Vertex AI con generación de imagen mejorada y soporte para texto en imágenes (algo que DALL-E 3 hacía mejor que Imagen 1).
- NVIDIA Blackwell en Google Cloud será disponible más adelante en el año, posicionando GCP al nivel de AWS y Azure para cargas IA premium.
- Gemini Code Assist sustituye a Duet AI para Developers, con contexto de código de tu repo y soporte para múltiples IDEs.
- BigQuery con DataFrames y embeddings nativos para hacer pipelines de ML sin sacar datos de la warehouse.
Lectura para el resto del año
Google Cloud cerró Next con un mensaje claro: están consolidando una propuesta full-stack (silicio propio, modelos propios, productividad propia) que ya no depende de NVIDIA ni de OpenAI. Para empresas mexicanas que dudaban entre AWS y GCP, el balance se nivela más este año.
La adopción real, sin embargo, no se mueve por anuncios sino por costos comparativos, equipo disponible y casos concretos. Si ya estás en Google Cloud, los movimientos accionables a 90 días son: piloto Gemini Workspace en un equipo, evaluar Axion para un servicio candidato, y revisar Vertex AI Agent Builder si estás armando un asistente interno.
Si estás en AWS o Azure, no hay urgencia de cambiar. Pero vale conocer la oferta para no quedar amarrado por inercia a un solo proveedor.
¿Quieres aterrizar Gemini en tu Workspace? Te ayudamos. Solicita una sesión de evaluación y diseñamos el piloto con tu equipo.