AWS re:Invent 2024: Trainium2/3, Amazon Nova y multi-agent Bedrock
AWS re:Invent 2024 se celebró del 2 al 6 de diciembre en Las Vegas. Después de un par de años en los que la sensación era que AWS reaccionaba a la guerra de IA generada por Microsoft-OpenAI, este año Andy Jassy y Matt Garman tomaron el escenario con anuncios sustanciales en silicio propio, modelos foundation, agentes y datos. El mensaje: AWS quiere ser plataforma de IA seria, no solo proveedor de GPUs alquiladas.
En ALCA seguimos en vivo el keynote y la documentación técnica. Aquí va el filtro para empresas medianas mexicanas: lo que importa, lo que se puede empezar a usar este Q1, y lo que vale solo monitorear.
Trainium2 GA y Trainium3 anunciado
El silicio propio de AWS para entrenamiento e inferencia de IA da el salto de promesa a producto:
- Trainium2 entra en disponibilidad general. Promete 30-40% mejor precio-rendimiento que GPUs comparables para cargas grandes. Anthropic anunció que entrena la siguiente generación de Claude en clusters Trainium2 en colaboración estrecha con AWS (Project Rainier).
- Trainium3 se anuncia para 2025: 4x el rendimiento de Trainium2, con foco en cargas de inferencia masiva.
Para una empresa mediana mexicana, esto no se traduce en acción inmediata: la mayoría seguirá consumiendo modelos via Bedrock o APIs sin pensar en silicio. La consecuencia indirecta sí importa: mayor capacidad y competencia de chips presiona los precios de inferencia hacia abajo. La economía de operar IA en producción mejora trimestre a trimestre.
Amazon Nova: familia propia de foundation models
El anuncio que más sorprendió: AWS lanza su propia familia de foundation models llamada Amazon Nova:
- Nova Micro: texto, ultra-bajo costo, baja latencia.
- Nova Lite: multimodal (texto + imagen + video), económico.
- Nova Pro: multimodal con calidad enterprise.
- Nova Premier: el más capaz, llega 2025.
- Nova Canvas: generación de imagen.
- Nova Reel: generación de video corto.
Los precios anunciados son agresivos vs Anthropic, OpenAI y Google. Por ejemplo, Nova Micro en orden de magnitud está alineado con GPT-4o mini y Haiku, con buena calidad para tareas de extracción, clasificación y resúmenes.
Lectura honesta: AWS no busca tener el mejor modelo del mundo; busca tener un modelo "suficientemente bueno y muy barato" para empresas que ya viven en su nube. La estrategia se parece a lo que hicieron con DynamoDB vs MongoDB: integración profunda, precio razonable, calidad de producción suficiente para 80% de los casos.
Para empresa mexicana con cargas en AWS: vale la pena correr benchmark de Nova vs Claude/GPT en tareas reales antes de meter cualquier carga nueva en Bedrock. La diferencia de costo puede ser sustancial.
Bedrock multi-agent collaboration
Bedrock multi-agent collaboration entra como capacidad de la plataforma: un agente "supervisor" coordina agentes especializados, cada uno con sus tools y contexto. Esto resuelve un problema real que vimos en muchos pilotos durante 2024: cuando un solo agente intenta hacer demasiado, su razonamiento se degrada.
Casos donde lo vemos aplicable:
- Investigación de mercado: agente supervisor coordina un agente de scraping web, uno de análisis financiero, uno de redacción.
- Atención cliente compleja: supervisor decide si escalar a agente de facturación, de logística o de devoluciones, cada uno con sus tools.
- Procesamiento de documentos: supervisor llama a OCR, extracción, validación contra master data, generación de salida.
Multi-agent suena seductor pero agrega complejidad operativa: más latencia, más costos, más superficies de error. Recomendación: empezar con un solo agente bien diseñado y solo subir a multi-agente cuando el caso lo demande de verdad.
S3 Tables: Iceberg como ciudadano de primera
Para equipos de datos, el anuncio sólido es S3 Tables: soporte nativo a tablas Apache Iceberg sobre S3, con compaction y mantenimiento automatizados por AWS. Promete reducir TCO de data lakes con Iceberg en orden 3x vs gestionar Iceberg uno mismo.
Implicación para empresas mexicanas con data lake en S3: vale la pena evaluar migración. Iceberg es el formato de tabla open-source que Snowflake, Databricks y la mayoría de motores modernos soportan. Tener tablas en formato abierto reduce lock-in y simplifica integración con múltiples motores.
Aurora DSQL: Postgres distribuido global
Amazon Aurora DSQL: base de datos relacional Postgres-compatible, con consistencia fuerte y distribución multi-región activa-activa. Compite directamente con CockroachDB, Spanner y YugabyteDB.
Para empresas medianas mexicanas, esto probablemente no sea decisión de Q1 2025: Aurora DSQL apunta a casos donde la latencia inter-región y la disponibilidad multi-región son requisito absoluto. La mayoría de cargas mexicanas viven cómodamente en Aurora regional o RDS Postgres.
Si su empresa opera con clientes en EE.UU. y México con requerimiento de baja latencia desde ambos países, vale la pena evaluar.
Q in QuickSight y Q Developer
Amazon Q sigue expandiéndose:
- Q in QuickSight: scenarios, dashboard generation y data Q&A en lenguaje natural sobre dashboards. Para empresas con QuickSight ya operando, capa adicional sin gran costo.
- Q Developer: capacidades nuevas como migración de mainframe a la nube, transformación de código .NET, agentes para resolución de incidentes.
Q Developer va madurando y compitiendo con GitHub Copilot. Para empresas con stack AWS y workflows de desarrollo en VS Code o IDEs JetBrains, vale la pena evaluar.
Top 5 anuncios accionables para empresa mediana mexicana
Si me obligan a recortar a 5:
- Benchmark Amazon Nova vs el modelo que usen hoy en sus tareas reales. La diferencia de costo puede justificar migración para cargas no críticas.
- Activar S3 Tables para nuevas tablas en data lake; planear migración progresiva si están en formato propietario.
- Probar multi-agent en Bedrock con un caso acotado donde un solo agente no rinde bien.
- Revisar arquitectura de costos de inferencia: con Trainium2 GA, los precios van a bajar; los contratos largos sin cláusula de revisión son los que quedan caros.
- Activar Q en QuickSight si ya lo usan. Mejora directa de productividad analítica con costo marginal.
Lo que dejamos pasar
Hubo otros 200 anuncios. Para empresa mediana mexicana, en perspectiva, no son prioridad inmediata:
- Project Rainier (cluster gigante de Trainium para Anthropic): impactante pero no afecta operación corriente.
- AWS Outposts servers nuevos: nicho.
- SageMaker AI mucho más integrado con Bedrock: importante para teams ML sofisticados, no para mayoría.
- Servicios verticales (Logistics, Storefront, etc.): hype hasta ver casos reales en LATAM.
Tres cosas que conviene asumir mirando 2025
Después de Ignite + re:Invent + DevDay + lo que viene de Anthropic y Google, tres ejes que para nosotros se vuelven fundamentos:
- El precio de inferencia de modelos buenos sigue cayendo entre 30 y 70% al año. Cualquier business case de IA debe asumirlo y diseñar para aprovecharlo.
- Las plataformas (Bedrock, Foundry, Vertex) son la nueva conversación, no los modelos individuales. La elección de plataforma define gobierno, observabilidad e integración.
- Los agentes pasan de demo a producción este 2025, pero solo en casos acotados, con guardrails serios y métricas claras. Quien intente "agente para todo" se estrella.
Re:Invent 2024 confirma que AWS está plenamente en la pelea. Para empresas mexicanas con stack AWS, hay decisiones útiles que se pueden empezar a tomar este mes.
¿Quieres aterrizar lo nuevo de Bedrock o Nova en tu empresa? Conversemos. En ALCA construimos pilotos de Bedrock multi-agente, evaluación Nova vs alternativas y arquitecturas de Iceberg sobre S3. Agenda una llamada.