Manus: el agente autónomo chino que promete reemplazar trabajos completos (¿hype o realidad?)

Manus: el agente autónomo chino que promete reemplazar trabajos completos (¿hype o realidad?)

A inicios de marzo, una startup china llamada Butterfly Effect lanzó Manus, un agente autónomo que en sus videos promocionales hace cosas que cualquier ejecutivo agradecería: investigación competitiva profunda, análisis de datasets, redacción de propuestas comerciales, planeación de viajes complejos. La premisa: dale una tarea de alto nivel y vuelve horas después por el resultado terminado.

El video viral de lanzamiento generó más expectativas que cualquier producto de agentes de los últimos seis meses. Como con DeepSeek R1 antes, el origen chino añade una capa adicional de discusión: si la calidad es real, ¿qué pasa con los datos que le entregas?

Pasamos dos semanas probando Manus en escenarios concretos. Esto es lo que aprendimos.

Qué es Manus, técnicamente

Manus no es un modelo nuevo. Es un orquestador agentic que combina varios modelos de IA (probablemente Claude, GPT-4 y modelos chinos), un navegador headless, capacidad de ejecutar código, acceso a APIs públicas y un dashboard donde el usuario ve el progreso.

La arquitectura, hasta donde se ha podido inferir desde fuera:

  • Planificador que descompone la tarea en pasos.
  • Ejecutores especializados que realizan cada paso (browser automation, code execution, data analysis).
  • Memoria de trabajo que pasa contexto entre pasos.
  • Entregable final estructurado: documento, hoja de cálculo, presentación, código.

Distintivo respecto a Operator o Computer Use: Manus opera asíncrono. No te quedas mirando el navegador en tiempo real; le das la tarea y puedes cerrar la pestaña. Cuando termina, te avisa.

Casos que probamos: research competitivo

El primer caso que pusimos a prueba: "Investiga las 10 principales firmas de consultoría tecnológica en el sureste mexicano, sus servicios, casos públicos, equipo aproximado y posicionamiento. Entrega un comparativo en tabla."

Manus tardó alrededor de 90 minutos. El resultado:

Lo bueno: identificó correctamente 8 de 10 empresas relevantes (incluyendo dos que esperábamos), extrajo información de sus sitios web, redes sociales y notas de prensa, y entregó una tabla razonablemente bien estructurada.

Lo regular: confundió dos empresas con nombres similares, atribuyó casos de éxito a la empresa equivocada, y la información sobre tamaño de equipo era especulativa (Manus no tenía forma de validarlo, pero no lo marcó como tal).

Lo malo: no citó fuentes consistentemente. Para usar el output en una decisión real, había que verificar todo manualmente. Tiempo total ahorrado vs hacerlo desde cero: ~40%, no el 90% que prometen los videos.

Casos que probamos: análisis de dataset

Segundo caso: subimos un CSV con 12,000 transacciones simuladas de un retailer y le pedimos identificar patrones, anomalías y recomendaciones.

Manus reconoció el archivo, lo cargó en pandas, generó análisis exploratorio decente (distribuciones, correlaciones, top categorías) y entregó un documento con hallazgos. Identificó correctamente algunas anomalías obvias (devoluciones concentradas en un sucursal, picos de venta inusuales en fechas específicas).

Donde flaqueó: las "recomendaciones" eran genéricas. Cosas como "considerar campañas de retención en clientes con alta frecuencia" sin proponer cómo, ni con qué presupuesto, ni segmento específico. El nivel "consultor junior con plantilla" se notaba.

Comparado con un analista interno con contexto del negocio: Manus es más rápido pero menos útil. Útil para preparar el terreno, no para reemplazar al analista.

Casos que probamos: generación de propuestas

Tercer caso, el más interesante: "Genera una propuesta comercial para implementar un sistema de gestión de inventario en una cadena de farmacias mexicana de tamaño mediano. Incluye alcance, fases, equipo, timeline, supuestos."

Manus produjo un documento de 12 páginas en aproximadamente una hora. Estructura razonable, terminología correcta, fases lógicas. Pero: timeline poco realista (subestimó por mitad lo que tomaría en realidad), equipo subdimensionado, supuestos genéricos que cualquier consultora sénior catalogaría como "plantilla descargada de internet".

Veredicto: sirve como punto de partida (~30% del trabajo), no como entregable final. Manda mensaje equivocado si crees que vas a recortar al equipo de propuestas a la mitad.

Limitaciones reales (más allá de las técnicas)

Tres preocupaciones de fondo que vale la pena tener en cuenta:

1. Latencia y costo

Cada tarea no trivial toma entre 30 minutos y 3 horas. No es interactivo, es batch. Para flujos donde el ciclo de feedback corto importa, no funciona.

El pricing al momento de pruebas es por créditos, con costos efectivos que estimamos en $5-15 USD por tarea compleja. Para casos de alto volumen, no es barato.

2. Falta de control fino

A diferencia de un agente que tú construyes con LangGraph o CrewAI, en Manus no controlas qué herramientas usa, en qué orden, con qué límites. Es caja negra. Si quieres restringir el agente para que no acceda a ciertos sitios o no ejecute ciertos tipos de código, no es tu plataforma.

3. Datos a China

Manus está hospedado en China. Cualquier información que le subas (documentos, datos de clientes, estrategia interna) viaja a servidores chinos, sujetos a leyes locales que incluyen requisitos de acceso por parte del estado.

Para tareas de investigación pública (lo que cualquiera puede googlear), no hay riesgo material. Para datos de clientes, información financiera, estrategia competitiva, código propietario: no lo recomendamos. La ventaja productiva no compensa el riesgo de exposición.

Veredicto: para qué sirve hoy

Después de pruebas, esta es nuestra recomendación práctica:

Para qué sí sirve:

  • Research competitivo a partir de información pública.
  • Primeros borradores de documentos largos donde tú puedes editar pesado después.
  • Análisis exploratorio de datos no sensibles.
  • Tareas de investigación donde "70% bien" es suficiente como punto de partida.

Para qué no sirve:

  • Cualquier flujo con datos confidenciales o de clientes.
  • Tareas críticas donde la precisión sobre fuentes importa.
  • Procesos productivos integrados a tus sistemas (no expone APIs serias).
  • Reemplazo de analistas o consultores; complemento sí, reemplazo no.

Alternativas más prudentes

Si quieres explorar agentes autónomos pero la ruta china no te convence, hay opciones equivalentes con perfiles distintos:

  • Operator de OpenAI: mejor para tareas con navegador en sitios públicos, datos en EE.UU.
  • Anthropic Computer Use: API directa, control sobre el entorno, datos en EE.UU.
  • Agentes propios sobre LangGraph + Claude/GPT-4: máximo control, datos donde tú decidas, cuesta más esfuerzo armar pero el resultado es tuyo.
  • Devin (Cognition AI): específico para tareas de software engineering, agente autónomo más maduro en su nicho.

La lectura para 2025

Manus es el indicio de que la categoría de "agente generalista para conocimiento" ya existe. La calidad todavía no justifica reemplazos, pero la trayectoria es clara: en 12-18 meses estos agentes van a ser materialmente mejores y más rápidos.

La pregunta no es si vas a usar agentes en tu empresa; es cómo vas a aprender a integrarlos sin exponer datos críticos. La forma sana de empezar: pilotos acotados, datos no sensibles, comparación honesta con el flujo actual.


En ALCA construimos pilotos de agentes con control sobre el entorno y los datos. ¿Quieres ver una demo de agente para un caso específico? Te lo armamos sin costo.

Artículos relacionados