Balance ALCA 2024 + predicciones tech 2025 para empresas mexicanas
Llegamos al 25 de diciembre y, como cada fin de año, en ALCA nos sentamos a hacer balance honesto. No es un comunicado de prensa con números maquillados; es la conversación que tenemos entre socios y equipo sobre qué hicimos bien, dónde nos equivocamos y qué leemos para el año entrante. Este artículo es una versión publicable de esa conversación.
Si nos lees desde Mérida, desde alguna otra ciudad de México o desde fuera, gracias por estar aquí. Lo que sigue es el cierre tal como lo vimos.
El año en una frase
2024 fue el año en que la IA generativa pasó de demo a operación real, mientras la geopolítica y la política mexicana volvían a sacudir el tablero. Empresas que en 2023 todavía debatían si "ChatGPT iba a durar", en 2024 firmaron presupuesto recurrente para IA en producción. Y al mismo tiempo, tuvieron que reconsiderar cadena de suministro, exposición arancelaria y compliance bajo un nuevo sexenio.
Para una consultora pequeña como nosotros, eso se tradujo en demanda fuerte y heterogénea: clientes nuevos en perfiles que en 2023 ni nos llamaban (manufactura, retail tradicional, despachos legales), y conversaciones más maduras con clientes existentes.
Lo que hicimos bien
Cinco cosas en las que sentimos que sí avanzamos como equipo y como consultora:
1. Disciplina en pilotos de IA
Aprendimos que los pilotos de IA fallan más por falta de criterio de éxito claro que por problemas técnicos. Establecimos como práctica interna que ningún piloto arranca sin tres definiciones por escrito: qué métrica vamos a mover, en cuánto, en qué plazo, y bajo qué condición lo declaramos fracaso. Esa disciplina simple cambió la conversación con clientes y mejoró nuestro porcentaje de pilotos que pasan a producción.
2. IA en nuestra propia operación
Adoptamos IA en flujos internos de manera más sistemática: redacción y revisión de propuestas, generación de borradores técnicos, documentación de proyectos, soporte al equipo de desarrollo con Cursor y Claude Code. No lo medimos en titulares; lo medimos en horas reasignadas. Esas horas las pudimos dedicar a más cliente y a investigación interna.
3. Foco en empresa mediana mexicana
Nos resistimos al canto de las sirenas de proyectos que sonaban grandes pero que nos sacaban de nuestro centro. Confirmamos que nuestra cancha es la empresa mediana mexicana (50 a 500 personas, ingresos entre $50M y $1,000M MXN), donde la conversación combina estrategia, software y sentido común. Cuando te enfocas, mejoras.
4. Equipo más sólido
Sumamos perfiles que necesitábamos: ingeniería con experiencia en IA generativa, perfil de DevOps senior, y un rol nuevo de "AI engineer" que en 2023 no existía. La onboarding cambió: hoy se asume que parte del trabajo del equipo es escribir prompts, evaluar modelos y operar pipelines de inferencia.
5. Comunicación pública más constante
Empezamos el blog en serio este año (sí, esto que estás leyendo). Publicar semanalmente nos obligó a clarificar nuestras opiniones y a aterrizar lo que sabemos. Los clientes nuevos que llegan con haber leído nos llegan mejor calificados.
Donde nos equivocamos
Por honestidad, también lo otro:
1. Subestimamos esfuerzo de governance de IA
Pensamos que la conversación de IA en empresas iba a ser principalmente técnica. Es al menos 50% governance, política, riesgo y compliance. Llegamos varias veces con propuestas demasiado técnicas a comités donde el dolor era de otro orden. Aprendizaje incorporado en cómo presentamos en 2025.
2. Tardamos en migrar a Claude para tareas internas
Por inercia seguimos usando GPT-4 para tareas internas hasta el segundo trimestre, cuando para varias de esas tareas Claude 3.5 Sonnet ya rendía mejor. Tres meses de "porque ya estaba funcionando" cuestan más de lo que parecen.
3. Subestimamos el costo de mantenimiento de pilotos exitosos
Los pilotos que pasaron a producción exigieron más esfuerzo de mantenimiento del presupuestado. Modelos cambian, prompts envejecen, integraciones rompen. Operar IA en producción es más parecido a operar microservicios que a operar dashboards. Lo metimos en propuestas y contratos a partir de octubre.
4. Nos demoramos en formalizar oferta de MCP
Cuando Anthropic publicó MCP en noviembre, era obvio que iba a cambiar nuestra práctica. Tardamos semanas en consolidarlo como oferta concreta para clientes. En 2025, tratamos de tener velocidad mayor para incorporar piezas estructurales.
Aprendizajes del mercado mexicano
Tres patrones que vimos repetidos en clientes durante el año:
El "moat" del cliente mexicano es más operativo que tecnológico. En la mayoría de industrias en las que operamos, la ventaja competitiva no está en tener el algoritmo más exótico. Está en ejecutar bien lo básico: datos limpios, procesos documentados, gente capacitada, tiempos de respuesta consistentes. La IA acelera eso, no lo reemplaza.
Los presupuestos de tecnología tienen consejo más educado. Los CEOs y CFOs de empresa mediana hoy entienden mejor de lo que entendían hace dos años qué es un LLM, qué es la nube y qué es un dashboard. La conversación es de mejor calidad. También es más exigente.
La ola de nearshoring sigue, pero más selectiva. Los proyectos que vemos llegar en serio tienen criterios más estrictos: equipos cerca, sin friction de zona horaria, cumplimiento de seguridad demostrable, calidad medible. La era de "soy barato y rápido" se está acabando para LATAM tech.
Predicciones para 2025
Con honestidad y conscientes de que algunas vamos a errar:
Inteligencia Artificial
- Los agentes pasan de demo a producción real, pero solo en casos acotados con guardrails serios. La era del "agente para todo" no llega aún.
- MCP se consolida como estándar de integración y obliga a frameworks competidores a converger o publicar puente.
- El precio de inferencia para modelos de calidad GPT-4o-equivalente cae 50-70% durante el año, gracias a Trainium2/3, Nova, modelos abiertos y competencia general.
- DeepSeek y otros modelos abiertos chinos siguen comprimiendo la frontera open, lo que abarata aún más operación para casos no críticos.
- El primer caso de impacto reputacional masivo por mal uso de IA en empresa mexicana ocurre antes de septiembre 2025. Conviene tener política clara y documentada.
Cloud e infraestructura
- FinOps deja de ser tema de hyperscaler experto y pasa a ser preocupación normal de CFO, especialmente con cargas IA cuya factura no es trivial.
- Multinube se vuelve híbrido por default en empresas medianas. Bedrock para IA, GCP para datos, Azure para productividad, on-prem para legacy regulado.
- Soberanía de datos sube como tema ante percepción de mayor concentración americana de la cadena IA.
Ciberseguridad
- Ataques con IA generativa (phishing hiper-personalizado, deepfake de voz para fraude) llegan a México con volumen durante el primer semestre.
- MFA con app/llave física se vuelve mínimo no negociable en empresas medianas con cualquier proceso financiero relevante.
- Ransomware sigue atacando empresas medianas mexicanas y el costo medio de incidente sigue subiendo. Backups inmutables y plan de respuesta dejan de ser opcional.
Regulación
- INAI fuera de la foto antes del segundo trimestre, con periodo de incertidumbre operativa de 4-6 meses.
- Ajustes a CFDI 4.0 y reglas SAT continuamente; nada disruptivo, sí mantenimiento constante.
- Conversación T-MEC se calienta de cara a la revisión 2026, con presión para empresas con exposición a EE.UU.
- Marco fintech mexicano se mueve, especialmente en banca abierta y stablecoins, sin claridad sobre dirección final.
Mercado y operación
- El nearshoring tech sigue, pero con clientes más exigentes en calidad y compliance.
- Salarios de talento senior tech mexicano se mantienen al alza, presionando especialmente a empresas medianas que compiten con global.
- Adopción de Copilot M365 acelera y se vuelve estándar en empresas medianas con stack Microsoft.
Acciones recomendadas para Q1 2025
Sin saturar, cinco cosas que recomendamos a clientes para arrancar el año:
- Auditoría de deuda técnica antes de comprometer roadmap 2025 (escribimos guía sobre esto, llega en enero).
- Inventario de uso de IA y política interna documentada.
- Revisión de exposición a aranceles y cobertura cambiaria.
- Plan de transición INAI para protección de datos.
- Selección de un proceso interno para automatizar con agente real en H1.
Cierre
Para nosotros 2024 fue año de consolidación: equipo, oferta, postura pública. No fue año de hype interno; fue año de aprender a ejecutar mejor. Esa es la disciplina con la que queremos arrancar 2025.
A los clientes que confiaron este año, gracias. Al equipo que aguantó cambios y curvas de aprendizaje, gracias. A quienes nos leen sin habernos contratado todavía, gracias también: el blog se escribe para ustedes tanto como para clientes.
Mérida, navidad de 2024.
Gracias por leernos en 2024. ¿Conversamos en 2025? Aquí estamos. En ALCA seguimos disponibles para conversaciones de estrategia, software y sentido común con empresas medianas mexicanas. Agenda una llamada.