Meta Connect 2024: Llama 3.2 multimodal, Orion AR glasses prototype y Quest 3S
El 25 de septiembre Meta celebró Connect 2024, su evento anual de producto. Tres anuncios concentraron la atención: Llama 3.2 con dos vertientes (multimodal con visión en 11B y 90B, y modelos pequeños 1B y 3B optimizados para edge), el prototipo de las Orion AR glasses (no a la venta, demo de futuro) y Quest 3S como punto de entrada a XR a 299 dólares. Como suele ocurrir con Meta, una parte es operativa para esta semana y otra parte marca dirección para los próximos años.
Para empresas mexicanas, lo más relevante en el corto plazo es la familia Llama 3.2 (que cambia las cuentas de IA on-device y multimodal abierta) y, con visión más larga, el ecosistema XR que se vuelve más accesible. Aterricémoslo.
Llama 3.2: dos jugadas en paralelo
Meta liberó cuatro tamaños nuevos:
Modelos pequeños 1B y 3B (texto). Optimizados para correr en dispositivo (móvil, edge, IoT). Pueden vivir en un teléfono moderno o en un servidor pequeño, con consumo de memoria razonable. Calidad sorprendentemente alta para su tamaño en tareas de instrucción simple, resumen y clasificación.
Modelos multimodales 11B y 90B (visión + texto). Por primera vez Llama incluye capacidad de procesar imágenes nativa, no como add-on. El 11B es manejable en una GPU de 24GB; el 90B requiere infraestructura más seria pero está al alcance de empresas con plataforma propia.
Detalles relevantes:
- Pesos abiertos, licencia Llama Community License.
- Contexto largo (128k tokens en los multimodales).
- Disponibles en AWS Bedrock, Azure AI Foundry, Google Vertex, Together, Fireworks y otros proveedores administrados desde el día uno.
- Disponibilidad limitada en UE para los multimodales por incertidumbre regulatoria con AI Act; para empresas mexicanas no aplica esa restricción geográfica.
Qué cambia esto
Dos efectos prácticos:
IA on-device deja de ser solo Apple/Google. Con Llama 3.2 1B y 3B, cualquier empresa que desarrolla apps móviles puede integrar capacidades de IA local sin depender de SDKs propietarios. Para casos sensibles a privacidad, latencia o costo, abre opciones reales.
Multimodalidad abierta de calidad útil. Hasta hace meses, "leer una imagen con IA" en producción significaba GPT-4o o Claude 3.5 Sonnet vía API. Ahora hay alternativa abierta que se puede correr en infraestructura propia. Para extracción de datos de documentos escaneados, validación visual de procesos o análisis de imágenes médicas (con todas las salvaguardas), las cuentas cambian.
Casos donde recomendamos probarlo en Q4
- Procesamiento masivo de documentos escaneados (facturas, comprobantes, identificaciones). Llama 3.2 11B con OCR moderno puede extraer datos estructurados a costo predecible.
- Apps móviles con asistente offline (campo, logística, retail). Llama 3.2 3B en dispositivo permite respuestas sin red.
- Clasificación visual en pipelines de calidad (manufactura, agricultura). 11B en GPU dedicada puede correr inferencia continua a costo razonable.
Donde no lo recomendamos como reemplazo directo: tareas multimodales de máxima calidad (GPT-4o sigue siendo superior en muchos benchmarks) ni casos donde no tengas infraestructura para operar.
Orion: prototipo de AR glasses, no producto
Meta presentó Orion, un prototipo de lentes de realidad aumentada con pantalla holográfica, control por voz, gestos y entrada neural via pulsera EMG. No sale a la venta. Es la demo más ambiciosa que Meta ha mostrado del concepto y, según la propia empresa, es lo que esperan que sea un producto comercial dentro de algunos años.
Lo importante para empresas no es comprar lentes, es leer la dirección:
- Meta confirma su apuesta de largo plazo por AR como sucesora natural del smartphone.
- El control por gestos y EMG (la pulsera lee señales musculares en la muñeca) probablemente sea precursor de cómo interactuaremos con dispositivos en 5-10 años.
- La industria se está moviendo (Apple Vision Pro, futuras versiones de Ray-Ban Meta, anuncios de Google y Samsung en horizonte).
Para una empresa mexicana, la lectura sensata: no inviertas Capex en AR todavía, pero sí mantén un par de personas leyendo el espacio. Cuando llegue el producto comercial, los casos de uso (manufactura, mantenimiento, capacitación) se van a habilitar rápido y conviene tener al equipo familiarizado.
Quest 3S: XR enterprise se vuelve accesible
Meta anunció Quest 3S a 299 dólares, posicionándolo como el punto de entrada al ecosistema XR. Mantiene los chips y capacidades centrales del Quest 3 (passthrough a color, mixed reality), reduce algo en lentes y almacenamiento.
Para empresa, el precio cambia el cálculo de pilotos:
- Capacitación. Programas de inducción, simulación de procedimientos peligrosos (industria, salud), entrenamiento de soft skills con escenarios. Antes el costo de hardware ($500+ por unidad) frenaba flotillas grandes; a $299 se vuelve viable.
- Visualización 3D. Arquitectura, ingeniería, diseño de producto. Reuniones con modelos a escala real.
- Onboarding remoto. Para empresas con equipos distribuidos, sesiones inmersivas pueden reducir tiempo y costo vs visitas físicas.
- Pilotos de mixed reality para servicios al cliente, ventas asistidas, recorridos virtuales.
Como con Apple Intelligence, recomendamos planear pilotos serios para 2025. Q4 2024 es buen momento para definir caso de uso, métricas y el equipo que lo va a probar.
Una nota sobre Ray-Ban Meta
Las Ray-Ban Meta (lentes con cámara, audio y asistente Meta AI integrado) recibieron actualizaciones de IA y nuevas funcionalidades. Es el formato de "AI wearable" que más tracción tiene en mercado real. Para empresas con equipos de venta en campo, equipos de inspección o roles que necesitan información hands-free, valen mirada concreta.
Política BYOD y consideraciones de privacidad
Cualquier ola de hardware con cámara, micrófono y conectividad permanente a la nube añade complejidad a las políticas de empresa. Tres temas a actualizar este trimestre:
- Política de uso de wearables en oficina (qué pueden grabar, qué no, cómo se gestionan datos sensibles).
- Consentimiento informado en interacciones con clientes (especialmente en sectores regulados: banca, salud).
- Configuración de cuentas de trabajo vs personales en estos dispositivos.
No es necesario prohibir, pero sí definir reglas claras antes de que el uso se generalice y se convierta en problema.
Cómo encaja todo en la estrategia 2025
Si miramos los anuncios de los últimos 90 días en conjunto (GPT-4o mini, Llama 3.1 405B, EU AI Act en vigor, iPhone 16 + Apple Intelligence, OpenAI o1-preview, ahora Llama 3.2 + Quest 3S), el patrón es claro:
- Modelos para casi cualquier presupuesto y necesidad técnica.
- IA on-device consolidándose como capa real, no marketing.
- Multimodalidad llegando a opciones abiertas.
- XR enterprise con hardware accesible.
- Regulación empujando documentación, gobernanza y trazabilidad.
Las empresas mexicanas que arranquen 2025 con un portafolio de modelos (no monovendor), políticas de IA documentadas, pilotos de XR acotados y entendimiento de AI Act van a operar con varios cuerpos de ventaja sobre las que sigan reaccionando anuncio por anuncio.
¿Curioso de XR o IA on-device para un caso específico? Conversemos. En ALCA acompañamos diseño de pilotos, evaluación de modelos abiertos y estrategia de adopción de IA y XR. Agenda una sesión con nuestro equipo.