Microsoft Build 2023: Copilot Stack, plugins compartidos con OpenAI y Microsoft Fabric
Microsoft Build, su conferencia anual para desarrolladores, arrancó ayer 23 de mayo y corre hasta el 25. La línea narrativa fue la más coherente que la empresa ha tenido en años: Microsoft se está posicionando como la plataforma de referencia para construir, desplegar y operar IA generativa en empresa. Tres anuncios destacan por encima del resto y son los que merecen análisis para una empresa mediana con stack Microsoft.
El primero es el Copilot Stack como arquitectura de referencia para construir asistentes inteligentes. El segundo es la compatibilidad de plugins entre los productos Copilot de Microsoft y los plugins de OpenAI, que efectivamente unifica un ecosistema. El tercero, y quizá el más estructural, es Microsoft Fabric, una nueva plataforma de datos que consolida varios productos previos en una sola experiencia.
Copilot Stack: la arquitectura que Microsoft propone
Microsoft formalizó lo que llamó Copilot Stack, una arquitectura de referencia con tres capas para construir cualquier asistente con IA generativa.
- Capa de modelo de fundación. Modelos como GPT-4 vía Azure OpenAI Service, o modelos open source que la empresa decida traer.
- Capa de orquestación. Donde viven los plugins, la lógica de razonamiento, la memoria, la búsqueda sobre datos propios (RAG) y los guardrails de seguridad. Aquí entran herramientas como Semantic Kernel y Prompt Flow.
- Capa de experiencia. Donde se materializa el asistente para el usuario final, ya sea dentro de un producto Microsoft (Microsoft 365 Copilot, GitHub Copilot, Windows Copilot) o en una aplicación construida por la empresa.
Para equipos técnicos, esta capa de orquestación es donde se va a jugar la diferenciación durante 2023 y 2024. Microsoft está empujando Semantic Kernel como su framework de orquestación, comparable conceptualmente a LangChain o LlamaIndex, con la ventaja de integración nativa con el resto del ecosistema.
Plugins compartidos OpenAI y Microsoft
El movimiento de plugins fue probablemente el de mayor implicación estratégica. Microsoft anunció que los plugins desarrollados para ChatGPT van a funcionar también en Bing Chat, en Microsoft 365 Copilot y en Windows Copilot. Y viceversa.
En la práctica, esto significa que un equipo que invierte en construir un plugin para integrar su sistema interno con un asistente, lo hace una sola vez y queda disponible en todos los puntos de contacto del ecosistema. Para empresas medianas, esto baja considerablemente el costo de adopción de IA generativa con datos propios y reduce el riesgo de apostar a un punto de contacto específico que después pierda tracción.
Algunos plugins iniciales incluyen integraciones con servicios como Atlassian, Adobe, Khan Academy, Kayak, OpenTable. La invitación implícita a empresas con sistemas internos relevantes es desarrollar su propio plugin para que sus colaboradores y, eventualmente, sus clientes los usen desde la interfaz de chat de su preferencia.
Windows Copilot
Microsoft anunció Windows Copilot, integrado nativamente en Windows 11 a partir de junio en preview. Es un panel lateral con asistente que puede actuar sobre el sistema operativo: cambiar configuraciones, lanzar aplicaciones, resumir contenido en pantalla, asistir en tareas comunes.
Para una empresa mediana, lo importante no es la novedad del feature sino lo que implica para política de equipos. En los próximos meses, los colaboradores con Windows 11 actualizado van a tener un asistente de IA en cada laptop. Si la empresa no ha definido qué tipo de información se puede compartir con asistentes externos, ese vacío se va a llenar con prácticas individuales improvisadas.
Microsoft Fabric: la apuesta seria por datos
El anuncio menos llamativo en titulares pero potencialmente más estructural fue Microsoft Fabric. Es la consolidación, en una sola plataforma SaaS, de capacidades que antes vivían en productos separados: Synapse Analytics, Power BI, Data Factory, Data Activator, lakehouse con Delta. Todo respaldado por un único lago de datos llamado OneLake.
La promesa es una experiencia donde un equipo de datos no tiene que armar y mantener pipelines complejos entre cinco productos distintos para llegar de ingestion a reporte. Los profesionales de ingeniería de datos, ciencia de datos, BI y operación trabajan sobre el mismo almacén lógico con sus herramientas preferidas.
Para empresas medianas que tienen el problema clásico de "los datos viven en siete lugares y reconciliar tres reportes toma tres días", Fabric ofrece un camino simplificado, especialmente si ya están en el ecosistema Microsoft. Está en preview público desde el día del anuncio y la facturación general se espera más adelante en el año.
Azure AI Studio
Microsoft también presentó Azure AI Studio, un entorno unificado para construir, evaluar, afinar y operar aplicaciones de IA generativa sobre Azure. Compite directamente con Vertex AI Generative AI Studio que Google anunció en su I/O hace dos semanas y con la oferta de Bedrock que Amazon está madurando.
La diferencia que Microsoft enfatizó: integración nativa con el resto del ecosistema (Azure OpenAI, Azure ML, Cognitive Services), evaluación de modelos contra datasets propios y supervisión continua del comportamiento del modelo en producción.
Qué hacer en tu empresa después de Build
Para una empresa mediana mexicana con stack Microsoft significativo, recomendamos cinco acciones en los próximos 60 días.
Definir política de uso de Copilot. Antes de que Windows Copilot y Microsoft 365 Copilot lleguen a manos de todos, tener escrita la política básica de qué se puede y qué no se puede hacer con asistentes integrados.
Identificar dos o tres casos para construir plugin propio. Si tienes un sistema interno (CRM propio, ERP, sistema operativo del negocio) cuyo acceso desde un asistente daría valor real, evaluar el esfuerzo de construir un plugin. La inversión se amortiza en múltiples puntos de contacto.
Evaluar Microsoft Fabric en preview. Si tu plataforma de datos está fragmentada, vale la pena un piloto en Fabric durante el verano para entender qué tan real es la consolidación prometida y cuánto trabajo de migración representaría.
Empezar con Semantic Kernel. Para equipos técnicos que estén explorando construir asistentes propios, Semantic Kernel ofrece curva de aprendizaje razonable y se integra bien con Azure OpenAI y los plugins.
Auditar capacidad de Azure OpenAI. El acceso a GPT-4 vía Azure OpenAI sigue requiriendo solicitud de cupo. Adelantar la solicitud para los casos que se vienen es prudente.
Lo que se confirma de la jugada Microsoft
Después de Build, queda claro que la apuesta de Microsoft no es vender un producto de IA, es vender una plataforma completa donde la IA es la nueva capa transversal. Y esa apuesta tiene sentido financiero: el cliente que adopta Copilot, Fabric y Azure AI Studio queda profundamente integrado en el ecosistema con costos altos de migración.
Para una empresa mediana, eso significa que la decisión de plataforma de IA no es una decisión técnica aislada, es una decisión que va a marcar arquitectura, costos y proveedor por los próximos cinco años. Vale la pena tomarla con tiempo, criterio y comparativa real, no por inercia ni por urgencia.
¿Quieres definir tu plan post-Build? Te lo armamos. En ALCA hacemos un assessment de cuatro semanas que entrega roadmap de adopción Microsoft 365 Copilot, plugins propios y Fabric, con números, fechas y riesgos. Agenda una llamada y arrancamos.