OpenAI DevDay 2023: GPT-4 Turbo (128k), GPTs personalizados y Assistants API

OpenAI DevDay 2023: GPT-4 Turbo (128k), GPTs personalizados y Assistants API

El lunes 6 de noviembre, OpenAI realizó en San Francisco su primera DevDay. Fue uno de esos eventos donde casi cada anuncio tiene impacto técnico real para equipos que ya están construyendo con IA. Para empresas mexicanas que hoy operan integraciones con GPT-4, la mayoría de los cambios son inmediatos y conviene revisarlos sin esperar al cierre de año.

Aquí va el resumen práctico, ordenado por lo que mueve la aguja en operación: qué cambia hoy, qué cambia el costo y qué cambia la forma de construir.

GPT-4 Turbo: 128k de contexto y precios a la mitad

El anuncio principal es GPT-4 Turbo, una nueva generación con tres mejoras concretas:

  • Ventana de contexto de 128,000 tokens. Equivale, aproximadamente, a 300 páginas de texto en una sola conversación. Suficiente para meter un manual técnico completo, un contrato extenso o una base de conocimiento mediana sin tener que partir.
  • Conocimiento actualizado a abril de 2023. El cutoff anterior era septiembre de 2021. Eso reduce alucinaciones sobre eventos relativamente recientes.
  • Precio cerca del 50% más bajo que GPT-4 estándar en input y aproximadamente un tercio más bajo en output. Para cargas de producción esto es material.

¿Cuándo migrar? Para casos donde la calidad de GPT-4 ya era suficiente, la migración es simple y debería hacerse ya. Para casos donde se notaba que GPT-4 tenía margen, conviene re-evaluar: Turbo cambia el balance precio-calidad y abre experimentos que antes no eran rentables.

GPTs personalizados: asistentes sin código

OpenAI presentó GPTs, una manera de construir asistentes especializados sin escribir código. Cada GPT puede tener:

  • Instrucciones propias (system prompt persistente).
  • Documentos de referencia cargados.
  • Acciones (llamadas a APIs externas vía OpenAPI).
  • Capacidades activadas: búsqueda web, generación de imágenes, ejecución de código.

Para una empresa, hay dos lecturas legítimas:

Como puerta de entrada para empleados no técnicos. Un equipo de marketing puede armar un "asistente de copy de marca" sin pedir a TI. Un área comercial puede tener su "calculador de comisiones" sin esperar un sprint. Bien gobernado, esto multiplica adopción.

Como riesgo de gobernanza si no hay reglas. Sin política, cualquiera carga documentos sensibles, conecta APIs internas con credenciales sin rotar y comparte el GPT con quien sea. Antes de abrir la puerta, conviene definir quién puede crear qué, con qué datos y bajo qué revisión.

El GPT Store anunciado para más adelante va a abrir un mercado de asistentes que vale la pena observar, sobre todo para casos verticales donde alguien ya hizo el trabajo.

Assistants API: agentes con estado

El otro anuncio fuerte para equipos de ingeniería es la Assistants API. Resuelve algo que veníamos cosiendo a mano: estado conversacional, manejo de hilos, acceso a herramientas (code interpreter, retrieval, function calling) sin tener que escribir el orquestador completo.

En la práctica permite:

  • Mantener hilos de conversación persistentes con metadatos.
  • Adjuntar archivos y que el modelo los use con retrieval automático.
  • Ejecutar código Python en sandbox dentro del flujo del asistente.
  • Llamar funciones definidas por el desarrollador con manejo automático de respuestas.

Para proyectos nuevos esto reduce semanas de andamiaje. Para proyectos existentes con orquestadores propios (LangChain, LlamaIndex, custom), la migración no es obvia y conviene evaluarla caso por caso. La nueva API tiene vendor lock-in más fuerte que la antigua API de chat: hay que sopesar comodidad contra portabilidad.

JSON mode y reproducibilidad

Dos mejoras que parecen menores pero importan en producción:

  • JSON mode. El modelo garantiza salida en JSON válido. Antes había que validar y reintentar; ahora se reduce significativamente la fricción para integraciones automáticas.
  • Seed parameter. Permite reproducibilidad de salidas dado un mismo prompt y semilla. No es determinismo perfecto, pero acerca lo suficiente para evaluación, depuración y testing.

Ambas son cambios pequeños en API que se traducen en menos código defensivo y pipelines más estables.

Recortes de precio en toda la línea

OpenAI bajó precios no solo en Turbo. GPT-3.5 Turbo nuevo es cerca de tres veces más barato en input que la versión anterior. Embeddings y fine-tuning también ajustaron a la baja.

Este patrón es importante de leer estratégicamente: los modelos están bajando de precio sostenidamente. Cualquier contrato a 24 meses sin cláusula de revisión empieza a verse imprudente. Cualquier caso que hace seis meses no era rentable, conviene volver a costearlo.

Copyright Shield: cobertura legal extendida

OpenAI introdujo Copyright Shield: la empresa cubrirá costos legales si un cliente enterprise enfrenta demandas por copyright derivadas de uso de la API o ChatGPT Enterprise. Es un compromiso significativo, alineado con lo que ya ofrecen Microsoft, Adobe y Google.

Para una empresa mexicana usando GPT-4 en producción, esto baja la fricción interna en áreas legal y compliance. No elimina el riesgo, pero cambia quién lo asume.

Qué hacer esta semana

Para un equipo que ya está usando GPT-4 hoy, la lista corta de acciones es:

  1. Migrar a GPT-4 Turbo en cargas no críticas. Medir calidad, latencia y costo en datos propios. Si el resultado es razonable, migrar el resto.
  2. Identificar tres casos donde la ventana de 128k cambia el diseño. Lectura de contratos completos, análisis de logs largos, conversaciones extensas con contexto persistente.
  3. Definir política antes de abrir GPTs internamente. Quién puede crear, qué datos puede subir, cómo se revisa antes de compartir.
  4. Evaluar Assistants API solo para casos nuevos. No reescribir lo que ya funciona solo por novedad.
  5. Revisar contratos existentes y renegociar precios o cláusulas de revisión a la luz del nuevo benchmark.

Lo que conviene no perder de vista

DevDay confirma una tesis: OpenAI está apostando fuerte por subir la pila desde modelo a plataforma. Cada anuncio agrega capa, baja fricción y, de paso, hace más difícil moverse. Para una empresa mexicana, esto trae beneficios claros y un riesgo igualmente claro.

El beneficio: construir más rápido, con menos código de plomería. El riesgo: amarrarse a una plataforma cuya estrategia, precios y estabilidad organizacional no controlamos. La respuesta sensata no es evitar OpenAI, es diseñar con portabilidad razonable: capa de abstracción de modelo, contratos con términos de salida, evaluaciones que también midan modelos alternativos.

GPT-4 Turbo y los GPTs son herramientas potentes. Lo que decide su valor en una operación no es la novedad, sino la disciplina con que se incorporan.


En ALCA armamos GPTs personalizados, integraciones con Assistants API y migraciones a GPT-4 Turbo para empresas mexicanas. ¿Quieres armar tu primer GPT personalizado? Te ayudamos. Agenda una conversación.

Artículos relacionados