OpenAI DALL-E 2: imágenes fotorrealistas con texto y por qué cambia el juego en marketing

OpenAI DALL-E 2: imágenes fotorrealistas con texto y por qué cambia el juego en marketing

El 6 de abril de 2022 OpenAI presentó DALL-E 2 y la conversación sobre IA generativa cambió en cuestión de horas. La diferencia con la primera versión, lanzada apenas en enero de 2021, es notable: imágenes mucho más realistas, mayor resolución, capacidad de editar regiones específicas dentro de una imagen existente y de extender el lienzo más allá del marco original. El acceso al modelo arranca por waitlist, en formato controlado, pero las muestras que circularon esta semana ya están dejando claro que el salto no es incremental.

Para los equipos de marketing, diseño y producto en empresas mexicanas, la pregunta deja de ser si la IA generativa de imágenes va a llegar al pipeline creativo. Empieza a ser cuándo, en qué procesos y con qué reglas. Y ahí es donde ya conviene tener una postura.

Qué cambió respecto a DALL-E 1

DALL-E 1 funcionaba como una curiosidad académica: capaz de producir imágenes desde texto, pero con resolución limitada (256x256), composiciones inconsistentes y un estilo que se notaba "de IA" a un kilómetro. DALL-E 2 sube la apuesta en cuatro frentes concretos.

  • Realismo: las imágenes pueden pasar por fotografía o ilustración profesional en un porcentaje alto de prompts.
  • Resolución: salida en 1024x1024, suficiente para muchos usos digitales sin retoque adicional.
  • Inpainting: modificar regiones específicas de una imagen existente (cambiar un objeto, agregar un elemento) manteniendo la coherencia del resto.
  • Outpainting (variantes): generar variaciones de una imagen base o extenderla más allá del marco original.

El modelo se basa en CLIP y diffusion, una combinación distinta a la de la primera versión, lo que explica el salto cualitativo. No es un ajuste menor sobre la arquitectura previa.

Casos de uso que sí aplican hoy en una empresa mexicana

No todo lo que se ve en redes esta semana es trasladable a una operación corporativa. Algunos usos que sí pueden empezar a explorarse en cuanto el equipo entre a la waitlist:

  • Mood boards y exploración visual. En lugar de pedir al equipo de diseño tres semanas de research visual, generar 20 direcciones en una tarde y discutirlas con stakeholders.
  • Prototipos de campaña antes de inversión en producción. Validar concepto creativo con clientes internos sin contratar fotografía o ilustración hasta tener dirección clara.
  • Variaciones para testing. Generar variantes de un creativo para A/B testing en performance marketing, especialmente en formatos donde la producción tradicional sería impráctica.
  • Iteración interna para presentaciones. Cubrir necesidades de imágenes de soporte en presentaciones internas, propuestas y materiales de venta sin pasar por banco de imágenes genérico.

Lo que todavía no recomendamos: usar las salidas directamente como creativo final en campañas grandes, sustituir fotografía de producto, o producir contenido editorial sin revisión humana cuidadosa.

Riesgos que conviene anticipar antes que el equipo empiece

DALL-E 2 abre puertas, pero también levanta banderas que un equipo serio debe atender desde el día uno.

  • Copyright e IP. OpenAI definió términos de uso, pero el panorama legal alrededor de imágenes generadas por IA es novedoso. La pregunta de quién es dueño de la imagen y si puede registrarse o licenciarse aún no tiene respuesta uniforme en distintas jurisdicciones, México incluido.
  • Sesgos en las salidas. Los modelos heredan los sesgos de sus datos de entrenamiento. Es razonable esperar que una solicitud genérica como "ejecutivo en CDMX" produzca resultados que reflejen estereotipos de occidente más que la realidad mexicana.
  • Deepfakes y reputación. La capacidad de generar imágenes hiperrealistas de personas o escenarios va a ser usada con malicia. Los equipos de comunicación corporativa necesitan empezar a pensar en protocolos de respuesta a deepfakes que involucren a la marca o a su liderazgo.
  • Inconsistencia. Aún con prompts cuidadosos, dos generaciones del mismo concepto pueden ser muy distintas. Para procesos que requieren consistencia visual (un personaje que aparece en cinco piezas), todavía es complicado garantizarla.

Cómo aterrizarlo en el pipeline creativo

Recomendamos un esquema de adopción en tres fases para los próximos seis meses:

  1. Exploración acotada (mes 1-2). Dos o tres personas del equipo creativo entran a la waitlist y experimentan en proyectos internos sin riesgo cliente. Documentan prompts que funcionan y patrones que fallan.
  2. Piloto en proyecto real (mes 3-4). Elegir un proyecto de bajo riesgo donde DALL-E 2 sustituya una etapa concreta del pipeline (mood boards, conceptualización inicial, variaciones para testing). Medir tiempo ahorrado y calidad versus el flujo previo.
  3. Definición de política (mes 5-6). Con base en aprendizaje, redactar política interna: qué se puede usar, qué no, cómo se documenta el uso, qué revisión humana es obligatoria, cómo se maneja el copyright en entregables a cliente.

Las empresas que entran ahora, aunque sea con una persona experimentando, van a tener seis meses de ventaja sobre las que esperen a que la herramienta sea de uso masivo.

Qué viene después

DALL-E 2 no va a ser la única opción por mucho tiempo. Midjourney ya está en beta con una propuesta diferente (más estilizada, vía Discord) y Stable Diffusion está por aparecer en formato open source. La elección de herramienta importa menos que tener el músculo organizacional para incorporar IA generativa al proceso creativo. Ese músculo se construye usándola, no leyendo sobre ella.


¿Quieres aterrizar DALL-E 2 en tu pipeline creativo? Te ayudamos. Solicita una llamada de 30 minutos y revisamos juntos en qué etapas de tu proceso creativo tiene más sentido empezar.

Artículos relacionados