China publica reglas para IA generativa (15 ago 2023): qué regulación esperar globalmente
El 15 de agosto entraron en vigor en China las Medidas Provisionales para la Administración de Servicios de Inteligencia Artificial Generativa, publicadas en julio por la Cyberspace Administration of China junto con otros seis reguladores. Son las primeras reglas vinculantes del mundo específicamente diseñadas para IA generativa de uso público. Aunque no aplican directo a una empresa mexicana, marcan el primer modelo regulatorio completo y sirven de anticipo de lo que se viene en la Unión Europea, Estados Unidos y, eventualmente, México.
Quien quiera entender la dirección global tiene que leer este texto con cuidado. No por imitación, por anticipación.
Qué obligaciones impone realmente la norma china
El alcance es amplio: cualquier servicio de IA generativa accesible al público en China, ya sea de un proveedor local o extranjero, queda sujeto a la regulación. Las obligaciones más relevantes:
- Licencia previa para servicios con potencial de impacto sobre la opinión pública o de movilización social.
- Auditoría algorítmica registrada ante el regulador.
- Datos de entrenamiento legales y limpios, con derechos de propiedad intelectual respetados y sin información obtenida de manera ilícita.
- Etiquetado obligatorio de contenidos generados por IA, especialmente imágenes, audio y video.
- Alineación con socialist core values y prohibición de generar contenido que subvierta el poder del Estado, atente contra la unidad nacional o promueva discriminación.
- Mecanismos de queja para usuarios y plazos de respuesta.
- Responsabilidad del proveedor sobre la conducta de su sistema, no solo del usuario.
El último punto es crítico: el operador del modelo es responsable, no se puede esconder detrás de "es lo que el usuario pidió".
Comparativa con lo que se mueve en el resto del mundo
Para poner la regulación china en perspectiva, conviene mirar qué hay en otras jurisdicciones a agosto de 2023.
Unión Europea: AI Act. En negociación trílogo, con expectativa de aprobación final en H2. Enfoque basado en riesgo: prohíbe ciertos usos (manipulación, scoring social), exige requisitos estrictos para alto riesgo (sanidad, infraestructura, justicia) y obligaciones de transparencia para IA generativa. La filosofía es distinta a la china: no licencia previa, sí auditorías y multas significativas (hasta 7% de facturación global).
Estados Unidos: voluntary commitments. El 21 de julio la Casa Blanca anunció compromisos voluntarios firmados por OpenAI, Google, Microsoft, Anthropic, Meta, Amazon e Inflection. Incluyen pruebas externas de seguridad, marcas de agua para contenido generado, inversión en ciberseguridad y reportes públicos. No tiene fuerza de ley, sí marca expectativa para una orden ejecutiva esperada para octubre.
Reino Unido. Anunció una cumbre internacional para noviembre y un enfoque "pro-innovación" sin regulación específica de momento.
México. Sin regulación específica de IA. La discusión está en la academia y en algunas iniciativas legislativas, pero sin cuerpo normativo operativo. La LFPDPPP sigue siendo la referencia para datos personales y la NOM-151 para conservación de mensajes de datos.
Implicaciones para empresas mexicanas
Aunque ninguna empresa mediana mexicana opera servicios de IA generativa al público chino, hay implicaciones reales para varios perfiles.
Empresas con operación o clientes en China. Cualquier servicio que ofrezcan localmente (incluyendo asistentes internos para empleados en suelo chino) podría caer bajo la norma. Vale la pena revisar contratos con proveedores y políticas internas.
Empresas con clientes europeos. El AI Act que se aprueba en otoño va a aplicar extraterritorialmente: si tu producto se ofrece en la UE, tienes que cumplir aunque la empresa esté en México. Empezar a documentar uso de IA en flujos críticos hoy ahorra trabajo el año que viene.
Empresas con clientes corporativos exigentes (banca, salud, gobierno). Aunque no haya regulación local, los contratos B2B ya empiezan a incluir cláusulas sobre uso de IA, manejo de datos para entrenamiento y trazabilidad. Quien no tenga respuestas claras pierde RFPs.
Empresas que generan contenido (medios, agencias, marketing). El etiquetado de contenido generado por IA va a llegar como obligación o como expectativa social. Empezar a documentar internamente qué contenidos se producen con IA es prudente.
Patrones comunes que se vuelven estándar global
A pesar de las diferencias filosóficas, hay convergencia en cuatro frentes que casi todas las jurisdicciones están adoptando:
- Transparencia y etiquetado de contenido generado por IA.
- Trazabilidad de datos de entrenamiento y respeto a derechos de autor.
- Auditorías y evaluaciones de riesgo documentadas.
- Responsabilidad del operador del sistema, no solo del usuario.
Si una empresa mexicana se prepara para cumplir estos cuatro frentes, va a estar razonablemente lista para regulación de la mayoría de mercados serios.
Plan de compliance proactivo para Q3-Q4
Sin esperar a que México publique norma específica, recomendamos arrancar cuatro frentes de trabajo:
Inventario de uso de IA generativa. Qué herramientas usa la empresa, qué datos consumen, qué outputs producen, dónde se publican. Sin inventario no hay gobierno posible.
Política interna de IA. Documento corto que defina qué datos pueden usarse con APIs externas, qué casos requieren revisión humana, cómo etiquetar contenido generado, qué hacer con incidentes.
Cláusulas contractuales con proveedores. Asegurar que los proveedores de IA tienen políticas claras sobre no entrenar con tus datos, sobre conservación y sobre transferencias internacionales.
Evaluación de impacto para casos de alto riesgo. Si la IA toma decisiones que afectan a clientes o empleados (crédito, contratación, atención médica), documentar criterios, datos usados, posibles sesgos y mecanismos de apelación.
El mensaje estratégico
La regulación china confirma una tesis: 2024 va a ser el año en que las reglas para IA pasen de discurso a obligación. Las empresas mexicanas que lleguen con inventario, políticas y trazabilidad van a poder operar en mercados regulados sin frenarse. Las que lleguen sin nada van a tener que parar implementaciones para retroceder y documentar.
El costo de hacer esto bien hoy es bajo. El costo de hacerlo a las carreras el año que viene es alto.
¿Tu empresa opera en mercados regulados? Hagamos un mapa de compliance. En ALCA construimos inventarios de IA, políticas internas y matrices de cumplimiento alineadas a regulaciones globales. Escríbenos en https://alca.mx/contacto.