Toda burocracia es, por definición, un sistema de respuestas tardías. Está hecha para resistir los impulsos de la improvisación, para ralentizar lo que el mercado acelera; pero cuando lo que se regula es una tecnología que se redefine a sí misma cada semana, la lentitud deja de ser un principio y se vuelve un obstáculo.
Ese es el dilema central en torno a la inteligencia artificial: no se trata de si debe ser regulada, sino de si alguien puede hacerlo a tiempo. Porque cada intento de gobernarla parece llegar siempre tarde.
La prueba más visible está en Estados Unidos. El Congreso rechazó una moratoria federal que habría dado tiempo para construir un marco común de regulación. El resultado ha sido un rompecabezas: cada estado con su propia ley, sus propias definiciones de riesgo, sus propios mandatos. Nueva York impone auditorías e informes en menos de 72 horas. Illinois obliga a que cada empresa publique reportes técnicos detallados, tanto para el público como para expertos. California exige evaluaciones de impacto para cualquier sistema automatizado de decisión que pueda ser considerado “de alto riesgo”, una categoría tan amplia que se vuelve inoperable.
Esta fragmentación genera más que confusión. Crea desigualdad. Las grandes compañías pueden costear abogados, cumplir normas contradictorias, operar con redundancia. Las pequeñas no. Y eso implica un riesgo de concentración, justo cuando más se necesita diversidad de enfoques.
Pero más allá del caos, hay algo más inquietante: la regulación es estática y la IA no. Se legisla sobre lo que se conoce, mientras la tecnología ya se está reinventando.
El caso mexicano lo ilustra desde otra arista. En junio, el Instituto Nacional Electoral utilizó -sin autorización- la voz clonada del fallecido actor José Lavat para un video oficial. Fue un acto que sintetiza varios niveles de fracaso: ético, legal y simbólico. La democracia agradeciendo con una voz robada.
Semanas después, actores de doblaje salieron a las calles. Exigen que la voz sea considerada un dato biométrico. No están pidiendo detener la tecnología, sino reglas claras, salvaguardas mínimas, un marco que reconozca que la creatividad humana no es un insumo más.
Amazon, YouTube y empresas surcoreanas como CJ ENM ya ensayan sistemas para sustituir voces, rostros, personajes enteros. El argumento es siempre el mismo: es más eficiente, más barato, más escalable. Lo que se omite es que también es más difícil de rastrear, de regular, de detener si daña. Cada iteración nueva de IA llega antes de que los marcos legales logren ponerse de pie.
La Unión Europea intenta una alternativa: una regulación más vertical, más anticipatoria. El Código de Prácticas para Modelos de Propósito General exige transparencia sobre datos de entrenamiento, consumo energético, licencias, derechos de autor. Y lo hace con la amenaza de multas que alcanzan hasta el 7% de los ingresos globales.
Pero incluso allí el tiempo es el enemigo. Las empresas piden retrasos. Dicen que no están listas. Y probablemente tengan razón: cumplir con estas normas no es trivial. Exige rediseñar modelos, abrir cajas negras, dejar entrar a auditores externos. Es justo lo que hace falta. Pero no es sencillo.
Gobernar a la inteligencia artificial requiere asumir algo incómodo: ninguna regulación llegará a tiempo. No del todo. Lo que se necesita no es una ley perfecta, sino una arquitectura de gobernanza que pueda mutar, adaptarse, aprender. Tal como lo hace la tecnología que se intenta regular.
No se trata de escribir las reglas “correctamente”, sino de encontrar una forma de gobernar lo que, por diseño, nunca deja de cambiar.

La sociedad del algoritmo 


