Las reglas sobre derechos de autor llevan tiempo obsoletas por la era digital. La inteligencia artificial ha intensificado esta tensión. Mientras Europa busca un marco regulatorio, China avanza sin restricciones y Estados Unidos parece dejar en claro que el mercado tomará la delantera. Ahora, empresas como OpenAI y Google buscan redefinir el acceso a la información.
Recientemente, OpenAI y Google argumentaron ante el gobierno de Estados Unidos que sus modelos de IA deben entrenarse con material protegido de manera libre, es decir, sin compensación. OpenAI llevó la idea más allá, asegurando que esto es una cuestión de seguridad nacional. Si Estados Unidos quiere mantener su liderazgo frente a China, sus empresas necesitan acceso irrestricto a datos y contenidos, es parte del argumento.
Esto plantea una pregunta clave: ¿puede el avance tecnológico justificar la erosión de la propiedad intelectual? Durante décadas, la innovación ha convivido con el derecho de los creadores a ser compensados. Pero la IA rompe con este modelo: no crea desde cero, sino que aprende de lo que otros han producido. Si los modelos de entrenamiento para desarrollo de IA pueden absorber contenido protegido sin restricciones, ¿qué lugar queda para los autores originales?
La postura de OpenAI y Google revela una paradoja. Estas compañías defienden el libre acceso a contenidos de terceros, pero protegen con recelo sus propios desarrollos. OpenAI entrena sus modelos con libros, artículos y publicaciones en línea, pero restringe el acceso a su código y datos. Google, que ha basado su negocio en organizar la información global, impone límites estrictos a su propio contenido.
Este doble estándar deja en claro que la disputa no es solo sobre derechos de autor, sino sobre control. La información es libre cuando beneficia a las empresas que la procesan, pero no cuando se trata de proteger el trabajo de quienes la generan. Ahora, los corporativos de IA buscan acceder al conocimiento humano sin límites para generar un negocio propio, bajo una lógica de crear un “bien común”.
Si las grandes tecnológicas imponen su visión, los creadores humanos se enfrentarán a un cambio profundo en su papel dentro del ecosistema digital. La IA ya escribe, diseña, compone y programa. Pero detrás de cada modelo generativo hay un inmenso repositorio de trabajo humano utilizado para entrenarlo.
El problema no es solo económico. Si la IA domina la producción de contenido, la diversidad creativa podría reducirse a lo que los algoritmos consideran óptimos. La música, el arte y el periodismo quedarían atrapados en patrones calculados que priorizan lo más consumido sobre lo más innovador. Nadie podrá escapar de la “fórmula” de la innovación instaurada por los corporativos.
Algunas industrias han equilibrado y compensado la innovación. En la música, las plataformas de streaming remuneran a los artistas por sus reproducciones. Modelos similares podrían aplicarse al entrenamiento de IA. Otra posibilidad es un fondo de compensación gestionado por un organismo independiente, que distribuye los pagos según el uso real del contenido. Sin embargo, cualquier solución requiere un marco regulador claro.
Las grandes tecnológicas han demostrado que, cuando el vacío regulatorio persiste, son ellas quienes buscan imponer las reglas. Mientras Europa debate regulaciones y China prioriza la velocidad, Estados Unidos enfrenta una decisión clave: ¿regular el uso de la IA o dejar que las empresas definan unilateralmente el futuro de los derechos de autor?
Lo probable, según la ideología de la administración Trump, es que se le abran las puertas a los corporativos para el uso indiscriminado de información. ¿No te gusta? ¿Acaso eres un traidor a la patria?, podrían ser las preguntas que surgirían desde el poderoso gobierno estadounidense atrapado entre la radicalización y el aislacionismo.