París se ha convertido en el epicentro de la discusión global sobre inteligencia artificial. Líderes políticos y ejecutivos de grandes tecnológicas se reúnen en el Grand Palais con el objetivo de definir principios para una IA más ética y accesible. Sin embargo, la pregunta clave que domina los pasillos de la cumbre es otra: ¿siguen los gobiernos en control de la regulación de la IA o han sido superados por la industria?
Organizada por Emmanuel Macron y Narendra Modi, presidentes de Francia e India, respectivamente, la cumbre llega en un momento crítico. Mientras los Estados debaten regulaciones fragmentadas, empresas como OpenAI, Google y Microsoft han impuesto su propia “autorregulación”. En la práctica, la gobernanza de la IA parece estar desplazándose de los gobiernos a las grandes plataformas tecnológicas.
El dilema de la gobernanza
Fei-Fei Li, una de las voces más influyentes en el debate, ha insistido en la necesidad de un marco estructurado para regular la IA. En un texto publicado hace un par de días en el Financial Times destaca tres principios clave: basarse en la ciencia y no en la ciencia-ficción, adoptar un enfoque pragmático y empoderar el ecosistema de IA.
Sin embargo, los gobiernos parecen ir un paso atrás. Mientras EEUU y la UE siguen negociando normativas, la industria ya ha establecido sus propios mecanismos de control. Un ejemplo es Current AI, una asociación público-privada anunciada en la cumbre con el objetivo de desarrollar IA de interés público. Con 400 millones de dólares ya asegurados y la meta de alcanzar 2,500 millones, la iniciativa promete proporcionar herramientas accesibles y medir el impacto social de la IA.
Pero esto plantea una cuestión clave: ¿puede una coalición de empresas y filántropos reemplazar la acción gubernamental?
La paradoja del código abierto
El acceso abierto a la IA es otro tema de fricción. Mientras Europa y la academia defienden la necesidad de compartir modelos para fomentar la innovación, el caso de la startup china DeepSeek revela una contradicción. Sus modelos de bajo costo y alto rendimiento han generado preocupación en EEUU, donde ya se discuten restricciones por motivos de seguridad.
Esta tensión revela un dilema en la regulación de la IA: ¿los modelos deben ser abiertos o necesitan mayores restricciones? Mientras los gobiernos buscan establecer marcos normativos, la industria ya ha definido sus propias reglas.
El resultado es claro: las grandes tecnológicas se están regulando a sí mismas más rápido de lo que los Estados pueden reaccionar. La pregunta es si esto representa un problema o una solución.
La IA como geopolítica
París también ha dejado claro que la IA es un tema de poder global. Mientras EEUU y China compiten por la supremacía, Europa busca una tercera vía. Ursula von der Leyen ha anunciado la creación de diez supercomputadoras públicas para apoyar la investigación y reducir la dependencia del sector privado.
Sin embargo, aunque los gobiernos inviertan en infraestructura, el desarrollo y control de la IA sigue en gran parte en manos de empresas privadas. OpenAI, Google y Microsoft tienen más influencia en definir estándares globales que cualquier país individual.
¿Quién lidera el futuro de la IA?
El debate en París no solo trata sobre cómo regular la IA, sino sobre quién debe hacerlo. Fei-Fei Li insiste en que la gobernanza debe ser empírica y colaborativa, centrada en el ser humano. Sin embargo, lo que esta cumbre deja claro es que la iniciativa ya no está exclusivamente en manos de los Estados.
Las decisiones tomadas en este encuentro podrían marcar un precedente, pero la realidad es que la industria ya ha tomado la delantera. Mientras los reguladores siguen discutiendo principios, las empresas han implementado sus propios marcos y estrategias.
La pregunta sigue abierta: ¿los gobiernos aún tienen el control o han sido superados por la dinámica de la industria? La cumbre de París podría ser recordada como el momento en que los Estados reconocieron que regular la IA ya no depende solo de ellos.




