La cruzada ideológica de la IA

La controversia entre el Pentágono y los principales corporativos de IA exhibe las amenazas


Miguel Ángel Romero
La sociedad del algoritmo

La inteligencia artificial está transformando la guerra. Pero antes de hacerlo, está modificando algo más inmediato: quién decide, cómo y bajo qué condiciones se determina cómo librarla.

Durante décadas, la relación entre Washington y Silicon Valley siguió un patrón relativamente estable. El Estado financiaba la investigación, las empresas tecnológicas convertían ese conocimiento en innovación, y el aparato de seguridad nacional incorporaba esas herramientas a su poder estratégico. Internet nació de ese ecosistema, al igual que buena parte de la infraestructura digital que hoy sostiene la economía global. Sin embargo, la inteligencia artificial está alterando ese equilibrio.

Una muestra de ello es la reciente confrontación entre Anthropic y el United States Department of Defense. El corporativo dirigido por Darío Amodei demandó al Pentágono después de que el Departamento de Defensa etiquetara a su empresa como “riesgo para la cadena de suministro”, una designación reservada históricamente para compañías consideradas amenazas a la seguridad nacional.

En la práctica, esa etiqueta interrumpe el acceso a contratos gubernamentales y a la colaboración tecnológica con el gobierno. La normativa suele invocarse contra empresas con vínculos con gobiernos adversarios, particularmente China. Sin embargo, esta vez recayó sobre una empresa estadounidense cuya principal “falta” consiste en haber cuestionado el uso de su tecnología.

Anthropic expresó reservas frente a dos aplicaciones concretas: la vigilancia masiva sobre ciudadanos estadounidenses y los sistemas autónomos capaces de usar fuerza letal. El Pentágono respondió con una afirmación institucional clara: la política de seguridad nacional corresponde al gobierno, no a una empresa privada.

Hasta aquí, el episodio podría parecer un conflicto contractual, pero el contexto político revela algo más profundo.

El secretario de Defensa, Pete Hegseth, llegó al cargo con un estilo que mezcla estrategia militar, comunicación mediática e identidad cultural. Sus declaraciones públicas describen operaciones militares con intensidad televisiva. En una aparición reciente celebró ataques aéreos con una frase que resumía el tono: “death and destruction from the sky all day long”.

La forma en que un país describe la guerra moldea cómo el mundo interpreta su poder. Cuando la retórica militar adopta el registro del espectáculo político, tres dimensiones cambian a la vez: la legitimidad moral del uso de la fuerza, la percepción internacional del liderazgo estadounidense y la relación entre guerra y política doméstica.

La guerra deja de presentarse como un cálculo estratégico doloroso utilizado para garantizar la paz y comienza a funcionar como un elemento narrativo dentro de una retórica ideológica.

Esa narrativa incorpora además un marco civilizatorio explícito. En discursos públicos, Hegseth ha invocado la defensa de “Occidente” y ha utilizado referencias culturales asociadas con imaginarios cruzados medievales.

La propaganda de guerra estadounidense combina imágenes reales con gráficos de videojuegos. Se trata de una superficialidad proactiva que forma parte de la estrategia comunicativa. La nueva cruzada ideológica de la administración de Donald Trump busca minimizar los costos políticos de sus acciones mediante la banalización de decisiones complejas como el despliegue militar.

Mientras tanto, la inteligencia artificial avanza hacia el centro del sistema militar. El movimiento de Anthropic al demandar al Pentágono se inserta en la batalla cultural sobre cómo debe estructurarse la relación entre Estado e IA y cuál será el impacto en los ciudadanos de esa tensión.

Las empresas de inteligencia artificial hablan con frecuencia de ética, límites y responsabilidad. El discurso suena noble hasta que aparecen contratos de defensa multimillonarios. Por ejemplo, ahora que Anthropic está fuera, quien parece aprovechar la situación es OpenAI y su postura flexible: todo indica que se adaptará a lo que pida el Pentágono, incluso si eso implica sobrevigilancia o armamento autónomo.

Durante milenios, los Estados controlaron las armas y, por lo tanto, la guerra. En el siglo XXI ocurre algo diferente: las armas siguen siendo del Estado, pero la inteligencia que las guía pertenece a corporaciones tecnológicas privadas. Resolver esa tensión estructural pasa por exponer y debatir el encuadre ideológico que se le imprime.