Deshumanización e inteligencia artificial

26, abril 2024

Paola Zuart

La evolución reciente de los conflictos armados ha evidenciado una tendencia hacia la creación de una separación entre el agresor y los objetivos. Este fenómeno se inició con la introducción de drones y ha sido amplificado con el desarrollo de armas autónomas.

El Departamento de Defensa de Estados Unidos las define como armas capaces de seleccionar y atacar objetivos sin la intervención de un operador humano una vez activadas

Este tipo de armamento ha generado diversas críticas y preocupaciones, especialmente en términos éticos. Permitir que las armas determinen cuándo y dónde usar fuerza contra individuos podría ser interpretado como una reducción de estos a meros objetivos militares, lo que implicaría tratar a seres racionales como simples objetos. La campaña Stop Killer Robots ha señalado que la inteligencia artificial carece de la capacidad de valorar la vida humana o comprender el peso de su pérdida, lo que contraviene la dignidad humana al permitirle llevar a cabo actos letales.

Asimismo, existe preocupación acerca de la capacidad de discernimiento de estas armas para distinguir entre objetivos lícitos e ilícitos. Estudios han demostrado un alto riesgo de cometer errores en la identificación de objetivos, lo que aumenta la posibilidad de atacar personas u objetos protegidos por el Derecho Internacional Humanitario (DIH).

Un ejemplo de cómo se pueden materializar estas preocupaciones es el sistema israelí “Lavender” que, aunque no es un arma autónoma, ha recibido atención por su uso de inteligencia artificial para identificar posibles objetivos. Lavender crea una base de datos de individuos que cree cumplir con las características de un integrante de Hamas.

Adicionalmente, este sistema puede buscar a los objetivos en sus casas. Al respecto, los operadores comentaron que es algo que preferían ya que que “es más sencillo bombardear la casa de una familia” De igual modo, comentaron que la orden no solamente era matar a cualquier hombre perteneciente a Hamás, sino que era permitido “matarlos junto a muchos civiles”. Por dicho motivo, añadieron que “el criterio de proporcionalidad no existía”.

La utilización de la inteligencia artificial en la conducción de estos ataques por parte de Israel no solamente transgredió el principio de proporcionalidad, sino también los de necesidad militar, humanidad y distinción. El caso de Lavender ejemplifica cómo el aumento de la distancia tanto física como psicológica en el teatro de operaciones disminuye la consideración por la dignidad humana y deshumaniza a la parte adversaria. Este episodio debe ser considerado como una advertencia para la comunidad internacional, pues la historia ha demostrado de manera reiterada que la probabilidad de cometer atrocidades se incrementa considerablemente cuando se pierde el respeto por la humanidad y la integridad de la parte contraria.