La ética como frontera decisiva de la inteligencia artificial

Los algoritmos ya influyen en precios, guerra y derecho internacional. Lo que era ciencia ficción ahora es prioridad en foros globales



En este momento, mientras se lee este artículo, algoritmos están tomando decisiones que afectan desde el precio del boleto de avión que compramos hasta la vida de soldados en combate. Lo que antes era especulación distópica es hoy materia de derecho internacional, y lo que antes era una conversación de nicho entre ingenieros es ahora una prioridad en los foros multilaterales. 

La Conferencia Global sobre IA, Seguridad y Ética 2025 a celebrarse este 27 y 28 de marzo en Ginebra no es un evento más: es el espejo de una pregunta urgente y aún sin respuesta satisfactoria. ¿Quién gobierna a la inteligencia artificial? Desde su inicio, la IA ha sido impulsada por promesas: eficiencia, precisión, innovación. Pero detrás de estas promesas, también se esconden riesgos desestabilizadores que apenas empezamos a entender. 

El evento en Ginebra, organizado por el Instituto de las Naciones Unidas para la Investigación sobre el Desarme y Microsoft, no girará en torno a lanzamientos de productos o métricas de desempeño. Será, más bien, una mesa de discusión global sobre los límites morales y políticos de una tecnología que amenaza con desdibujar las nociones tradicionales de responsabilidad.

El programa es tan ambicioso como necesario. Desde la militarización invisible de la IA hasta el rol de la supervisión humana en sistemas autónomos. Los expertos que serán reunidos se centrarán en los dilemas éticos del uso de la IA y sus consecuencias geopolíticas. Las ponencias abordarán temas como el uso de drones autónomos en ciudades, el dilema semántico entre “IA responsable” y “garantía de IA”, y los riesgos sociales derivados de decisiones algorítmicas.

La ética, en este contexto, es la llave con la que se asegura la supervivencia de la especie humana. Un ejemplo reciente sobre esa tensión entre gobernanza ética y poder tecnológico: las recientes sanciones de la Unión Europea a Google y Apple por violar la Ley de Mercados Digitales (DMA).

La semana pasada, la Comisión Europea declaró que Google violó las normas antimonopolio al favorecer sus propios servicios de búsqueda de vuelos y hoteles, y al impedir que los desarrolladores dirigieran a los usuarios a canales alternativos desde Google Play. Apple, por su parte, fue señalada por limitar la interoperabilidad de dispositivos de terceros con su ecosistema. 

La UE argumentó que estas prácticas restringen la innovación, dañan a las empresas y limitan la libertad de los consumidores. Las multas podrían alcanzar el 10% de la facturación global anual, una cifra que se mide en decenas de miles de millones de dólares.

Google respondió que estos cambios ponen en riesgo la seguridad y la calidad de sus servicios. Apple, por su parte, advirtió que las decisiones “ralentizan su capacidad de innovación”. Ambas compañías acusan a la UE de comprometer la experiencia del usuario en nombre de la regulación. Pero ¿no es precisamente esa la pregunta central? ¿Dónde termina la experiencia del usuario y empieza el interés público? ¿Dónde se traza la línea entre optimización algorítmica y captura del mercado?

Las discusiones de Ginebra y las decisiones en Bruselas convergen en un punto: la necesidad de marcos éticos que no lleguen tarde. La gobernanza de la IA no puede ser reactivada ni estar dictada por el mercado. Tiene que ser anticipatoria, inclusiva y, sobre todo, justa.

Si algo ha venido quedando claro es que la IA no es solo una cuestión de algoritmos: es una cuestión de poder. Y como tal, merece ser regulada con el mismo rigor que cualquier estructura que pueda moldear el destino de las democracias. La pregunta no es si la ética puede gobernar la IA. La pregunta es si nos atreveremos a hacerlo antes de que sea demasiado tarde.