Hablar seriamente sobre Inteligencia Artificial

MANUEL ALEJANDRO GUERRERO Sin duda, en términos tecnológicos éste ha sido un año marcado por la irrupción de la Inteligencia Artificial (IA). Y no es que esta tecnología no hubiera estado ya presente en nuestras vidas –desde las aplicaciones para la movilidad y el tráfico hasta las “recomendaciones” de canciones, sitios y comidas, pasando por

Continue Reading →



MANUEL ALEJANDRO GUERRERO

Sin duda, en términos tecnológicos éste ha sido un año marcado por la irrupción de la Inteligencia Artificial (IA). Y no es que esta tecnología no hubiera estado ya presente en nuestras vidas –desde las aplicaciones para la movilidad y el tráfico hasta las “recomendaciones” de canciones, sitios y comidas, pasando por los chatbots bancarios–, sino que no había estado tan presente nunca de forma tan consciente y explícita en la conversación pública. 

A lo largo del año, hemos atestiguado un debate que advierte sobre los enormes riesgos de una tecnología no controlada, así como también una larga serie de beneficios potenciales para la salud, la educación, el medio ambiente, y la seguridad, sólo por mencionar algunas áreas. La cuestión es que la Inteligencia Artificial incuba, al mismo tiempo, las mejores esperanzas y las peores pesadillas. Y es por ello por lo que, en estas últimas semanas, las grandes potencias han decidido dar algunos pasos en favor de establecer parámetros de seguridad en el desarrollo y uso de estas tecnologías. Pero ¿qué tan firmes son estos pasos?

El 23 de octubre, el gobierno de Estados Unidos publicó su Orden Ejecutiva sobre Inteligencia Artificial (OEIA). Uno de los aspectos más importantes de la OEIA es que, con base en la Ley de Producción de Defensa, las compañías que desarrollen productos que puedan poner en riesgo la seguridad nacional estarán obligadas a notificar al gobierno y compartir sus estudios previos y posteriores al lanzamiento al mercado de tales productos. 

Sobre este punto, la Ley de Inteligencia Artificial de la Unión Europea (que muy probablemente se publique este fin de año) tiene un enfoque muy diferente, pues de entrada prohíbe el uso de estas tecnologías cuando impliquen lo que establece como un “riesgo inaceptable”, como la vigilancia en tiempo real en lugares públicos, el uso de sistemas predictivos policiacos, o de sistemas de crédito social, por ejemplo.

También, a diferencia de la Ley europea, la OEIA tampoco implica penalizaciones por incumplimiento de estándares. Esto es notable en un segundo aspecto de importancia: la etiquetación de contenidos creados por IA. En principio, la OEIA establece que el Departamento de Comercio deberá establecer los parámetros para desarrollar el etiquetado, lo que se espera que las compañías de tecnología adopten como base para desarrollar herramientas de etiquetado con el fin de que las personas que utilizan las redes sociales puedan saber qué contenidos y en qué porcentajes han sido creados mediante IA. 

Pero nada de esto es obligatorio. De hecho, la OEIA enfatiza que lo que busca es que, con base en ella, se desarrollen mejores prácticas en la industria. Por último, al contrario de lo que muchos expertos y organizaciones vigilantes de los derechos humanos habían sugerido, la OEIA no establece ninguna obligación para las compañías de IA para transparentar los datos con los que entrenan sus programas, sus fuentes, sus modelos y otros datos importantes, un aspecto que la Ley de IA de la Unión Europea hace un poco más claro. El carácter de la OEIA tiene así el tono de una recomendación y, en el mediano plazo, no se ve ningún otro esfuerzo por ajustar más la regulación en Estados Unidos.

La discusión sobre estos temas se acaba de retomar en la primera Cumbre sobre Seguridad en Inteligencia Artificial, llevada a cabo en Londres este 1° y 2 de noviembre, donde si bien se lograron pocos compromisos concretos, el mero hecho de tener firmada una declaración por parte de Estados Unidos, China, la Unión Europea y algunos otros países importantes en el desarrollo de IA, como India y Japón, y empresas como DeepMind de Google, OpenAI, Microsoft y Meta, acerca de que se tiene la voluntad de cooperar para mitigar los riesgos a la seguridad que plantean estas tecnologías, es un paso en la dirección correcta. 

Un segundo paso en esta Cumbre es la aceptación de que se instaure en Londres un Instituto de Seguridad en IA (AI Safety Institute) en donde se pondrían a prueba modelos que pudieran llegar a causar daños (incluso no intencionales) en temas como generación de sesgos discriminatorios y desinformación a gran escala, desarrollo de armas biológicas, ciberterrorismo, afectaciones a la salud pública, entre otros. Aunque no hay aún ni plazos ni tipos de programas ni modelos que se podrían probar. 

Como podemos ver, el tema está en auge debido a los enormes beneficios y riesgos potenciales que implica ya para nuestra vida cotidiana. Sin embargo, nuestro país parece estar quedándose atrás en esta discusión, por lo que es urgente que autoridades, académicos, expertos y empresas comencemos a discutir de qué forma aprovechar mejor las ventajas de la IA para disminuir desigualdades, garantizar mejor los derechos de las personas, tener mejores conocimientos y capacidades de reacción ante desastres naturales –sí, como en la costa de Guerrero–, mejorar la atención y la provisión de servicios públicos y un sinfín más de aplicaciones benéficas para nuestra sociedad. Lamentablemente, se cruza en México el calendario electoral 2024, donde la atención (e interés) de la clase política estará puesta en las urnas y, por tanto, es probable que esté muy poco dispuesta a alcanzar acuerdos.

El problema es que, si no le entramos ya a este debate, no sólo permaneceremos como meros espectadores de lo que otros acuerden, sino que seguramente careceremos de las protecciones adecuadas ante las consecuencias más negativas y dañinas de sus aplicaciones. Y, como en muchos otros temas, vamos a querer tapar el pozo luego del ahogado. 

Doctor en Comunicación