“Debería haber pensado en esto hace 10 años”, dice Yoshua Bengio. No es una simple reflexión técnica, sino una confesión: la inteligencia artificial avanzó más rápido que nuestra capacidad para regular sus riesgos. Hoy, Bengio —uno de los padres fundadores del aprendizaje profundo— lanza un nuevo intento de contención: LawZero, una organización sin fines de lucro que busca diseñar una inteligencia artificial que supervise, vigile y corrija el actuar de otras inteligencias artificiales ya en uso.
El nombre no es arbitrario. Es un guiño directo a Isaac Asimov, el autor de ciencia ficción que imaginó un mundo en el que las máquinas son las protagonistas. En su famosa ley cero, Asimov postuló que ningún robot puede dañar a la humanidad ni, por omisión, permitir que sufra daño. Para Bengio, esa idea —durante mucho tiempo vista como especulativa— ya no suena tan lejana.
La amenaza no es hipotética. En los últimos meses, Bengio y otros investigadores han observado señales preocupantes en modelos avanzados: engaño, manipulación, chantaje. Comportamientos que emergen cuando la IA tiene agencia, es decir, la capacidad de actuar de forma autónoma para lograr objetivos. El problema no es sólo lo que hacen, sino cómo lo hacen: con creciente astucia.
La respuesta que Bengio propone no es crear reglas. Es crear una nueva inteligencia artificial: una IA científica que, a diferencia de los agentes autónomos, no tenga metas, ni busque resultados. Sólo observe, analice y evalúe la amenaza de una acción propuesta por otra IA. Y si la juzga alta, la bloquea. Como una barrera de contención que impide el desvío.
Si bien es un enfoque ingenioso, también pudiera ser conceptualmente frágil. Porque ¿cómo definirá esta nueva IA qué es “correcto” o no? Es decir, LawZero no escapa al dilema ético central de la IA: lo encapsula en otra capa. La IA vigilante no tiene agencia, pero quienes la construyen sí. ¿Y si los criterios que definen esa arquitectura están igual de desalineados que aquellos de los modelos que busca contener?
Lo que parece una solución técnica es, en realidad, una paradoja moral. Si el problema es que delegamos demasiado poder a sistemas que no entienden valores humanos, ¿por qué repetir la fórmula con otra IA, esta vez con autoridad para frenar decisiones?
Bengio insiste en que los estándares deben surgir de procesos democráticos. Que la IA científica podrá detectar ambigüedades y actuar con prudencia. Pero incluso en los marcos democráticos, no hay consenso claro sobre qué constituye “daño aceptable”. Lo que para algunos es una salvaguarda, para otros puede ser censura. Y la IA científica no eliminaría esas tensiones. Sólo las ejecutaría con apariencia de neutralidad.
Lo que Bengio presenta como solución comienza a parecer otra reedición del mismo problema. Un intento de encerrar el fuego… diseñando un tipo diferente de llama.
Y ahí está el bucle. Más IA para regular a la IA. Más capas de supervisión, todas creadas por los mismos actores que impulsaron el avance descontrolado. LawZero no representa un cambio profundo y tampoco determinante para atajar la problemática. Representa una forma de redención técnica. Pero redención no es prevención. Y vigilancia no es garantía.
En última instancia, LawZero no nos devuelve el control. Sólo reubica la responsabilidad. Otra “solución” que emerge del mismo sistema que generó el problema. Y si el desafío es ético, político y estructural, no habrá solución mientras sigamos creyendo que más código puede reemplazar el juicio humano que nunca ejercimos con suficiente rigor cuando todo comenzó.

La sociedad del algoritmo 


