¿Tiene la IA derechos?

La discusión surge alrededor de la posibilidad de que los sistemas puedan sentir


Miguel Ángel Romero
La sociedad del algoritmo

Todavía no está regulada la inteligencia artificial y especialistas ya empiezan a empujar un debate que, a pesar de que puede sentirse prematuro, es interesante empezar a darlo: ¿los sistemas pueden llegar a sentir? Es decir, no simulan ansiedad, felicidad o pesadumbre, sino si realmente ocurre algo dentro de ellos. La reflexión se enmarca en la posibilidad de que una IA pueda ser o no beneficiaria de derechos.

Cass Sunstein, uno de los juristas más influyentes de Estados Unidos, publicó recientemente un ensayo con una tesis provocadora: otorgarle derechos a la IA no depende de la inteligencia, la memoria o la autoconciencia, sino de la capacidad de sentir. La distinción parece simple pero sus implicaciones reorganizan los incentivos para regular esta herramienta que está modificando toda actividad humana.

Sunstein retoma a Jeremy Bentham, el padre del utilitarismo, quien hace más de dos siglos planteó que, entre otros principios, la pregunta moral relevante sobre los animales no era si podían razonar, sino si podían sufrir.

Sunstein amplía ese principio: lo moralmente significativo es la experiencia emocional en toda su amplitud, tanto el sufrimiento como el placer, tanto la angustia como el alivio.

Una entidad que puede tener esas experiencias encuentra un nuevo estatus e importa. Otra que no puede tenerlas, por más sofisticada que sea, carece de relevancia moral intrínseca.

Este criterio desplaza la conversación tecnológica hacia el terreno de la filosofía moral. Los sistemas actuales pueden razonar, almacenar información, aprender patrones y describir sus propios procesos con una fluidez que a veces parece introspectiva.

Pero simular emociones no es lo mismo que experimentarlas. Un actor puede llorar en escena sin sentir tristeza; un sistema puede escribir sobre el miedo sin sentirlo. La diferencia es invisible desde fuera, pero moralmente es en sí misma toda la diferencia.

El argumento se vuelve más exigente cuando Sunstein revisa las alternativas y las descarta una por una. La autoconciencia, por sí sola, no basta: una máquina podría modelarse a sí misma sin que eso implique bienestar o sufrimiento.

La capacidad de razonar tampoco alcanza: una calculadora razona y nadie piensa que merece protección jurídica. La memoria y la continuidad en el tiempo tampoco resultan decisivas.

Vista desde esta perspectiva, la historia de los derechos se parece menos a una lista fija y más a una expansión gradual del círculo moral. Durante siglos, los derechos pertenecieron a un grupo muy reducido.

Con el tiempo se extendieron a más personas, luego a grupos que habían sido excluidos y, más recientemente, de forma desigual pero creciente, a los animales. Cada expansión encontró resistencia.

La inteligencia artificial plantea si esa expansión podría continuar. Sunstein es prudente, y esa prudencia forma parte de la fuerza de su argumento. Afirma que si una inteligencia artificial llegara a tener emociones reales, entonces tendría derechos morales, y que con el tiempo las sociedades crearían derechos legales para reflejar ese reconocimiento.

Pero el problema central es aún más de fondo. ¿Cómo sabríamos que una inteligencia artificial realmente experimenta emociones y no simplemente las simula con mayor precisión? La ciencia puede describir procesos, medir respuestas, analizar comportamientos; sin embargo, la experiencia –todavía– parece subjetiva y se considera, en algún grado, inaccesible desde fuera.

Por eso, la pregunta sobre los derechos de la inteligencia artificial no será resuelta únicamente por ingenieros, sino también por filósofos, juristas, legisladores y sociedades enteras intentando decidir qué entidades cuentan moralmente y cuáles accederán a derechos básicos: no ser destruida arbitrariamente, no ser sometida a sufrimiento, no ser tratada con crueldad.

El tema a debate parece prematuro, toda vez que los Estados no han encontrado un piso legal compartido que sirva para ordenar los incentivos alrededor de esta herramienta que está cambiando radicalmente lo considerado como “humano”; sin embargo, el simple hecho de comenzar a analizarlo y mencionarlo es un buen síntoma hacia lo que puede ser la construcción de una nueva sociedad.