ChatGPT, ¿nuevo juguete sexual?

OpenAI sostiene que en diciembre lanzará una actualización que permita a los adultos “ser tratados como adultos”


Miguel Ángel Romero
La sociedad del algoritmo

La inteligencia artificial está entrando en su adolescencia. Esa etapa en la que se mezcla la fascinación por el descubrimiento con la ansiedad del control. OpenAI acaba de anunciar que su asistente volverá a ser menos restrictivo, después de meses de haber impuesto un marco de moderación diseñado para evitar daños en temas de salud mental.

En apariencia, se trata de una simple actualización. En realidad, es una decisión que condensa el debate más complejo de esta década: ¿qué significa construir una tecnología capaz de acompañar emocionalmente a las personas?

El comunicado de la empresa revela tres movimientos estratégicos. Primero, la verificación de edad en ChatGPT se había vuelto demasiado rígida y, por lo tanto, menos útil o disfrutable para millones de usuarios. Segundo, la admisión de que el exceso de prudencia también puede ser un error político y comercial. Y tercero, la apuesta por un nuevo equilibrio: mantener las protecciones necesarias, pero devolver al usuario la posibilidad de moldear la experiencia según su deseo.

En pocas semanas, OpenAI promete una versión que permitirá configurar la “personalidad” del asistente. Podrá actuar como un amigo, usar abundantes emojis o responder con un tono casi humano. En diciembre, el cambio será más radical: la empresa permitirá contenido erótico para adultos verificados, bajo la lógica de “tratar a los adultos como adultos”.

Detrás de estas decisiones hay una tensión que no es nueva, pero que empieza a adquirir otra dimensión: los modelos de IA apuntan a contener y generar emociones. Lo que antes se discutía en términos de funcionalidad -si un modelo era más preciso o más creativo- se traslada ahora al terreno de lo íntimo.

¿Debe una IA poder coquetear, consolar o excitar a alguien? ¿Debe regularse por el mismo estándar que una red social o por el de un terapeuta? Cada respuesta implica una forma distinta de entender la relación entre ética y diseño algorítmico.

El giro de OpenAI ocurre, además, en un momento de competencia feroz. Anthropic, Google y Meta exploran sistemas que se acercan cada vez más al “acompañamiento emocional”, una zona en la que las líneas entre conversación, terapia y deseo se desdibujan. En ese contexto, la prudencia excesiva podría volverlas obsoletas; sin embargo, la libertad sin contención las convertiría en explotación emocional.

Lo interesante del anuncio es que OpenAI no lo plantea como un simple movimiento de mercado, sino como una corrección moral. “Queríamos hacerlo bien”, escriben. La frase condensa una ambición que ha acompañado a la empresa desde su origen: ser el laboratorio que combina poder técnico y conciencia ética.

La apertura hacia contenidos adultos, por ejemplo, marca un precedente. Implica aceptar que la IA no es sólo una herramienta de productividad o conocimiento, sino también una extensión del deseo. La tecnología se convierte así en espejo del cuerpo y del afecto, con todos los dilemas que eso conlleva: consentimiento, adicción, proyección, identidad.

El nuevo ChatGPT será, en teoría, más libre. Pero esa libertad redefine la noción de responsabilidad. Si antes la empresa se concebía como guardiana del bienestar del usuario, ahora ensaya una forma de madurez tecnológica que se apoya en la autonomía individual.

Es una apuesta arriesgada: confiar en que los usuarios adultos sabrán manejar un poder que, hasta hace poco, se consideraba demasiado sensible para dejar en sus manos.

La pregunta de fondo es si la inteligencia artificial debe ser paternalista o emancipadora. OpenAI parece haber optado por lo segundo. En ese espejo algorítmico se proyecta una nueva definición de lo humano. Tal vez ese sea el verdadero experimento de nuestra era: descubrir hasta qué punto la inteligencia artificial no imita a la humanidad, sino que la redefine.