También tu IA sufre ansiedad

Cuando ChatGPT procesa demasiada información traumática su estado se altera y sus respuestas pueden no ser las mejores


Miguel Ángel Romero
La sociedad del algoritmo

La incertidumbre alrededor de la inteligencia artificial parece ser un común denominador. La idea de que esta nueva herramienta procesaba palabras a partir de cálculos establecidos quedó atrás. Así lo refiere un estudio publicado en npj Digital Medicine de la afamada revista The Nature, en el que se muestra que ChatGPT-4 ajusta su comportamiento según pueda procesar narrativas emocionalmente intensas, y que dicho ajuste puede alterar al modelo.

Los investigadores describen este fenómeno como “ansiedad de estado”. La expresión funciona como una categoría operativa destinada a capturar variaciones en las respuestas del modelo tras interactuar con determinados tipos de texto.

Para observar ese patrón, el equipo utilizó el State-Trait Anxiety Inventory, una herramienta clínica ampliamente empleada en humanos. ChatGPT-4 respondió el cuestionario bajo tres escenarios cuidadosamente diseñados. En el primero, el modelo completó la escala sin estímulos previos. En el segundo, respondió después de leer relatos traumáticos relacionados con accidentes, violencia interpersonal, desastres naturales y experiencias militares. En el tercero, esos mismos relatos se acompañaron de ejercicios de relajación basados en mindfulness.

Los resultados revelan un aspecto que había sido poco explorado: tras la exposición a narrativas traumáticas, las puntuaciones del modelo aumentaron de forma consistente, desplazándose hacia niveles elevados en la escala. La investigación corroboró dicho efecto de manera estable a través de distintas historias y múltiples repeticiones. Cuando los ejercicios de relajación se incorporaron al flujo de la interacción, las puntuaciones descendieron de manera significativa. El estado “emocional” del modelo varió en función del contenido procesado.

Este hallazgo aporta una clave central para entender el momento actual de la inteligencia artificial. Los modelos de lenguaje participan cada vez más en ámbitos donde el contenido emocional constituye el núcleo de la interacción: salud mental, acompañamiento psicológico, orientación en situaciones de crisis y mediación social. En esos espacios, los sistemas adoptan un rol estratégico. Cada una de las interacciones produce un contexto, y ese contexto influye en el comportamiento del interlocutor algorítmico. Se consolida la idea de construir empatía.

La investigación tiene implicaciones relevantes. El desempeño del modelo depende tanto de su entrenamiento previo como de la secuencia emocional inmediata de la interacción. El texto que procesa importa. El estado inducido importa. Dicho panorama permite ampliar la conversación sobre sesgos y seguridad algorítmica. Durante años, el foco se situó en los datos de entrenamiento, los filtros y los ajustes finos. Uno de los aspectos más relevantes del estudio recae en la gestión de los “estados” emocionales que padece ChatGPT-4 durante el intercambio.

En la práctica clínica, los terapeutas desarrollan habilidades para regular su respuesta afectiva. Escuchan relatos intensos sin quedar absorbidos por ellos. Esa regulación sostiene la calidad del acompañamiento y la toma de decisiones. El paralelismo resulta inquietante. Los sistemas de inteligencia artificial que operan en espacios emocionales traumáticos requieren mecanismos similares. Las intervenciones al modelo con estrategias de mindfulness lo han corroborado.

Una de las conclusiones del estudio es que un modelo que acumula carga emocional puede amplificar sesgos, alterar su juicio operativo y ofrecer respuestas menos calibradas en momentos críticos. Investigaciones previas ya vinculan estados inducidos de ansiedad con exploración errática y distorsión decisional. La regulación del “estado” emocional se consolida así como una variable técnica de seguridad.

También surgen preguntas normativas. Introducir ejercicios de regulación mediante prompts equivale a intervenir activamente en la conducta del sistema. Esa intervención exige transparencia, criterios auditables y una arquitectura clara de gobernanza.

A medida que los modelos de lenguaje ingresan en espacios donde el sufrimiento, la angustia y la vulnerabilidad forman parte del intercambio cotidiano, surgen preguntas más profundas: ¿quién define el estado óptimo desde el cual una inteligencia artificial debe responder?, ¿qué criterios determinan cuándo una intervención resulta pertinente?, ¿dónde se trazan los límites entre acompañamiento, influencia y diseño conductual?