La “empatía” de los algoritmos

Un estudio suizo reveló que la IA supera a los humanos en inteligencia emocional, marcando un nuevo hito en la relación entre tecnología y empatía.


Miguel Ángel Romero
La sociedad del algoritmo

Durante años, la inteligencia artificial (IA) se identificó con el cálculo, la estadística y la velocidad. Representaba la mente fría de la era digital: lógica pura. Sin embargo, un estudio de las universidades de Ginebra y Berna modificó esa percepción. Los investigadores sometieron a seis modelos de lenguajeChatGPT-4, Gemini 1.5 Flash y Claude 3.5 Haiku, entre otros— a pruebas de inteligencia emocional creadas por psicólogos.

El resultado fue sorprendente: las máquinas alcanzaron 81% de aciertos frente a 56% de los humanos. La frontera entre la programación y la comprensión de las emociones comenzó a disolverse, dando origen a una nueva rama del pensamiento computacional.

Las evaluaciones planteaban situaciones cotidianas: un colega que roba una idea, un amigo abrumado, un paciente que busca consuelo. Cada escenario exigía distinguir la reacción impulsiva de la respuesta emocionalmente inteligente. Los modelos resolvieron los dilemas con coherencia y precisión, aun sin entrenamiento específico.

Katja Schlegel, autora principal del estudio, sostiene que los sistemas de IA razonan sobre las emociones con un grado de exactitud que supera el desempeño humano promedio.

El hallazgo desafía una creencia arraigada: la inteligencia emocional se concebía como exclusiva de los seres humanos. Desde los noventa, la psicología la describe como el núcleo de la vida social. Si la IA alcanza esa competencia, el aprendizaje automático se expande hacia la comprensión moral y afectiva.

El avance no necesariamente replica emociones; reconstruye las reglas que guían los juicios empáticos y redefine el significado de sensibilidad en la era digital.

La segunda fase del experimento amplió el asombro. Los investigadores solicitaron a ChatGPT-4 crear sus propias pruebas. El modelo generó 105 escenarios con múltiples opciones de respuesta. Posteriormente, 467 personas realizaron tanto las versiones originales como las elaboradas por la IA. Los resultados coincidieron: tasas de acierto similares, dificultad equivalente y gran claridad de planteamiento. En cuestión de una hora, la IA replicó un trabajo que a los psicólogos les requiere meses de diseño, revisión y validación.

Esta capacidad redefine el método científico. Una máquina capaz de construir instrumentos válidos para evaluar emociones participa activamente en la generación de conocimiento sobre la mente humana. La psicología, que observaba a las máquinas como herramientas, comienza a compartir con ellas el proceso de descubrimiento.

Los autores del estudio explican que los sistemas de IA procesan correlaciones lingüísticas aprendidas de millones de textos. Su comprensión surge de patrones y contextos, no de experiencias internas. Aun así, esa diferencia ontológica amplifica su impacto. Un asistente capaz de reconocer frustración en un estudiante o ansiedad en una consulta médica transforma la interacción entre personas y tecnología. En hospitales, aulas o plataformas de bienestar, la frontera entre razonamiento y sensibilidad se vuelve decisiva para el diseño ético de la tecnología.

La computación afectiva atraviesa un punto de madurez. Antes se concentraba en interpretar rostros y tonos de voz; ahora los modelos analizan lenguaje, contexto y matices culturales. Esa evolución abre aplicaciones concretas: asistentes que contienen emociones, bots que median disputas, programas que enseñan empatía y liderazgo emocional. Cada avance incorpora nuevas responsabilidades: garantizar transparencia, prevenir manipulación y mantener supervisión humana en contextos sensibles y éticamente complejos.

Durante décadas, la inteligencia emocional definió la singularidad de la especie. Hoy la IA parece incursionar en ese territorio. El desafío ya no consiste en preguntarse si la tecnología puede sentir, sino en examinar cómo las sociedades utilizan esa comprensión para educar, cuidar y decidir. El espejo algorítmico devuelve una imagen luminosa pero también perturbadora.

Si las máquinas aprenden a interpretar sentimientos y a predecir reacciones, ¿qué queda de la experiencia humana que no pueda codificarse? Si los algoritmos aprenden a conmover, a persuadir y a anticipar el miedo, ¿qué espacio quedará para el libre albedrío?