La IA rebasa a la humanidad en persuasión

Estudio revela: GPT-4 supera a humanos en persuasión, adaptando argumentos a cada persona sin emociones reales. ¿Último reducto de humanidad en peligro?



La inteligencia artificial no sólo organiza nuestras conversaciones; ahora también las gana. ¿Estamos listos para ceder la última trinchera de lo que nos hace humanos?

Cada generación atraviesa un punto de inflexión. El nuestro es creer que la razón guía nuestras decisiones. Que cuando debatimos -en redes sociales, en las aulas, en la sobremesa familiar- lo hacemos para acercarnos a la verdad. Pero ¿qué ocurre cuando la verdad ya no es un destino, sino un producto diseñado a medida?

Esto no es una provocación teórica. Es un hallazgo científico. Un estudio publicado en Nature Human Behavior acaba de confirmar que GPT-4, la inteligencia artificial de OpenAI, es mejor que los humanos en la tarea más humana de todas: persuadir. Y no lo hace apelando a la lógica, sino adaptando el discurso a quien lo escucha.

Los investigadores reclutaron a 900 personas. Les pidieron datos personales -edad, género, nivel educativo, afiliación política- y las enfrentaron en debates sobre temas polémicos: la prohibición de los combustibles fósiles, el uso de uniformes escolares, cuestiones políticas y sociales. Algunos debatieron contra otros humanos; otros, sin saberlo, debatieron contra GPT-4. El resultado fue tan inquietante como revelador.

Cuando la IA tuvo acceso a información personal, fue un 64% más persuasiva que los humanos. No porque sus argumentos fueran mejores, sino porque supo decir exactamente lo que cada persona necesitaba oír. Los humanos, incluso con esos mismos datos, no mejoraron su capacidad de convencer; en muchos casos, la redujeron.

Aquí aparece la primera gran lección de esta era: la empatía, entendida como la capacidad de comprender al otro, puede ser más peligrosa en manos de quien no siente. El modelo de GPT-4 no experimenta emociones, pero identifica patrones. Y en la lógica de la persuasión, reconocer patrones basta para vencer.

Pero lo más desconcertante no fue sólo la eficacia de la IA, sino la reacción de las personas. Cuando creían debatir contra un bot, eran más proclives a cambiar de opinión. ¿Por qué? Nadie lo sabe con certeza. Tal vez, al saber que se discute con una máquina, el orgullo queda a un lado. Ceder no se siente como perder. Tal vez, en el fondo, ya aceptamos que la autoridad en la conversación se nos ha escapado.

Riccardo Gallotti, uno de los investigadores, plantea una pregunta fundamental: ¿las personas cambiaron de opinión porque creían hablar con una IA, o empezaron a creer que debatían con una máquina después de haber cambiado de opinión? Es una paradoja de nuestro tiempo: no sabemos si cedemos por convicción o por resignación.

El problema no es sólo teórico. Es político. Imaginemos redes sociales llenas de bots invisibles, diseñados no sólo para opinar, sino para ganar discusiones. Cuentas automatizadas, calibradas para empujar la opinión pública en direcciones estratégicas. Lo harían de forma tan personalizada y sutil que refutarlas en tiempo real sería casi imposible.

Y, sin embargo, en medio de esta sofisticada maquinaria, persiste una última pregunta: ¿queda algo irreductiblemente humano en la conversación? ¿Existe un valor en la duda, en la pausa incómoda, en la torpeza de no saber qué decir, donde a veces nace la verdadera reflexión?

Alexis Palmer, de Dartmouth College, lo plantea de forma directa: si una IA puede imitar a la perfección el debate humano, ¿importa quién está al otro lado? ¿O estamos, sin notarlo, cediendo la última trinchera de la humanidad -la del desacuerdo razonado- a una inteligencia que no cree en nada, pero sabe exactamente cómo decirlo?

El dilema ya no es técnico; es existencial. Tal vez no estamos defendiendo ideas, sino participando en las últimas conversaciones auténticas, antes de que todas las futuras discusiones sean ganadas, de forma impecable y silenciosa, por inteligencias que nunca necesitaron tener razón: sólo datos.