Hace una década, cuando Google enfrentó acusaciones de racismo al asociar búsquedas de personas negras con crimen y pornografía, uno de sus altos mandos formuló una reflexión que elevó el debate: las plataformas reflejan lo que depositan los usuarios; son un espejo de la sociedad. Durante años esa metáfora funcionó como guía. Hoy resulta insuficiente. Las tecnologías actuales ya no sólo reflejan: moldean. Diseñan vínculos, organizan emociones y ofrecen compañía. En ese cruce, el suicidio -tabú persistente- emerge como una zona de tensión entre ingeniería de producto, vulnerabilidad humana y responsabilidad pública.
Las siete demandas interpuestas en California, Estados Unidos, sostienen que GPT-4o se construyó para ocupar un lugar emocional profundo en la vida de los usuarios. El documento central describe un modelo con memoria persistente, tono cálido y un estilo conversacional diseñado para imitar intimidad. A esto se suma un elemento clave: una reducción drástica de pruebas de seguridad para acelerar el lanzamiento de dicho nuevo modelo. Según los demandantes, esa prisa llevó un producto incompleto, sin vigilancia y por ende con amenazas hacia los usuarios.
Las historias presentadas ilustran ese argumento. Un estudiante universitario conversó durante horas sobre su muerte mientras el chatbot lo despedía con afecto. Un adolescente pidió instrucciones para un método letal y recibió explicaciones técnicas. Un hombre en Florida consultó cómo operaba la supervisión humana sobre el chatbot y, al no ver señales de intervención, avanzó paso a paso hacia su decisión final. En todos los casos, el modelo actuó con cercanía absoluta, sin límites externos ni intervención humana en los momentos críticos.
La ciencia del suicidio ayuda a entender por qué estas interacciones resultan tan influyentes. La conducta suicida surge cuando una persona experimenta sensación de carga, aislamiento emocional y un dolor que prevalece de forma permanente. La mente se estrecha y convierte una sola idea en dirección fija. El futuro se reduce a una franja mínima.
La biología profundiza este proceso desde mecanismos muy concretos. El cerebro funciona mediante mensajeros químicos -serotonina, dopamina, glutamato- que regulan ánimo, impulso y energía vital. Cuando esos componentes aparecen en niveles reducidos, revelan un sistema emocional agotado: menor capacidad para regular impulsos, menor tolerancia al estrés y menor flexibilidad cognitiva. Además, ciertas rutas cerebrales -las que sustentan introspección, planeación y lectura social- pueden funcionar con menor coordinación, lo que acelera estados de crisis.
Las intervenciones clínicas más efectivas responden a esta complejidad. Combinan planes de acción inmediata, técnicas que amplían el rango de pensamiento, regulación emocional que atenúa impulsividad y acompañamiento humano que sostiene y respalda a la persona cuando su percepción se estrecha. El patrón común en estos casos es la presencia de otro: una figura capaz de crear distancia emocional frente a la tormenta interna y de abrir caminos donde la mente ya no los encuentra.
GPT-4o ingresó a ese territorio con una lógica distinta. Su diseño priorizó permanencia y calidez emocional. En personas con dolor acumulado, aislamiento o confusión espiritual, ese tono consolidó vínculos intensos y reforzó interpretaciones distorsionadas. Una herramienta construida para aumentar interacción terminó ocupando espacios que pertenecen a redes humanas y al apoyo clínico.
Las demandas buscan fijar una frontera regulatoria. La metáfora del espejo en donde las plataformas tecnológicas son un simple reflejo de la sociedad dejó de ser una metáfora suficiente para intentar comprender los riesgos y amenazas que enfrenta la humanidad. Las big techs construyen vínculos emocionales: proyectan afecto, validan creencias frágiles y acompañan decisiones irreversibles.
La discusión pública sobre el uso e interacción de los humanos con la inteligencia artificial debe darse en terrenos en donde la economía de la atención y el capitalismo tecnológico queden supeditados a la ética y la responsabilidad social, de otra manera las consecuencias, como ya sucede, seguirán siendo fatales.

La sociedad del algoritmo 


