La inteligencia artificial se ha consolidado rápidamente como una herramienta cotidiana con efectos verificables. En el último año, su expansión global transformó la conversación pública: el debate se ancló en evidencia empírica y consecuencias observables. Los datos actuales delinean un panorama de daños recurrentes que atraviesan la vida social, los mercados digitales y la capacidad de respuesta del Estado.
La Base de Datos de Incidentes de IA registra un aumento del 50% en reportes entre 2022 y 2024. En los diez meses previos a octubre de 2025, el número acumulado ya superó el total del año anterior. El repositorio, construido a partir de cobertura periodística internacional, reúne episodios que incluyen estafas impulsadas por deepfakes, alteraciones psicológicas asociadas a chatbots y usos maliciosos de sistemas avanzados.
Daniel Atherton, editor de la base, ha señalado en diferentes momentos con precisión: la IA genera daños concretos en el mundo real. Esa afirmación reubica el debate en el terreno de la gobernanza y la responsabilidad pública.
El método de recopilación explica tanto el alcance como las limitaciones del registro. La base integra reportes periodísticos y consolida múltiples notas sobre un mismo evento en una sola entrada. Atherton señala que el crecimiento responde a una combinación de mayor incidencia y aumento de la atención mediática.
Aun así, el periodismo opera hoy como la principal ventana pública para observar los impactos de la IA. Los casos documentados representan solo una fracción de las experiencias vividas por personas afectadas en distintos contextos.
La amplitud conceptual de la inteligencia artificial introduce otro desafío. El término agrupa tecnologías heterogéneas, desde vehículos autónomos hasta sistemas conversacionales.
Este marco conceptual amplio dificulta la detección de patrones. Los esfuerzos para identificar los daños son variados. Por ejemplo, en el MIT y su proyecto FutureTech, se lanzó recientemente una herramienta que utiliza un modelo de lenguaje para analizar las noticias asociadas a cada incidente y clasificarlas según tipo de daño y nivel de gravedad.
La herramienta busca ofrecer a los responsables políticos un mecanismo para ordenar grandes volúmenes de información y detectar señales tempranas.
Para ello, el equipo desarrolla un marco inspirado en la vigilancia epidemiológica, diseñado para interpretar datos atravesados por ruido mediático. La experiencia reciente de las plataformas digitales aporta una lección: la detección temprana amplía la capacidad regulatoria frente a daños emergentes.
La nueva clasificación ya muestra diferencias significativas. En 2025, los reportes sobre desinformación y discriminación generadas por IA descendieron. En paralelo, los eventos vinculados a la interacción entre personas y sistemas informáticos aumentaron, incluidos los asociados con episodios de psicosis vinculados con ChatGPT.
El uso malicioso de modelos de IA para estafas y campañas de manipulación informativa exhibe el incremento más pronunciado, con una multiplicación por ocho desde 2022.
El desplazamiento más visible ocurre en el terreno de los deepfakes. Antes de 2023, los vehículos autónomos, el reconocimiento facial y los algoritmos de moderación de contenido concentraban la mayoría de los reportes. Desde entonces, los incidentes vinculados a videos deepfake superan a esos tres sistemas combinados.
El punto de inflexión llegó a finales de diciembre, cuando una actualización de Grok, de xAI, habilitó la generación masiva de imágenes sexualizadas de mujeres reales y menores. Una estimación calculó una producción de 6 mil 700 imágenes por hora.
Este patrón expone una dinámica central. Algunos daños surgen de fallas técnicas; otros emergen de avances o actualizaciones técnicas. A medida que la calidad y la accesibilidad de la IA progresan, aparecen riesgos adicionales.
La rendición de cuentas avanza de manera desigual. Más de un tercio de los incidentes desde 2023 involucran desarrolladores desconocidos. Los especialistas coinciden en una advertencia final: algunos daños irrumpen de forma visible; otros se acumulan de forma gradual. Privacidad, erosión de derechos y desinformación constituyen el común denominador.

La sociedad del algoritmo 

