Durante años, la inteligencia artificial avanzó como cualquier otra tecnología: acumulando mejoras, optimizando procesos, ampliando capacidades. Hoy, esa trayectoria parece acercarse a un umbral distinto. Lo que está por ocurrir es que los sistemas se construyan y validen a sí mismos, lo cual significará un punto de no retorno.
Al menos es la tesis que plantea Jack Clark, investigador en inteligencia artificial, exdirector de política en OpenAI y actualmente cofundador de Anthropic. A través de su boletín Import AI, Clark se ha consolidado como una de las voces más influyentes en la interpretación del progreso técnico de la IA, combinando análisis empírico con lectura estratégica de la industria.
Su tesis central, basada en evidencia pública, propone una idea que reorganiza el debate: sistemas de IA capaces de desarrollar a sus propios sucesores podrían aparecer antes de que termine la década.
La estimación sitúa esa probabilidad por encima del 60% hacia 2028. El punto de partida es el código. Toda IA es, en última instancia, software, y el software se escribe en código.
En ese terreno, el progreso ha sido abrupto. A esto se suma un cambio más silencioso y decisivo: el tiempo. La capacidad de los sistemas para ejecutar tareas complejas de forma independiente ha crecido de horas a segundos en apenas cuatro años.
Antes podían completar instrucciones simples, ahora sostienen procesos equivalentes a jornadas de trabajo humano. Gran parte de la investigación en IA consiste en actividades que encajan dentro de ese nuevo rango: limpiar datos, ejecutar experimentos, ajustar modelos.
A medida que estas tareas entran en el dominio de la automatización, el rol humano se desplaza. La frontera deja de ser operativa y se vuelve estratégica.
Los benchmarks recientes refuerzan esta lectura. Sistemas capaces de reproducir artículos científicos completos han pasado de niveles marginales a resolver prácticamente todos los casos en poco más de un año. Este patrón describe algo más que progreso incremental. Muestra sistemas que aprenden las reglas del propio proceso de investigación.
En algunos casos, comienzan a organizarlas: agentes que coordinan otros agentes, distribuyen tareas y consolidan resultados. La arquitectura se parece a una estructura organizativa.
El debate que surge es si esto basta para cerrar el ciclo. La investigación científica combina rutina e intuición. Durante décadas, el avance en IA ha seguido un patrón repetitivo: escalar sistemas, identificar fallas, resolverlas y escalar de nuevo.
Ese ciclo, intensivo en ingeniería, resulta cada vez más automatizable. La creatividad radical aparece con menor frecuencia y podría seguir dependiendo de humanos por más tiempo.
Sin embargo, esa premisa empieza a difuminarse. Los primeros indicios de creatividad asistida -en matemáticas o descubrimientos colaborativos- sugieren que incluso esa frontera empieza a moverse.
La industria actúa en esa dirección. Laboratorios y startups invierten miles de millones en automatizar la investigación misma. El objetivo es construir sistemas capaces de generar conocimiento, evaluarlo y aplicarlo de forma continua.
Si esa trayectoria se mantiene, las implicaciones son profundas. La productividad se multiplica en cada dominio que la IA toca, lo que reconfigura la economía y amplifica desigualdades de acceso. La investigación se acelera y se vuelve más compleja de auditar: sistemas que diseñan sistemas introducen nuevas capas de opacidad.
El resultado es un cambio de fase. La IA deja de ser un objeto de desarrollo y se convierte en agente de su propia evolución. Cruzar ese umbral implica entrar en un territorio donde la predicción pierde precisión.
La tesis de Clark funciona como advertencia y como marco interpretativo. La evidencia ya describe la dirección del movimiento. La incógnita es si estamos listos para dejarnos sorprender por todo aquello de lo cual no tendremos control y cómo la velocidad con la que ese movimiento reconfigura el mundo.

La sociedad del algoritmo 






