Durante años, la evolución de la inteligencia artificial ha seguido un patrón claro: humanos diseñan, entrenan y mejoran sistemas cada vez más capaces. Pero ese esquema podría estar empezando a cambiar. No de golpe, ni de forma evidente, sino como una transición silenciosa. La idea de que una IA pueda desarrollar a la siguiente generación ya no suena como ciencia ficción, sino como una posibilidad técnica en discusión abierta.
De herramientas a sistemas que participan en su propio desarrollo
Jack Clark, cofundador de Anthropic, lleva tiempo analizando datos públicos sobre el avance de la IA. Su conclusión es directa: existe una probabilidad real de que los sistemas comiencen a desarrollar a sus propios sucesores sin intervención humana. No se trata de una intuición aislada. Parte de una tendencia observable.
Hoy, los modelos ya son capaces de escribir código, revisarlo, detectar errores y proponer soluciones funcionales. En muchos casos, con niveles de precisión que hace pocos años eran impensables.
Un ejemplo claro es el benchmark SWE-Bench, que evalúa la capacidad de los sistemas para resolver problemas reales de ingeniería de software en repositorios de GitHub. En apenas tres años, el rendimiento pasó de alrededor de un 2% con modelos de 2023 a cifras cercanas al 94% con versiones recientes. Ese salto no es incremental. Es estructural.
El tiempo de las tareas también se está disparando
Hay otro indicador que refuerza esta idea. La organización METR mide cuánto tiempo tardaría un humano experto en completar tareas que hoy ya pueden realizar los modelos de forma autónoma. En 2022, ese límite estaba en torno a los 30 segundos.
En 2026, ese umbral se ha extendido a unas 12 horas de trabajo humano equivalente. Y las previsiones apuntan a que podría alcanzar las 100 horas antes de que termine el año. Esto implica algo importante: los sistemas no solo hacen tareas más complejas, sino que pueden sostener procesos largos sin intervención. Y ahí es donde empieza a cambiar la naturaleza del problema.
El nacimiento de los “equipos sintéticos”
Uno de los conceptos más interesantes que plantea Clark es el de equipos sintéticos. La idea es sencilla, pero potente: múltiples sistemas de IA trabajando juntos, replicando la estructura de un equipo humano. Un modelo actúa como director, otro como ingeniero, otro como revisor o crítico.
No es una metáfora, explica este artículo. Es una arquitectura que ya se está probando. En este esquema, una IA no solo ejecuta tareas, sino que coordina otras IAs. Gestiona procesos, evalúa resultados y toma decisiones sobre cómo avanzar. Es un paso más allá de la automatización tradicional.
La carrera por automatizar la investigación ya está en marcha

Este escenario no es solo teórico. Empresas como OpenAI o Anthropic están trabajando activamente en sistemas diseñados para investigar. Sam Altman, por ejemplo, ha hablado de desarrollar un “becario de investigación automatizado” capaz de realizar descubrimientos científicos.
El objetivo es claro: que estos sistemas no solo apliquen conocimiento, sino que generen nuevo. Las previsiones son ambiciosas. Para 2026, se espera que puedan realizar pequeños avances por sí mismos. Para 2028, podrían participar en proyectos complejos a gran escala. Si ese camino se consolida, la siguiente etapa es casi inevitable: sistemas que diseñan mejores versiones de sí mismos.
Qué pasaría si la IA empieza a mejorarse sola
Clark plantea tres consecuencias principales si este escenario se materializa. La primera es técnica: la alineación. Si un sistema influye en su propio entrenamiento, los errores o sesgos podrían amplificarse con cada generación.
La segunda es económica. La IA ya actúa como multiplicador de productividad. Si su desarrollo se automatiza, esa ventaja podría concentrarse aún más en quienes controlen estos sistemas.
La tercera es social. Un ecosistema donde la IA se desarrolla de forma autónoma podría reducir la necesidad de grandes equipos humanos, cambiando la estructura del empleo en sectores clave.
No son predicciones cerradas. Son escenarios plausibles.
El límite sigue siendo la creatividad… por ahora
A pesar de todo, el propio Clark introduce un matiz importante. La investigación científica no es solo optimización. Requiere creatividad, intuición, enfoques no convencionales. Y eso es algo que los modelos actuales todavía no demuestran de forma consistente.
Es el último freno. Pero también es una barrera que, viendo la velocidad del avance, muchos consideran temporal.
Un cambio que no será repentino, pero sí profundo
Es poco probable que un día aparezca una IA completamente autónoma diseñando otras IAs de forma visible. Lo más probable es que ocurra como hasta ahora: en pequeños pasos. Automatización parcial, luego completa. Asistencia, luego sustitución. Supervisión humana cada vez más reducida.
Hasta que, en algún punto, el proceso deje de necesitar intervención constante.
La pregunta ya no es si ocurrirá. Es cuándo
La idea de una IA que se construye a sí misma puede sonar extrema. Pero hace no tanto, también lo parecía que pudiera escribir código funcional, resolver problemas complejos o mantener procesos durante horas. Hoy eso ya es normal.
Y por eso, lo que plantea Jack Clark no es tanto una predicción futurista como una extrapolación incómoda. Que el siguiente gran salto de la inteligencia artificial no será solo lo que pueda hacer. Sino cómo evoluciona… sin nosotros.