En la industria del software, evaluar la productividad siempre resultó complejo, y la llegada de agentes de programación basados en inteligencia artificial volvió a poner en discusión métricas clásicas como las líneas de código.
En este escenario, comenzó a circular dentro de equipos tecnológicos un nuevo indicador informal vinculado al presupuesto de tokens disponible, es decir, la capacidad de cómputo habilitada para interactuar con modelos de inteligencia artificial.
Aun así, diferentes referentes del sector señalan que este criterio mide solo recursos utilizados y no resultados concretos, ya que consumir más tokens no implica necesariamente mayor eficiencia, calidad o reducción del trabajo posterior.
Un análisis reciente indica que herramientas como Claude Code, Cursor y Codex incrementan la generación de código, pero también elevan los ciclos de revisión, corrección y eliminación dentro de los proyectos.
La brecha entre aceptación inicial y uso real
Alex Circei, CEO de Waydev, indicó que numerosos equipos registran niveles de aceptación inicial del código generado por IA cercanos al 80% y 90% en las primeras instancias de validación.
Sin embargo, esa métrica pierde precisión al no considerar lo que ocurre después, cuando los desarrolladores revisitan ese código en semanas posteriores para modificarlo, optimizarlo o incluso descartarlo completamente.
Al sumar ese retrabajo, la aceptación efectiva desciende a un rango estimado de entre 10% y 30%, lo que revela que gran parte del código inicialmente aprobado no permanece en producción.
Waydev, que colabora con 50 empresas y más de 10.000 ingenieros, identificó este comportamiento al estudiar equipos que incorporaron herramientas de desarrollo asistido por inteligencia artificial.
La firma, creada en 2017, rediseñó su plataforma durante los últimos seis meses para centrarse en el análisis de metadatos generados por sistemas de IA, con foco en calidad, costos y adopción.
Este enfoque apunta a ofrecer a los líderes técnicos una visión más precisa sobre si estas herramientas generan mejoras reales o simplemente aumentan el volumen de código sin impacto sostenido.
Las empresas buscan entender si la IA rinde
El fenómeno excede a una sola compañía, ya que distintas firmas de analítica detectan tendencias similares, aunque también enfrentan incentivos para resaltar problemáticas que sus soluciones pueden abordar.
Las grandes organizaciones aún exploran cómo implementar agentes de programación de manera eficiente, lo que evidencia una etapa de adopción temprana pese al creciente interés corporativo en estas tecnologías.
Un caso relevante fue la compra de DX por parte de Atlassian por USD 1.000 millones, orientada a mejorar la medición del retorno sobre inversión en desarrollo asistido por inteligencia artificial.
Este tipo de operaciones refleja que las empresas buscan no solo acelerar la creación de código, sino también validar si ese output reduce tareas manuales y mejora el rendimiento de los equipos.
La principal inquietud es que una mejora inicial en velocidad o volumen puede ocultar costos posteriores asociados a errores, deuda técnica, revisiones constantes o reescrituras completas.
Si ese valor adicional se diluye en procesos correctivos, la aparente mejora en productividad pierde relevancia y puede transformarse en una fuente de ineficiencia operativa.
Más código no significa necesariamente mejor software
La evidencia recopilada por distintas compañías muestra un patrón consistente: el uso de IA incrementa la producción de código, pero también aumenta significativamente la proporción que no se mantiene en el tiempo.
Un estudio de GitClear publicado en enero reveló que los usuarios intensivos de IA presentan niveles de rotación de código 9,4 veces superiores respecto a quienes no utilizan estas herramientas.
Ese volumen de churn supera ampliamente las mejoras de productividad observadas, lo que sugiere que la mayor velocidad de generación no compensa el trabajo adicional de corrección posterior.
Faros AI, por su parte, detectó que la rotación —medida como líneas eliminadas frente a añadidas— creció un 861% en entornos con alta adopción de inteligencia artificial durante un período de dos años.
Jellyfish analizó a 7.548 ingenieros en el primer trimestre de 2026 y observó que quienes tenían mayores presupuestos de tokens producían más pull requests sin mejoras proporcionales en productividad.
En estos casos, el rendimiento se duplicaba, pero con un consumo de tokens diez veces mayor, lo que evidencia una relación poco eficiente entre recursos invertidos y resultados obtenidos.
La conclusión general es clara: la inteligencia artificial permite generar más código, pero no garantiza que ese incremento se traduzca en valor sostenido dentro de los sistemas.
Lo que ven los programadores en el día a día
Los datos coinciden con percepciones extendidas entre desarrolladores, quienes reconocen que estas herramientas aceleran el trabajo, pero también incrementan las tareas de revisión y mantenimiento posterior.
Uno de los patrones más notorios es la diferencia entre perfiles senior y junior, ya que los desarrolladores menos experimentados tienden a aceptar más código generado automáticamente sin analizarlo en profundidad.
Esto puede derivar en problemas diferidos, dado que ese código requiere ajustes posteriores, generando mayores costos en tiempo y recursos dentro de los equipos técnicos.
El fenómeno también plantea desafíos en la formación de talento, ya que una dependencia excesiva de la IA puede limitar la comprensión técnica y afectar la calidad del trabajo en etapas posteriores.
Para las empresas, esto implica la necesidad de fortalecer mecanismos de gobernanza que no se limiten a ampliar presupuestos de tokens, sino que incorporen métricas de calidad y permanencia del código.
Asimismo, obliga a revisar los indicadores de desempeño, dado que métricas como líneas generadas o pull requests no reflejan eficiencia si el código no se sostiene en el tiempo.
Una nueva era con métricas en revisión
A pesar de estos desafíos, la adopción de inteligencia artificial en desarrollo de software continúa expandiéndose, desplazando el foco desde su implementación hacia su integración efectiva en procesos productivos.
Circei sintetizó este cambio al afirmar: "Esta es una nueva era del desarrollo de software, y tienes que adaptarte, y estás obligado a adaptarte como empresa", destacando la naturaleza estructural del fenómeno.
El ejecutivo también subrayó que no se trata de "un ciclo que vaya a pasar", reforzando la idea de que las organizaciones deberán adaptarse a estas herramientas de forma permanente.
En este contexto, crecen las plataformas de observabilidad que buscan diferenciar entre producción útil y volumen irrelevante, en un entorno donde generar código dejó de ser la principal limitación.
Para líderes técnicos e inversores, el desafío es evaluar no solo cuánto se produce o se consume en tokens, sino cuánto de ese resultado aporta valor real y sostenido en el tiempo.
La discusión central ya no se enfoca en la capacidad de producir, sino en la permanencia del código, consolidándose como una métrica clave en la era del desarrollo asistido por inteligencia artificial.