En pleno auge de la inteligencia artificial, una nueva investigación lanza una advertencia, las herramientas de IA no siempre aceleran el trabajo de los desarrolladores, y en algunos casos, incluso pueden ralentizarlo. Un ensayo controlado reciente encontró que los programadores de código abierto, al usar IA, tardaron en promedio un 19 % más en completar sus tareas.
El hallazgo contradice la narrativa dominante sobre la IA como potenciadora de la productividad. En el estudio, los propios desarrolladores esperaban que las herramientas de IA los hicieran un 24 % más rápidos. Incluso tras ser más lentos, seguían creyendo que habían sido más eficientes.
El estudio fue realizado a principios de 2025 con 16 desarrolladores expertos, cada uno con años de experiencia en repositorios con más de un millón de líneas de código. Los investigadores compararon el desempeño con y sin IA, en tareas reales como corrección de errores o mejoras estructurales.
Lejos de los entornos controlados de los benchmarks, este experimento se desarrolló en condiciones cotidianas de trabajo. Los programadores usaron herramientas avanzadas como Cursor Pro junto a modelos de frontera, incluyendo Claude 3.5 y 3.7. Cada sesión fue monitoreada con grabaciones de pantalla y reportes de tiempo.
¿Por qué la IA, tan prometedora en teoría, resultó ser una traba en la práctica? El análisis identificó al menos cinco factores que explican la ralentización. Entre ellos, el tiempo dedicado a interactuar con la herramienta, revisar respuestas incorrectas o reescribir código generado por IA.
Te puede interesar: Aprende programación sin dejar tu trabajo por $200 mil al mes: así es el nuevo programa Part-Time
El contraste con los puntajes de referencia es evidente. En benchmarks como SWE-Bench o RE-Bench, los modelos suelen sobresalir en tareas acotadas y bien definidas. Sin embargo, el trabajo real implica contexto, criterios de calidad, documentación y estándares que las IA aún no dominan del todo.
También se suman factores humanos. Las herramientas de IA no fueron diseñadas para cubrir las particularidades de cada proyecto, ni aprovechar al máximo la experticia del usuario. Además, los desarrolladores del estudio apenas habían usado estas herramientas por unas pocas docenas de horas.
Esto podría explicar por qué, a pesar de la desaceleración objetiva, los programadores mantenían una percepción positiva. La IA, más que una solución inmediata, parece funcionar como una promesa de eficiencia futura, condicionada por la curva de aprendizaje y el contexto de uso.
La investigación no descarta que, en otros entornos o con metodologías diferentes, la IA pueda acelerar el desarrollo. Pero advierte sobre el riesgo de sobreestimar sus capacidades basándose solo en datos anecdóticos o pruebas algorítmicas optimizadas.
Esta tensión entre la percepción de utilidad y la productividad medida pone en evidencia un punto crítico: no basta con que la IA funcione; debe hacerlo dentro de los flujos reales de trabajo humano. Y eso exige repensar no solo las herramientas, sino también cómo las evaluamos.
Los investigadores planean repetir este tipo de estudios en el futuro para medir la evolución de la IA en entornos de programación reales. Su objetivo no es desacreditar la tecnología, sino aportar evidencia que complemente los benchmarks tradicionales con pruebas más representativas.
Más allá del mundo del software, los resultados tienen implicaciones más amplias. Si la IA no acelera tareas críticas en contextos exigentes, ¿hasta qué punto estamos preparados para delegarle funciones clave en otros sectores? ¿Y qué pasa si nos adelantamos demasiado en esa delegación?
Imagen: Archivo ENTER.CO