Noticias de Gate News, el 17 de marzo, el cofundador de la plataforma de monitoreo de errores Sentry, David Cramer, publicó en la plataforma X que está “completamente convencido” de que los grandes modelos de lenguaje actualmente no son herramientas de aumento neto de productividad. Cramer considera que, aunque los LLM reducen la barrera de entrada para el desarrollo, generan continuamente código cada vez más complejo y difícil de mantener, y según su experiencia personal, esto está ralentizando la velocidad de desarrollo a largo plazo. Cramer cuestiona especialmente el modo de “ingeniería agentica”, es decir, que los modelos generen código automáticamente y lo pongan en línea directamente, ya que la calidad del código producido es claramente peor y, acumulándose en gran cantidad, se convierte en una carga neta. Señala problemas específicos, como el bajo rendimiento en desarrollos incrementales en bases de código complejas, la incapacidad de generar interfaces que sigan los estilos idiomáticos del lenguaje, y la generación de “pruebas de slop puras”. Cramer menciona específicamente la herramienta OpenClaw, diciendo que “si tuviera que apostar, herramientas como OpenClaw, por generar demasiado código, ya son irrecoverables”, y enfatiza que “el software sigue siendo muy difícil de construir, nunca ha sido una cuestión de minimizar o maximizar la cantidad de líneas de código”. Cramer añade que estas conclusiones se basan principalmente en su experiencia desarrollando funciones en bases de código maduras con complejidad normal; la razón por la que ha aumentado su contribución recientemente es “porque le resulta interesante”, no porque sea más fácil, y considera que en esencia se trata de un cambio psicológico, sin diferencias sustanciales en el tiempo invertido.