Berita Gate, 17 Maret, pendiri bersama platform pemantauan kesalahan Sentry, David Cramer, hari ini di platform X menyatakan bahwa dia “sangat yakin” bahwa model bahasa besar saat ini bukan alat peningkatan produktivitas bersih. Cramer berpendapat bahwa meskipun LLM menurunkan ambang pengembangan, mereka terus menghasilkan kode yang semakin kompleks dan sulit dipelihara, dan berdasarkan pengalamannya sendiri, hal ini memperlambat kecepatan pengembangan jangka panjang. Cramer secara khusus meragukan mode “agentic engineering”, yaitu metode membiarkan model secara otomatis menghasilkan kode dan langsung mengunggahnya, menganggap kualitas kode yang dihasilkan jauh lebih buruk, dan setelah terkumpul dalam jumlah besar, menjadi beban bersih. Dia menunjukkan masalah spesifik termasuk: performa buruk saat pengembangan inkremental dalam basis kode yang kompleks, ketidakmampuan menghasilkan antarmuka yang sesuai dengan gaya bahasa yang umum, dan “pengujian slop murni”. Cramer secara khusus menyebut alat OpenClaw, menyatakan “jika saya harus bertaruh, alat seperti OpenClaw karena menghasilkan terlalu banyak kode, sudah sulit untuk diselamatkan (irrecoverable)”, dan menegaskan bahwa “perangkat lunak tetap sulit dibangun, dan ini bukan soal meminimalkan atau memaksimalkan jumlah baris kode”. Cramer menambahkan bahwa penilaian tersebut terutama didasarkan pada pengalamannya dalam pengembangan fitur di basis kode yang matang dan memiliki kompleksitas normal; alasan peningkatan kontribusinya baru-baru ini adalah “karena merasa menarik” bukan karena “lebih mudah”, dan secara esensial merupakan perubahan psikologis, waktu yang dihabiskan secara praktis tidak berbeda.