Segundo o site CoinWorld, de acordo com a monitorização do 1M AI News, o cofundador da plataforma de monitorização de erros Sentry, David Cramer, publicou hoje no X, afirmando estar “completamente convencido” de que os grandes modelos de linguagem atualmente não aumentam a produtividade líquida. Ele acredita que os LLMs reduzem a barreira de entrada, mas continuam a gerar códigos cada vez mais complexos e difíceis de manter, o que, na sua experiência, está a atrasar o desenvolvimento a longo prazo. Cramer questiona a abordagem de “engenharia agentic”, ou seja, deixar o modelo gerar código automaticamente e colocá-lo em produção, considerando que a qualidade do código produzido é claramente inferior e, após acumulação massiva, torna-se um peso líquido. Os problemas específicos incluem: desempenho fraco na adição de funcionalidades em bases de código complexas, incapacidade de gerar interfaces que sigam os estilos de linguagem convencionais, e a geração de testes “slop” puramente aleatórios. Ele destacou especialmente o OpenClaw: “Se tivesse que apostar, ferramentas como o OpenClaw, por gerarem demasiado código, já estão irremediavelmente perdidas”, e reforçou que “software continua a ser difícil de construir, nunca foi uma questão de minimizar ou maximizar o número de linhas de código”. Cramer acrescenta que estas avaliações baseiam-se principalmente na sua experiência a desenvolver funcionalidades em bases de código maduras com complexidade normal; ele aumentou a sua contribuição recentemente porque “achou interessante”, não porque “se tornou mais fácil”, considerando que, na essência, trata-se de uma mudança psicológica, sem diferenças substanciais no tempo gasto.