A integração da inteligência artificial ao ciclo de desenvolvimento de software deixou de ser experimental e passou a ser obrigatória. De gigantes do Vale do Silício como Google e OpenAI a uma frota de startups especializadas, a promessa é uniforme: agentes de IA para codificação vão dissolver o atrito da sintaxe e do código repetitivo, permitindo que engenheiros se concentrem em problemas de ordem superior. No entanto, essa adoção acelerada gerou uma nova ortodoxia centrada no uso — quantas licenças estão ativas, quantas linhas de código estão sendo geradas — e não no valor real do que é produzido.

Para VPs de Engenharia, esse foco em atividade cria uma ilusão sedutora, mas perigosa, de progresso. Medir "linhas de código" é uma métrica há muito desacreditada na engenharia de software, mas a era da IA a ressuscitou sob o disfarce de eficiência. Quando fornecedores exibem altas taxas de adoção, frequentemente obscurecem uma falta fundamental de clareza sobre se essas ferramentas estão de fato acelerando a entrega de produtos ou apenas inflando a base de código.

A pergunta que os fornecedores de IA menos querem responder diz respeito à saúde de longo prazo dos sistemas que estão sendo construídos. Se um agente de IA gera mil linhas de código em segundos, mas esse código exige depuração extensiva ou introduz falhas arquiteturais sutis, o ganho líquido é negativo. Sem uma mudança em direção à mensuração de resultados — como velocidade de entrega de funcionalidades ou redução de débito técnico — organizações correm o risco de gastar milhões em ferramentas que produzem mais ruído do que sinal.

Com reportagem de The Next Web.

Source · The Next Web