AI

Accelerate e AI: Usando Métricas DORA para Observar, Alinhar e Evoluir a Engenharia

O que aprendi liderando times pela adoção de AI

Algumas semanas atrás, um dos meus engenheiros disse algo em um 1:1 que ficou comigo.

“Estou usando AI todo dia. Mas não tenho certeza de que estamos realmente melhorando.”

Ele não estava reclamando. Estava sendo honesto. E tinha razão em questionar, porque o sentimento no time era misto. Algumas pessoas estavam mais rápidas. Outras sentiam que o chão tinha se movido embaixo delas. Tínhamos mais uso de AI do que nunca, mas os sinais de entrega não estavam claramente melhorando.

Essa conversa me forçou a fazer uma pergunta mais difícil: como eu sei de fato se a AI está ajudando meus times — e não apenas nos mantendo ocupados?

Não tinha uma boa resposta no começo. O que eu tinha era uma intuição de que as métricas em que eu já confiava — métricas DORA do Accelerate — poderiam me ajudar a ver o que realmente estava acontecendo. Então voltei a elas. Não como teoria. Como uma forma de parar de adivinhar e começar a observar.

O que eu vi quando parei de assumir

Nos meus times, a AI já tinha mudado como as pessoas trabalhavam. Engenheiros estavam usando agentes para planejamento, debugging, criação de testes, documentação. O fluxo de trabalho tinha mudado. Essa parte não estava em questão.

Mas a mudança era desigual. Algumas pessoas tinham reformulado toda a forma de trabalhar. Outras estavam copiando sugestões e editando até ficarem aceitáveis. Alguns tinham silenciosamente voltado a fazer as coisas manualmente porque o output da AI precisava de correção demais.

Percebi isso não porque alguém reportou, mas porque os números de entrega contavam uma história diferente das conversas. As pessoas diziam que a AI estava ajudando. As métricas estavam estagnadas.

Esse gap entre percepção e realidade é onde eu decidi ir a fundo.

Voltando ao DORA — não como teoria, mas como sinal

Voltei às quatro métricas DORA porque elas respondem a pergunta que eu realmente queria responder: estamos entregando valor rápido, com segurança e de forma sustentável?

MétricaO que me mostrou
Lead TimeQuanto tempo o trabalho ficava parado entre commit e produção
Deployment FrequencySe estávamos de fato entregando, ou apenas codando
Change Failure RateSe a velocidade estava custando estabilidade
Time to RestoreQuão rápido nos recuperávamos quando algo quebrava

O ponto não era fazer benchmark contra a indústria. Era observar a tendência nos meus próprios times. Se a AI estava genuinamente melhorando como trabalhávamos, eu deveria ver lead time caindo, frequência de deploy subindo, e taxa de falha não piorando.

DORA não me disse se meu time estava usando AI. Me disse se a AI estava tornando nosso sistema melhor.

Em várias conversas com outros managers, ouvi a mesma frustração: “Meu time está usando AI, mas não consigo dizer se está ajudando.” Esse é exatamente o gap que DORA preenche. Te dá algo observável para apontar em vez de ficar trocando impressões.

Na prática, nosso tracking DORA se parece com isso — cada métrica mapeada a um threshold que o time calibra junto:

Visão geral das métricas DORA — Lead Time, Deployment Frequency, Change Fail Percentage e Recovery Time rastreados no time

Tornando o invisível visível

A primeira coisa que aprendi é que sem métricas, toda conversa sobre AI vira opinião. “Estou lento.” “AI me ajuda.” “Estamos ocupados.” Isso são sentimentos. Eu precisava de sinais.

Começamos simples. Nada elaborado — apenas visibilidade suficiente para mover a conversa de impressões para padrões.

git log --pretty=format:'%h %ad %s' --date=short > commits.txt

A partir disso, conseguíamos ver lead time por pull request, frequência de deploy por semana e quem estava entregando o quê. A mudança em como as pessoas falavam sobre o trabalho foi quase imediata:

AntesDepois
“Estou lento”“Lead time aumentou nesse sprint”
“AI ajuda”“AI reduziu o ciclo médio em 20%”
“Estamos ocupados”“Não estamos entregando”

Essa mudança importou. Ninguém se sentiu culpado. As pessoas começaram a usar uma linguagem compartilhada sobre o que de fato estava acontecendo, e as retros ficaram mais afiadas porque tínhamos algo concreto para olhar em vez de discutir sobre percepções.

Consolidamos tudo em um dashboard único — velocidade de deploy, status de experimentos, snapshot DORA e padrões de contribuição em um lugar:

Dashboard do time mostrando snapshot DORA, velocidade de deploy, status de experimentos e principais contribuidores

A partir daí, eu podia mergulhar no Lead Time especificamente. O número agregado era útil, mas a tendência contava uma história melhor:

Lead Time for Changes — agregado semanal p50 em 1.2 dias, com tendência p99 ao longo do tempo

O valor real veio dos dados no nível de PR por baixo. Noventa e cinco PRs mergeados com repositório, lead time e categoria. Quando sentei com um engenheiro e abri essa visão, a conversa de coaching praticamente se conduziu sozinha:

Logs de PRs mostrando 95 PRs mergeados com repositório, lead time e categorização

Uma coisa que não esperava: separar o lead time por contexto fez uma diferença grande. Quando alguém estava ausente, os números disparavam — e tratar isso da mesma forma que o fluxo normal seria desonesto:

Lead Time em Away Mode — p50 em 19.9 horas, mostrando um padrão diferente do fluxo regular

Filtrar por serviços primários nos deu a visão mais limpa de onde o trabalho real de entrega estava:

Lead Time para aplicações e serviços primários — p50 em 1.5 dias nos repositórios principais

As pessoas estavam em estágios diferentes — e esse era o ponto

Quando eu tinha a visão do sistema, a próxima coisa que precisava era a visão humana.

Nem todos nos meus times estavam no mesmo lugar com AI. Um engenheiro já tinha migrado para fluxos multi-agentes via CLI e estava gerando pull requests em um ritmo que eu nunca tinha visto. Outro ainda era cauteloso, usando sugestões do Copilot mas revisando cada linha como se fosse código de um júnior. Os dois estavam sendo responsáveis. Os dois precisavam de suporte diferente.

Peguei os estágios de adoção de AI do Steve Yegge como forma de falar sobre isso sem que parecesse julgamento:

EstágioComo se parece nos meus times
1Curioso mas ainda não usando AI no dia a dia
2Usando agente na IDE, mas com as guard rails ativas
3Confiando mais no agente, aceitando sugestões com menos atrito
4AI é o fluxo padrão na IDE
5Trabalhando com um agente único via CLI
6Rodando fluxos multi-agentes pelo terminal
7Gerenciando muitos agentes, mas coordenando manualmente
8Construindo orquestradores customizados entre fluxos

No momento em que comecei a mapear meus engenheiros nesse espectro, a conversa mudou. Parou de ser sobre quem era “bom com AI” e passou a ser sobre onde cada pessoa precisava de suporte para avançar. Um manager com quem converso recentemente adotou o mesmo framing e me disse que foi a primeira vez que o time dele falou sobre adoção de AI sem parecer pressão.

O que acontece quando pessoas pulam etapas

Já vi isso dar errado — em outros times e, honestamente, em momentos iniciais nos meus.

Quando pressionei um dos meus times a começar a parear com fluxos multi-agentes antes de a maioria dos engenheiros ter sequer se acostumado com padrões de agente único, o feedback foi rápido e claro:

  • “Está caótico”
  • “Não confio no output”
  • “Está me deixando mais lento, não mais rápido”

Isso foi culpa minha. Eu tinha pulado etapas porque estava empolgado com o que era possível. O que aprendi é que adoção de AI segue a mesma regra de qualquer mudança significativa: confiança se constrói por pequenas vitórias, não por grandes mandatos. Os engenheiros que avançaram mais rápido foram os que tiveram tempo para experimentar, falhar em pequena escala e construir confiança no próprio ritmo.

O risco real não é adoção lenta. É adoção forçada que queima confiança.

Um manager com quem converso regularmente resumiu bem: “Parei de pedir pro meu time usar mais AI e comecei a perguntar o que ainda estava deixando eles lentos. A conversa sobre AI aconteceu naturalmente depois disso.”

Definindo objetivos que a gente conseguia enxergar

Quando eu tinha os sinais DORA e o mapa de adoção, consegui definir objetivos fundamentados no que era real — não metas aspiracionais tiradas de um deck de estratégia.

Organizei em torno de três coisas que importavam pros meus times:

Uso de AI — não mandatos, mas expectativas claras de crescimento:

  • Usar AI para planejamento, debugging e documentação como baseline
  • Aplicar testes assistidos por AI em pelo menos um fluxo por sprint
  • Entregar uma história completa por sprint com envolvimento significativo de agentes AI

Escrevi como objetivos SMART conectando o crescimento de cada pessoa à direção que estávamos seguindo:

Objetivo SMART: Usar AI como ferramenta prática de suporte para melhorar eficiência e qualidade no trabalho diário de engenharia

Objetivo SMART: Uso regular de ferramentas AI para exploração técnica, planejamento, debugging e documentação

Qualidade de entrega — nos mantendo honestos:

  • Cobertura de PR em 80% ou acima
  • Lead time abaixo de uma semana
  • Frequência de deploy semanal ou melhor

Esses se conectavam diretamente às mesmas métricas DORA que já estávamos rastreando, então não existia gap entre o objetivo e a medição:

Objetivo SMART: Garantir entregas de qualidade e eficientes através de cobertura de PR e métricas DORA

Colaboração — garantindo que o aprendizado não ficasse na cabeça de uma pessoa só:

  • Usar fluxos multi-agentes em pelo menos uma história por sprint
  • Rodar sessões de compartilhamento sobre o que estava funcionando
  • Reduzir lead time médio em 25% ao longo do trimestre

Estruturei essa dimensão como um OKR com key results mensuráveis, porque queria que o time fosse dono do resultado junto:

OKR: Acelerar entregas através de colaboração multi-agente com AI e key results mensuráveis

O que fez esses objetivos funcionarem é que cada um deles era observável. Dava para medir progresso, discutir na retro e ajustar sem que a conversa ficasse pessoal.

Desenvolvendo pessoas, não estágios

A tabela abaixo é como penso sobre onde focar quando alguém está pronto para avançar:

TransiçãoNo que eu foquei
Estágio 1 para 2Mostrar o que era possível — sessões de pareamento, demos, tarefas de baixo risco
Estágio 2 para 3Criar segurança — deixar experimentar sem pressão de performance
Estágio 3 para 4Construir ownership — dar um passo atrás e deixar a AI virar o padrão
Estágio 4 para 5Expandir escopo — introduzir agentes via CLI para tarefas mais amplas
Estágio 5 em dianteMultiplicar impacto — ensinar outros, construir workflows reutilizáveis

O engenheiro que mencionei no começo — aquele que disse “estou usando AI todo dia mas não sei se estamos melhorando” — estava no estágio 3. Era produtivo mas ainda não confiava no agente o suficiente para deixá-lo liderar. Três semanas depois da nossa conversa, com um objetivo mais claro e o parceiro de pareamento certo, ele migrou pro estágio 5. O lead time dele caiu visivelmente. Mais importante: ele começou a compartilhar o que funcionava com o resto do time.

Isso é o que me importa. Não frameworks. Não percentuais de adoção. Se as pessoas nos meus times estão aprendendo mais rápido e entregando com mais confiança.

O que ainda estou aprendendo

Não tenho isso resolvido. AI está mudando rápido o suficiente para que o que funciona hoje pode não funcionar em seis meses. Alguns dos meus objetivos provavelmente vão precisar ser reescritos. Algumas das minhas suposições sobre estágios vão se provar erradas.

Mas estou mais claro em uma coisa agora do que estava antes. Os times que estão melhorando não são os que estão adotando AI mais rápido. São os que conseguem ver o que está acontecendo, falar sobre isso com honestidade e ajustar sem perder velocidade ou confiança.

DORA me dá a visão do sistema. Os estágios me dão a visão humana. Juntos, substituíram palpite por algo em que eu consigo de fato agir.

Se você está liderando um time por essa mesma transição, a pergunta com que eu começaria não é “como usamos mais AI?” É mais simples e mais honesta: o que está realmente acontecendo no seu time agora — e como você sabe?