Visão geral da avaliação do desempenho de apps

Este documento ajuda a identificar e corrigir os principais problemas de desempenho do seu app.

Principais problemas de desempenho

Há muitos problemas que podem contribuir para o desempenho ruim em um app. Confira alguns problemas comuns:

Latência de inicialização

A latência de inicialização é o tempo decorrido entre o toque no ícone do app, na notificação ou em outro ponto de entrada e a exibição dos dados do usuário na tela.

Estas são as metas de inicialização recomendadas para seus apps:

  • Inicialização a frio em menos de 500 ms. Uma inicialização a frio ocorre quando o app que está sendo iniciado não está presente na memória do sistema. Isso acontece quando é a primeira inicialização do app desde a reinicialização ou desde quando o processo do app foi interrompido pelo usuário ou pelo sistema.

    Por outro lado, uma inicialização com estado salvo ocorre quando o app já está sendo executado em segundo plano. Uma inicialização a frio exige o máximo de trabalho do sistema, já que ela precisa carregar tudo do armazenamento e inicializar o app. Tente programar a inicialização a frio com uma duração de até 500 ms.

  • Latências P95 e P99 muito próximas à latência mediana. Quando o app demora muito para iniciar, ele prejudica a experiência do usuário. As comunicações entre processos (IPCs) e a E/S desnecessária durante o caminho crítico de inicialização do app podem enfrentar contenção de bloqueios e introduzir inconsistências.

Instabilidade de rolagem

Instabilidade é o termo que descreve o problema visual que ocorre quando o sistema não consegue criar e fornecer frames a tempo de direcioná-los à tela na cadência solicitada de 60 hz ou mais. A instabilidade é mais aparente na rolagem, quando, em vez de um fluxo animado suave, podem ocorrer falhas. Ela aparece quando o movimento é pausado ao longo do caminho por um ou mais frames, já que o app leva mais tempo para renderizar conteúdo do que a duração de um frame no sistema.

O valor de taxas de atualização do app precisa ser de 90 hz. As taxas de renderização convencionais são de 60 hz, mas muitos dispositivos mais recentes operam no modo 90 hz durante interações do usuário, como a rolagem. Alguns dispositivos oferecem suporte a taxas ainda mais altas de até 120 hz.

Para conferir a taxa de atualização usada por um dispositivo em um determinado momento, ative uma sobreposição em Opções do desenvolvedor > Mostrar taxa de atualização na seção Depuração.

Transições instáveis

Isso é aparente durante interações, como ao alternar entre guias ou carregar uma nova atividade. Esses tipos de transição precisam ter animação suave, sem incluir atrasos ou oscilação visual.

Ineficiências de energia

Atividades reduzem a carga da bateria, e ações desnecessárias reduzem a duração.

As alocações de memória, provenientes da criação de novos objetos no código, podem ser o motivo de uma atividade significativa no sistema. Isso ocorre não só porque as alocações exigem esforço do Android Runtime (ART), mas liberar esses objetos mais tarde (na coleta de lixo) também exige tempo e esforço. A alocação e a coleta são muito mais rápidas e eficientes, principalmente para objetos temporários. Alocar objetos sempre que possível era uma prática recomendada, mas agora sugerimos seguir o que fizer mais sentido para seu app e sua arquitetura. Salvar em alocações com o risco de um código sem manutenção não é a prática recomendada, considerando os recursos do ART.

No entanto, isso exige esforço. Portanto, lembre-se de que isso poderá contribuir para problemas de desempenho se você estiver alocando muitos objetos no loop interno.

Identificar problemas

Recomendamos o fluxo de trabalho a seguir para identificar e corrigir problemas de desempenho:

  1. Identifique e inspecione as seguintes jornadas ideais do usuário:
    • Fluxos de inicialização comuns, incluindo os da tela de início e notificação.
    • Telas em que o usuário rola os dados.
    • Transições entre telas.
    • Fluxos de longa duração, como navegação ou reprodução de música.
  2. Inspecione o que está acontecendo durante os fluxos anteriores usando as seguintes ferramentas de depuração:
    • Perfetto: permite conferir o que está acontecendo em todo o dispositivo com dados de tempo precisos.
    • Memory Profiler: permite conferir quais alocações de memória estão acontecendo no heap.
    • Simpleperf: mostra um diagrama das chamadas de função que usam mais CPU durante um determinado período. Quando você identifica algo que está demorando muito no Systrace, mas não sabe o motivo, o Simpleperf pode fornecer mais informações.

Para entender e depurar esses problemas de desempenho, é fundamental depurar manualmente as execuções de teste individuais. Não é possível substituir as etapas anteriores analisando dados agregados. No entanto, para entender o que é realmente mostrado aos usuários e identificar quando podem ocorrer regressões, é importante configurar a coleta de métricas em testes automatizados e de campo:

  • Fluxos de inicialização
  • Instabilidade
    • Métricas de campo
      • Frames vitais no Play Console: não é possível restringir as métricas a uma jornada do usuário específica no Play Console. Ele só relata a instabilidade geral do app.
      • Medição personalizada com FrameMetricsAggregator: é possível usar FrameMetricsAggregator para registrar métricas de instabilidade durante um fluxo de trabalho específico.
    • Testes de laboratório
      • Rolagem com a biblioteca Macrobenchmark.
      • A biblioteca Macrobenchmark coleta o tempo para a renderização do frame usando os comandos dumpsys gfxinfo que formam uma única jornada do usuário. Essa é uma maneira de entender a variação na instabilidade em uma jornada específica. As métricas RenderTime, que destacam o tempo que os frames estão demorando para carregar, são mais importantes que a contagem de frames instáveis para identificar regressões ou melhorias.

Os Links do app são links diretos baseados no URL do site que são verificados como pertencentes ao site. Confira a seguir os motivos que podem causar falhas nas verificações do App Link.

  • Escopos de filtro de intent: adicione autoVerify apenas a filtros de intent para URLs que o app pode responder.
  • Mudanças de protocolo não verificadas: redirecionamentos de subdomínio e do lado do servidor não verificados são considerados riscos de segurança e falham na verificação. Eles fazem com que todos os links autoVerify falhem. Por exemplo, redirecionar links de HTTP para HTTPS, como example.com para www.example.com, sem verificar os links HTTPS pode fazer com que a verificação falhe. Verifique os links de app adicionando filtros de intent.
  • Links não verificáveis: adicionar links não verificáveis para fins de teste pode fazer com que o sistema não verifique os links do app.
  • Servidores não confiáveis: verifique se os servidores podem se conectar aos apps cliente.

Configurar o app para análise de desempenho

É essencial fazer a configuração correta para conseguir comparações precisas, repetíveis e acionáveis de um app. Faça o teste em um sistema o mais próximo possível da produção, suprimindo fontes de ruído. As próximas seções mostram uma série de etapas específicas do APK e do sistema que você pode seguir para preparar uma configuração de teste. Algumas delas são específicas para determinados caso de uso.

Pontos de rastreamento

Os apps podem instrumentar o código com eventos de rastreamento personalizados.

Enquanto os rastros estão sendo capturados, o rastreamento incorre em uma pequena sobrecarga (aproximadamente 5 μs) por seção. Portanto, não o coloque em cada método. O rastreamento de blocos de trabalho maiores de mais de 0,1 ms pode fornecer insights significativos sobre gargalos.

Considerações sobre o APK

As variantes de depuração podem ser úteis para solucionar problemas e simbolizar amostras de pilha, mas têm impactos graves no desempenho. Dispositivos com o Android 10 (nível 29 da API) e mais recentes podem usar profileable android:shell="true" no manifesto para ativar a criação de perfis em builds de lançamento.

Use sua configuração de redução de código no nível da produção. Dependendo dos recursos usados pelo app, isso pode ter um impacto significativo no desempenho. Algumas configurações do ProGuard removem pontos de rastreamento. Por isso, considere remover essas regras para a configuração em que os testes serão feitos.

Compilação

Compile seu app no dispositivo para um estado conhecido, geralmente speed para simplicidade ou speed-profile para corresponder mais de perto ao desempenho de produção (embora isso exija aquecer o aplicativo e despejar perfis ou compilar os perfis de referência do app).

Tanto speed quanto speed-profile reduzem a quantidade de código executado interpretado pelo dex e, consequentemente, a quantidade de compilação just-in-time (JIT) em segundo plano, que pode causar interferência significativa. Somente speed-profile reduz o impacto do carregamento de classe de execução do dex.

O comando a seguir compila o aplicativo usando o modo speed:

adb shell cmd package compile -m speed -f com.example.packagename

O modo de compilação speed compila os métodos do app completamente. O modo speed-profile compila os métodos e as classes do app de acordo com um perfil dos caminhos de código utilizados, que é coletado durante o uso do app. Pode ser difícil coletar perfis de forma consistente e correta. Portanto, se você optar por usá-los, confirme se estão coletando o que você espera. Os perfis ficam neste local:

/data/misc/profiles/ref/[package-name]/primary.prof

Considerações do sistema

Para medidas de baixo nível e alta fidelidade, calibre seus dispositivos. Execute comparações A/B no mesmo dispositivo e na mesma versão do SO. Podem existir variações significativas no desempenho, mesmo em dispositivos do mesmo tipo.

Em dispositivos com acesso root, use um script lockClocks para microcomparativos. Entre outras coisas, esses scripts podem fazer o seguinte:

  • colocar CPUs com uma frequência fixa;
  • desativar núcleos pequenos e configurar a GPU;
  • desativar a limitação térmica.

Não recomendamos o uso de um script lockClocks para testes focados na experiência do usuário, como inicialização do app, testes DoU e testes de instabilidade, mas ele pode ser essencial para reduzir o ruído em testes de Microbenchmark.

Sempre que possível, use um framework de teste como o Macrobenchmark, que pode reduzir o ruído nas medições e evitar imprecisão delas.

Inicialização lenta do app: atividade trampolim desnecessária

Uma atividade trampolim pode estender o tempo de inicialização do app desnecessariamente, e é importante saber se o app está fazendo isso. Conforme mostrado no exemplo de rastro abaixo, uma activityStart é imediatamente seguido por outra activityStart, sem que nenhum frame seja renderizado pela primeira atividade.

alt_text Figura 1. Um rastro mostrando uma atividade trampolim.

Isso pode acontecer em um ponto de entrada de notificação ou em um ponto de entrada normal de inicialização do app, e muitas vezes é possível resolver o problema com a refatoração. Por exemplo, se você estiver usando essa atividade para fazer a configuração antes de executar outra atividade, fatore o código em um componente ou biblioteca reutilizável.

Alocações desnecessárias acionam GCs frequentes

Coletas de lixo (GCs, na sigla em inglês) podem acontecer com mais frequência que o esperado em um Systrace.

No exemplo abaixo, cada 10 segundos durante uma operação de longa duração são um indicador de que o app pode estar alocando de forma desnecessária, mas consistente ao longo do tempo:

alt_text Figura 2. Um rastro mostrando espaço entre eventos de GC.

Ao usar o Memory Profiler, você também pode notar que uma pilha de chamadas específica está fazendo a grande maioria das alocações. Você não precisa eliminar todas as alocações de forma agressiva, já que isso pode dificultar a manutenção do código. Em vez disso, comece trabalhando em pontos de acesso de alocações.

Frames com instabilidade

O pipeline de gráficos é relativamente complicado, e pode haver algumas nuances para determinar se um usuário pode perceber um frame descartado. Em alguns casos, a plataforma pode "resgatar" um frame usando armazenamento em buffer. No entanto, você pode ignorar a maior parte dessas nuances para identificar facilmente frames problemáticos da perspectiva do app.

Quando os frames estão sendo exibidos com pouco trabalho do app, os pontos de rastreamento Choreographer.doFrame() ocorrem em uma cadência de 16,7 ms em um dispositivo de 60 QPS:

alt_text Figura 3. Um rastro mostrando frames frequentes.

Se você diminuir o zoom e navegar pelo rastro, vai notar que os frames demoram um pouco para serem concluídos, mas tudo bem, porque eles não estão levando mais que 16,7 ms:

alt_text Figura 4. Um rastro mostrando frames rápidos frequentes com bursts de trabalho periódicos.

Quando há uma interrupção nessa cadência regular, o problema é um frame instável, como mostrado na Figura 5:

alt_text Figura 5. Um rastro mostrando um frame instável.

Pratique a identificação deles.

alt_text Figura 6. Um rastro mostrando mais frames instáveis.

Em alguns casos, você precisa aumentar o zoom em um ponto de rastreamento para conferir mais informações sobre quais visualizações estão infladas ou o que RecyclerView está fazendo. Em outros, pode ser necessário inspecionar mais.

Para saber mais sobre como identificar frames instáveis e depurar os motivos, consulte Renderização lenta.

Erros comuns do RecyclerView

Invalidar todos os dados de apoio de RecyclerView desnecessariamente pode levar a instabilidade e longos tempos de renderização de frame. Em vez disso, para minimizar o número de visualizações que precisam ser atualizadas, invalide apenas os dados que mudam.

Consulte Apresentar dados dinâmicos para aprender a evitar chamadas caras de notifyDatasetChanged(), o que faz com que o conteúdo seja atualizado em vez de totalmente substituído.

Se você não oferecer suporte a cada RecyclerView aninhado corretamente, o RecyclerView interno poderá ser totalmente recriado todas as vezes. Cada RecyclerView interno aninhado precisa ter um RecycledViewPool definido para garantir que as visualizações possam ser recicladas entre cada RecyclerView interno.

Não fazer a pré-busca de dados suficientes ou não fazer a pré-busca em tempo hábil pode tornar o acesso ao fim de uma lista de rolagem desagradável quando o usuário precisa esperar mais dados do servidor. Embora isso não seja tecnicamente uma instabilidade, já que nenhum prazo de frame está sendo perdido, é possível melhorar significativamente a UX modificando o tempo e a quantidade de pré-busca para que o usuário não tenha que esperar os dados.

Depurar seu app

Confira a seguir diferentes métodos para depurar o desempenho do app. Assista ao vídeo a seguir para ter uma visão geral do rastreamento do sistema e do uso do profiler do Android Studio.

Depurar a inicialização do app com o Systrace

Consulte Tempo de inicialização do app para ter uma visão geral do processo de inicialização do app e assista ao vídeo a seguir para ter uma visão geral do rastreamento do sistema.

É possível resolver a ambiguidade dos tipos de inicialização nas seguintes etapas:

  • Inicialização a frio: comece criando um novo processo sem estado salvo.
  • Inicialização com estado salvo: recria a atividade ao reutilizar o processo ou recria o processo com o estado salvo.
  • Hot startup: reinicia a atividade e começa na inflação.

Recomendamos capturar Systraces com o app de rastreamento do sistema no dispositivo. No Android 10 e versões mais recentes, use o Perfetto. Para o Android 9 e versões anteriores, use o Systrace. Também recomendamos visualizar arquivos de rastro com o visualizador de rastros do Perfetto baseado na Web. Para mais informações, consulte Visão geral do rastreamento do sistema.

Confira o que procurar:

  • Contenção de monitor: a concorrência por recursos protegidos pelo monitor pode introduzir um atraso significativo na inicialização do app.
  • Transações de binder síncronas: procure transações desnecessárias no caminho crítico do app. Se uma transação necessária for cara, considere trabalhar com a equipe da plataforma associada para fazer melhorias.

  • Coleta de lixo simultânea: isso é comum e tem impacto relativamente baixo. No entanto, se ela estiver acontecendo com frequência, investigue-a com o Memory Profiler do Android Studio.

  • E/S: confira se a E/S foi realizada durante a inicialização e procure paradas longas.

  • Atividade significativa em outras linhas de execução: elas podem interferir na linha de execução da interface. Portanto, preste atenção no trabalho em segundo plano durante a inicialização.

Recomendamos que você chame reportFullyDrawn quando a inicialização for concluída do ponto de vista do app para melhorar os relatórios de métricas de inicialização do app. Consulte a seção Tempo para exibição completa para mais informações sobre o uso de reportFullyDrawn. É possível extrair os horários de início definidos pelo RFD pelo processador de rastros do Perfetto, e um evento de rastro visível para o usuário é emitido.

Usar o rastreamento do sistema no dispositivo

Você pode usar o app System Tracing para capturar um rastro do sistema em um dispositivo. Esse app permite gravar rastros do dispositivo sem precisar conectá-lo ou conectar ao adb.

Usar o Memory Profiler do Android Studio

É possível usar o Memory Profiler do Android Studio para inspecionar a pressão da memória que pode ser causada por vazamentos de memória ou padrões de uso inadequados. Ele oferece uma visualização ao vivo das alocações de objetos.

Para corrigir problemas de memória no app, siga as informações do Memory Profiler para acompanhar o motivo e a frequência das GCs.

Para criar um perfil da memória do app, siga estas etapas:

  1. Detectar problemas de memória.

    Grave uma sessão de criação de perfil de memória da jornada do usuário em que você quer se concentrar. Procure uma contagem de objetos crescente, como mostrado na Figura 7, que eventualmente leva a GCs, como mostrado na Figura 8.

    alt_text Figura 7. Contagem de objetos crescente.

    alt_text Figura 8. Coletas de lixo.

    Depois de identificar a jornada do usuário que está aumentando a pressão sobre a memória, analise as causas raiz da pressão.

  2. Diagnosticar pontos de acesso de pressão sobre a memória.

    Selecione um intervalo na linha do tempo para visualizar as alocações e o tamanho superficial, conforme mostrado na Figura 9.

    alt_text Figura 9. Valores para Alocações e Tamanho superficial.

    Há várias maneiras de ordenar esses dados. Confira a seguir alguns exemplos de como cada visualização pode ajudar você a analisar problemas.

    • Organizar por classe: é útil quando você quer encontrar classes que estão gerando objetos que seriam armazenados em cache ou reutilizados de um pool de memória.

      Por exemplo, se um app criar 2.000 objetos de classe chamados "Vertex" a cada segundo, a contagem de alocações vai aumentar em 2.000 a cada segundo, e você vai notar isso ao classificar por classe. Se você quiser reutilizar esses objetos para evitar a geração de lixo, implemente um pool de memória.

    • Organizar por pilha de chamadas: útil quando você quer encontrar onde há um caminho quente em que a memória está sendo alocada, como dentro de um loop ou de uma função específica que realiza grande parte da alocação.

    • Shallow Size: rastreia apenas a memória do próprio objeto. Ele é útil para rastrear classes simples compostas principalmente de valores primitivos.

    • Tamanho retido: mostra a memória total devido ao objeto e as referências que são referenciadas apenas pelo objeto. Ele é útil para rastrear a pressão sobre a memória causada por objetos complexos. Para conseguir esse valor, faça um despejo de memória completo, conforme mostrado na Figura 10, e o Tamanho retido é adicionado como uma coluna, conforme mostrado na Figura 11.

      alt_text Figura 10. Despejo de memória completo.

      Coluna "Retained Size".
      Figura 11. Coluna "Retained Size".
  3. Medir o impacto de uma otimização.

    As GCs são mais evidentes e mais fáceis de medir o impacto das otimizações de memória. Quando uma otimização reduz a pressão sobre a memória, você vê menos GCs.

    Para medir o impacto da otimização, na linha do tempo do Profiler, meça o tempo entre as GCs. Você pode notar que o tempo entre as GCs está mais longo.

    Confira os impactos finais das melhorias de memória:

    • As desligamentos por falta de memória provavelmente serão reduzidos se o app não atingir constantemente a pressão da memória.
    • A redução de GCs melhora as métricas de instabilidade, especialmente no P99. Isso ocorre porque as GCs causam contenção de CPU, o que pode adiar tarefas de renderização durante a GC.