Skip to content

Fase 3 - Plano de Avaliação

1. Fonte dos Dados

  • Logs de erro do sistema para as métricas de Performance
  • Resultado de testes automatizados e manuais para ambas métricas
  • Ferramentas de análise estática de código para as métricas de Performance
  • Ferramentas de análise de performance

2. Técnicas de Coleta

  • Execução de testes automatizados e inspeção de resultados para as métricas de Performance
  • Testes manuais simulando fluxos de uso do consumidor e agricultor para as métricas de Usabilidade
  • Análise com ferramentas como Lighthouse e WebPageTest para as métricas de Performance
  • Avaliação da interface de acordo com a legibilidade em geral para as métricas de Usabilidade

3. Responsáveis

Tarefas Responsável
Testes funcionais e automatizados Mateus Bastos
Avaliação de usabilidade Rafael Kenji
Análise de desempenho Rafael Matuda
Coleta de dados de segurança Catlen Cleane
Organização dos dados Luiza Maluf

4. Cronograma

Atividade Data Limite Responsável
Execução dos testes 03/07 Mateus Bastos
Avaliação de usabilidade 04/07 Rafael Kenji
Coleta de métricas de segurança 05/07 Catlen Cleane
Testes de performance e eficiência 06/07 Rafael Matuda
Consolidação dos dados da avaliação 07/07 Luiza Maluf

5. Ferramentas Utilizadas

  • Postman – para testes de API
  • Lighthouse / WebPageTest – para avaliação de performance para as métricas de Performance
  • ESLint / SonarQube – para inspeção de código para as métricas de Performance
  • GitHub Projects / Issues / Commits – para registro das atividades e progresso

6. Forma de Documentação

  • Planilha de métricas (.ods/.xlsx) para as métricas de Usabilidade
  • Documentação em docs/ no repositório GitHub
  • Slides com resumo da avaliação e gráficos de desempenho
  • Tabela de critérios + valores reais + julgamentos em todas as métricas
  • Proposta de ação de melhoria ancorada nos dados coletados

7. Mapeamento Objetivo-Métrica

Objetivo Estratégico Métrica Avaliada
Assegurar desempenho eficiente e escalável da aplicação - Tempo de resposta (ms)
- Número médio de requisições por segundo (RPS)
- Latência média das requisições
- Taxa de respostas 2xx vs não-2xx
- FCP, LCP, TBT (indicadores de performance front-end)
- Gargalos de cache/JS e consumo de recursos
Garantir experiência de uso acessível, responsiva e confiável - M1 a M6 (visibilidade, feedback, responsividade, acessibilidade)
- Avaliação heurística e testes manuais
Aumentar a confiabilidade e estabilidade do sistema sob demanda - Logs de erro
- Taxa de falhas críticas (%)
- Taxa de respostas de erro (HTTP 4xx, 5xx)
Fortalecer a qualidade estrutural do código - Relatórios do ESLint / SonarQube
- Identificação de erros lógicos e uso ineficiente de recursos
Aumentar a cobertura e efetividade dos testes - Cobertura de testes (%)
- % de funcionalidades testadas com sucesso (via Jest / Vitest ou testes manuais)

8. Critérios de Aceitação

Métrica Excelente Aceitável Ruim
Tempo de resposta (ms) < 500 500–1000 > 1000
Taxa de falhas críticas (%) < 1% 1%–3% > 3%
Cobertura de testes (%) > 90% 70%–90% < 70%

Histórico de versão

Versão Descrição Responsável Revisor Data de Revisão
1.0 Documentação do planejamento Luiza Maluf Mateus Bastos 08/07/2025
1.1 Atualização do planejamento Rafael Kenji Mateus Bastos, Luiza Maluf 08/07/2025