Projeção da avaliação - Adaptada
Objetivo
Esta seção tem como objetivo estruturar o planejamento da avaliação da usabilidade da API do sistema AgroMart, implementada com o CMS Strapi. A mudança de escopo foi necessária devido à indisponibilidade do aplicativo mobile original, que foi removido da Play Store e apresenta erros críticos ao ser executado localmente, impossibilitando sua análise. Diante desse cenário, a equipe decidiu focar a avaliação na API pública, que permanece ativa e representa o núcleo funcional da aplicação.
A avaliação seguirá a abordagem GQM (Goal-Question-Metric), com foco exclusivo na usabilidade da API, especialmente do ponto de vista de desenvolvedores que possam vir a integrá-la em aplicações futuras.
Questões, Métricas e Estratégias de Avaliação
Q1: A documentação da API é clara e compreensível?
-
Métrica: Grau de compreensão da documentação.
Avaliação: Entrevista com desenvolvedores que tentaram consumir a API, utilizando uma escala de 1 (incompreensível) a 5 (muito clara). -
Métrica: Dificuldade percebida para encontrar o endpoint correto.
Avaliação: Durante a entrevista, o participante relata se encontrou dificuldades para identificar a rota certa para uma tarefa simples (ex: realizar cadastro). -
Métrica: Tempo estimado para realizar uma requisição básica (ex: GET de produtos)
Avaliação: Perguntar ao entrevistado quanto tempo levou ou levaria para fazer uma requisição com base na documentação da API.
Q2: A API fornece respostas úteis e compreensíveis para quem a consome?
-
Métrica: Clareza das mensagens de erro. Avaliação: Durante a entrevista, apresentar uma ou duas mensagens reais retornadas pela API (ex: erro 400, erro de autenticação) e solicitar que o participante avalie de 1 (nada clara) a 5 (muito clara), explicando o que entendeu da mensagem.
-
Métrica: Capacidade de identificar e corrigir um erro a partir da resposta da API. Avaliação: Perguntar se, ao se deparar com um erro durante o uso da API, o participante se sentiria apto a entender o que causou o problema e como resolver, com base apenas na resposta da API.
-
Métrica: Percepção geral sobre a facilidade de integração com a API.
Avaliação: Solicitar ao participante que classifique sua experiência geral com a API em termos de clareza, retorno de informações e dificuldade de integração, numa escala de 1 a 5, justificando sua nota.
Etapas do Processo de Avaliação
1. Definição do Escopo
Avaliação básica de usabilidade da API, baseada em entrevistas qualitativas com no mínimo 3 desenvolvedores/testadores.
2. Preparação dos Instrumentos
- Roteiro com perguntas abertas e escalas de avaliação (1 a 5).
- Conjunto de exemplos de chamadas e mensagens reais da API.
- Formulário para anotações manuais (Google Forms ou planilha).
3. Seleção dos Participantes
- Perfil: estudantes de TI ou desenvolvedores júnior com noções básicas de API REST.
- Quantidade: no mínimo 3 desenvolvedores.
- Consentimento verbal ou assinado para coleta de opinião.
4. Execução das Entrevistas
- Entrevista guiada de até 20 minutos
- Apresentação da documentação e endpoints
- Perguntas sobre clareza, facilidade e entendimento
5. Análise dos Dados
- Consolidação das respostas em tabela
- Cálculo da média das notas e identificação de padrões nas respostas abertas
6. Recomendações
- Listagem dos pontos de melhoria mais citados
- Sugestões para clareza, estrutura ou conteúdo da documentação
Ferramentas e Técnicas Utilizadas
- Gravação de áudio ou vídeo: Gravador do Windows, celular ou ferramenta online (com consentimento).
- Planilhas Google ou Excel: para tabulação das respostas das entrevistas.
- Google Forms: para coleta das respostas quantitativas (escalas de 1 a 5) e qualitativas (respostas abertas).
- Documentação da API (Strapi): base para análise de clareza e compreensão.
- Exemplos de requisições e erros: para discussão durante a entrevista (ex: mensagens de erro reais, chamadas GET/POST).
- Roteiro de entrevista: guia com perguntas fechadas e abertas sobre a experiência do desenvolvedor.
Fluxo Resumido da Avaliação
Etapas:
-
Definição das métricas
Estabelecimento das questões-chave e suas respectivas métricas avaliáveis por entrevista. -
Preparação dos instrumentos
Elaboração do roteiro de entrevista, seleção de exemplos reais da API, e construção do formulário de coleta. -
Seleção dos participantes
Escolha de no mínimo 3 desenvolvedores ou estudantes com perfil técnico básico. -
Execução das sessões
Realização de entrevistas individuais com apresentação da API, discussão dos exemplos e coleta de respostas. -
Coleta de dados
Registro das respostas nas planilhas e formulários. -
Análise quantitativa e qualitativa
Cálculo de médias das notas atribuídas e agrupamento das opiniões mais recorrentes. -
Classificação e diagnóstico
Identificação de pontos fortes e fracos da API com base nas métricas e depoimentos. -
Recomendações de melhoria
Proposição de ajustes na documentação, estrutura de resposta ou exemplos fornecidos, com base nas evidências coletadas.
Cronograma Previsto
Etapa | Responsável | Data prevista |
---|---|---|
Definição das métricas e reformulação do escopo para avaliação da API | Mayara Alves | 06/07/2025 |
Elaboração do roteiro de entrevista e seleção dos exemplos da API | Mayara Alves e Philipe Barbosa | 06/07/2025 |
Execução das entrevistas com no mínimo 3 participantes | Equipe | 07/07/2025 |
Coleta e registro das respostas (planilhas/forms) | Felipe Souto, Felipe Pedroza e Vinicius Mendes | 07/07/2025 |
Análise das respostas, cálculo das médias e síntese dos comentários qualitativos | Mayara Alves e Philipe Barbosa | 07/07/2025 |
Consolidação dos resultados e proposição de melhorias para a API | Felipe Souto, Felipe Pedroza e Vinicius Mendes | 07/07/2025 |
Finalização e entrega da projeção da avaliação + recomendações em formato Markdown | Equipe | 08/07/2025 |
📑 Histórico de Versão
Versão | Data | Descrição | Autor |
---|---|---|---|
1.0 |
06/07/2025 | Criação da página de Projeção da Avaliação de usabilidade | Mayara Alves |