Análise de qualidade de software do Mozilla Firefox com foco em Eficiência e Portabilidade.
View the Project on GitHub FCTE-Qualidade-de-Software-1/2025-2_T02_JEAN-SAMMET
O objetivo desta fase é definir objetivos de medição e estabelecer métricas para avaliar a qualidade do Mozilla Firefox, utilizando a abordagem GQM, que conecta metas de alto nível a métricas de avaliação. Os objetivos serão fundamentados nas prioridades identificadas na Fase 1, com foco em Eficiência de Desempenho e Portabilidade, considerando os diversos pontos de vista e o contexto de uso em diferentes plataformas e dispositivos.
| Analisar | Navegador FireFox |
| Do propósito de | Avaliar |
| Com respeito a | Eficiência de desempenho |
| Do ponto de vista do | Time de desenvolvimento |
| No contexto da | Disciplina de Qualidade de Software |
Questão 1.1: O Firefox oferece uma navegação rápida e responsiva, atendendo às expectativas do usuário final? (Referente às Partes Interessadas - Usuários)
Questão 1.2: O Firefox mantém desempenho estável e consistente entre diferentes sistemas operacionais e dispositivos? (Referente à Subcaracterística - Uso de Recursos e Tempo de Resposta)
| Analisar | Navegador FireFox |
| Do propósito de | Avaliar |
| Com respeito a | Portabilidade |
| Do ponto de vista do | Time de desenvolvimento |
| No contexto da | Disciplina de Qualidade de Software |
Questão 2.1: O Firefox mantém suas principais funcionalidades e qualidade de uso de forma consistente em diferentes plataformas e dispositivos?
Questão 2.2: O Firefox adapta corretamente sua interface e experiência de uso em diferentes dispositivos?
Para responder às questões da Portabilidade e validar as hipóteses, foram selecionadas as seguintes métricas quantitativas e qualitativas, alinhadas com a metodologia GQM.
As métricas de portabilidade avaliam a subcaracterística de Adaptabilidade.
Para garantir uma avaliação justa e precisa, os critérios de pontuação foram definidos considerando as limitações e capacidades de cada plataforma. Enquanto as métricas de tempo de resposta (LCP) e conformidade funcional (Portabilidade) possuem critérios universais — pois a expectativa do usuário é a mesma independente do dispositivo —, as métricas de consumo de recursos (RAM) e desempenho bruto (Benchmarks) possuem escalas adaptadas para diferenciar ambientes Desktop (alta capacidade energética e de hardware) de ambientes Mobile (foco em eficiência energética e arquitetura ARM).
Abaixo estão as escalas de pontuação para todas as métricas definidas:
| Nível | Pontuação | Desktop (Windows/Linux/macOS) | Mobile (Android) |
|---|---|---|---|
| Excelente | 4 | ≤ 393 MB | ≤ 250 MB |
| Bom | 3 | 393 MB – 1.0 GB | 251 MB – 400 MB |
| Regular | 2 | 1.01 GB – 2.0 GB | 401 MB – 600 MB |
| Insatisfatório | 1 | > 2.0 GB | > 600 MB |
| Nível | Pontuação | Tempo (Todos os ambientes) |
|---|---|---|
| Excelente | 4 | ≤ 2.0 s |
| Bom | 3 | 2.1 s – 3.0 s |
| Regular | 2 | 3.1 s – 4.0 s |
| Insatisfatório | 1 | > 4.0 s |
Speedometer 3.0
| Nível | Pontuação | Desktop | Mobile |
|---|---|---|---|
| Excelente | 4 | ≥ 15.0 | ≥ 4.0 |
| Bom | 3 | 10.0 – 14.9 | 2.5 – 3.9 |
| Regular | 2 | 5.0 – 9.9 | 1.5 – 2.4 |
| Insatisfatório | 1 | < 5.0 | < 1.5 |
JetStream 2
| Nível | Pontuação | Desktop | Mobile |
|---|---|---|---|
| Excelente | 4 | ≥ 160 | ≥ 90 |
| Bom | 3 | 120 – 159 | 60 – 89 |
| Regular | 2 | 80 – 119 | 40 – 59 |
| Insatisfatório | 1 | < 80 | < 40 |
| Nível | Pontuação | Variação (CV %) |
|---|---|---|
| Excelente | 4 | ≤ 10 % |
| Bom | 3 | 11 % – 15 % |
| Regular | 2 | 16 % – 20 % |
| Insatisfatório | 1 | > 20 % |
| Nível | Pontuação | Cobertura Funcional |
|---|---|---|
| Excelente | 4 | 100 % |
| Bom | 3 | 95 % – 99 % |
| Regular | 2 | 85 % – 94 % |
| Insatisfatório | 1 | < 85 % |
| Nível | Pontuação | Conformidade (Checklist) |
|---|---|---|
| Excelente | 4 | ≥ 95 % |
| Bom | 3 | 85 % – 94 % |
| Regular | 2 | 70 % – 84 % |
| Insatisfatório | 1 | < 70 % |
Cada métrica (M1.1 até M2.2) utiliza uma escala de 1 a 4 definida na Seção 3:
| Pontuação | Nível Qualitativo | Interpretação |
|---|---|---|
| 4 | Excelente | Supera ou iguala os valores-alvo, alta conformidade. |
| 3 | Bom | Atende satisfatoriamente aos critérios. |
| 2 | Regular | Abaixo do esperado, com limitações. |
| 1 | Insatisfatório | Não atende aos critérios mínimos. |
Para cada característica, calcula-se a média ponderada das métricas:
[ IQ_c = \frac{\sum (P_i \times w_i)}{\sum w_i} ]
O Índice de Qualidade por Característica (IQc) e o Índice Global de Qualidade (IQG) são interpretados conforme a tabela:
| Intervalo | Nível | Interpretação |
|---|---|---|
| 3,5 – 4,0 | Excelente | Desempenho e portabilidade excelentes. |
| 2,5 – 3,4 | Bom | Atende adequadamente aos critérios. |
| 1,5 – 2,4 | Regular | Limitações perceptíveis; requer otimização. |
| 1,0 – 1,4 | Insatisfatório | Não atende aos requisitos mínimos. |
O IQG consolida a avaliação das duas características priorizadas:
[ IQG = \frac{IQ_{Eficiência} + IQ_{Portabilidade}}{2} ]
Este índice avalia a qualidade geral do Firefox no escopo definido, permitindo comparação entre versões e identificação de oportunidades de melhoria.
O resultado final da avaliação, baseado no IQG e interpretado conforme a Seção 4.3, segue estes critérios:
A Figura 1 apresenta a representação visual da hierarquia GQM (Goal-Question-Metric) adotada neste plano de medição. O diagrama ilustra como os Objetivos de Medição de alto nível (Eficiência e Portabilidade) são decompostos em Questões específicas para avaliação (Seção 1.2 e Seção 2.2). Por sua vez, cada Questão é conectada às Métricas quantitativas (Seção 1.3 e Seção 2.3) que fornecerão os dados necessários para respondê-las. A estrutura evidencia os três níveis lógicos da abordagem GQM, sendo eles o Conceitual (Objetivos), Operacional (Questões) e Quantitativo (Métricas).
Figura 1 – Diagrama GQM representando a hierarquia de Objetivos, Questões e Métricas.
Fonte: Elaborado pelos autores Artur Mendonça Arruda e Lucas Mendonça Arruda (2025).
Para elaborar este artefato, a equipe contou com o apoio de modelos de linguagem de grande escala (LLMs), em especial o ChatGPT, como ferramenta auxiliar. O objetivo foi obter diferentes perspectivas sobre a organização e o conteúdo do trabalho, complementando a análise feita pelos integrantes do projeto.
O uso da IA se concentrou em duas frentes principais:
O ChatGPT atuou exclusivamente como ferramentas de validação e sugestão. Todo o conteúdo, a redação final e as decisões estratégicas foram produzidos e validados pelos integrantes da equipe.
| Matrícula | Integrante | Principais Contribuições | Comprovação | Contribuição |
|---|---|---|---|---|
[231033737] |
Artur Mendonça Arruda | Defini as métricas, fiz a bibliografia e o diagrama GQM | Métricas, Bibliografia, Diagrama GQM, Rastreabilidade da fase 1 e 2 | 20% |
[221007608] |
Nayra Silva Nery | 20% |
||
[231035141] |
João Filipe de Oliveira Souza | 20% |
||
[231035464] |
Lucas Mendonça Arruda | Adicionei a introdução, Objetivos de medição e Declaração IA | Introdução, Objetivos de medição, Declaração IA | 20% |
[180108875] |
Rodrigo Mattos de F. A. Bezerra | 20% |
||
| Total | 100% |
| Versão | Descrição | Autor(es) | Data | Revisor(es) | Data de Revisão |
|---|---|---|---|---|---|
| 1.0 | Criação e adição dos objetivos de medição | Lucas Mendonça Arruda | 14/10/2025 | ||
| 1.1 | Adição das questões e hipóteses de medição | Rodrigo Mattos de F. A. Bezerra | 15/10/2025 | ||
| 1.2 | Adição das métricas, níveis e critérios | Artur Mendonça Arruda | 15/10/2025 | ||
| 1.3 | Adição da Tabela de Contribuição e Referências | Artur Mendonça Arruda | 15/10/2025 | ||
| 1.4 | Criação dos níveis de pontuação | Nayra Nery | 15/10/2025 | ||
| 1.5 | Criação dos Critérios de Avaliação | João Filipe de Oliveira Souza | 15/10/2025 | ||
| 1.6 | Arrumando objetivos | Lucas Mendonça Arruda | 18/10/2025 | ||
| 1.7 | Ajustes nas questões e hipóteses de medição | Rodrigo Mattos de F. A. Bezerra | 18/10/2025 | ||
| 1.8 | Criação e Adição do diagrama GQM | Artur Mendonça Arruda e Lucas Mendonça Arruda | 23/10/2025 | ||
| 1.9 | Adicionando declaração de Uso de IA | Lucas Mendonça Arruda | 23/10/2025 | ||
| 1.10 | Adição dos comprobatórios das contribuições | Artur Mendonça Arruda | 23/10/2025 | ||
| 1.11 | Adição de rastreabilidade do documento | Artur Mendonça Arruda | 23/10/2025 | ||
| 1.12 | Adição de fontes que justificam níveis de pontuação e atualização da tabela de contribuições | Artur Mendonça Arruda | 24/10/2025 | ||
| 1.13 | Refinamento dos níveis de pontuação com distinção entre Desktop e Mobile | Artur Mendonça Arruda | 27/11/2025 | ||
| 1.14 | Ajustando hipóteses | Lucas Mendonça Arruda | 28/11/2025 |