Deteccao de Objetos do Zero: Parte 4 - Lendo Metricas Como Engenheiro

15 de junho de 202618 min de leituraNew

Parte 4 traduz precision, recall, mAP50 e mAP50-95 para o contexto real do projeto, com leitura por classe, impacto em pequenas regioes e implicacoes para o produto.

Deteccao de Objetos do Zero: Parte 4 - Lendo Metricas Como Engenheiro
React to this article

Metricas sem interpretacao sao apenas numerologia cara.

O ponto forte deste projeto e que os numeros dialogam com a geometria das classes e com o pipeline inteiro.

Precision e Recall

As duas perguntas fundamentais sao:

  • Quando o detector prediz algo, com que frequencia ele esta certo?
  • Quando uma regiao realmente existe, com que frequencia ele a encontra?

Essas duas respostas definem diretamente a confianca do produto.

Relacao entre precision e recall
O trade-off entre precision e recall fica mais facil de entender quando se enxerga a tensao entre falsos positivos, falsos negativos e pontos de operacao uteis.

mAP50 vs mAP50-95

mAP50 responde se o modelo esta encontrando a regiao certa de forma geral.

mAP50-95 aperta o criterio e passa a exigir localizacao muito melhor.

No projeto, a diferenca entre os dois e especialmente reveladora para regioes pequenas.

Comparacao de rigor do IoU
Thresholds de IoU nao sao trivia estatistica. Eles mudam se uma caixa conta como aproximadamente certa ou suficientemente precisa para producao.

Classes Pequenas Sofrem Mais

Um erro pequeno em pixels nao pesa igual em toda classe. Em art, quase nao muda nada. Em mana-cost ou power, muda muito. O contexto muda o custo.

Isso ajuda a explicar por que classes pequenas costumam cair mais nas metricas estritas.

Matriz de confusao da validacao
A matriz de confusao bruta mostra quais classes o detector realmente mistura e onde os misses se acumulam em termos absolutos.
Matriz de confusao normalizada
A versao normalizada facilita a comparacao entre classes porque transforma os mesmos padroes de confusao em percentuais.

Metrica So Faz Sentido Com Produto

O que importa de verdade e o que acontece depois:

  • title alimenta OCR
  • art alimenta DINOv2
  • caixas ruins podem contaminar todo o resto do pipeline

Por isso, uma leitura boa de metricas precisa perguntar: onde o sistema precisa ser excelente para entregar valor?

Curva precision-recall da validacao
A curva PR mostra se o detector consegue permanecer preciso enquanto o recall sobe, e e por isso que a forma da curva vale mais do que um threshold isolado.

Comece pela curva PR. Ela responde a pergunta maior primeiro: o detector continua util quando tentamos recuperar mais regioes reais?

Curva F1 da validacao
A curva F1 ajuda a localizar o threshold de confianca em que precision e recall ficam mais equilibrados para o projeto real.

Depois use a curva F1 para escolher um ponto de operacao sem chute. E a forma mais rapida de ver onde o compromisso entre precision e recall fica mais equilibrado.

Curva de precision da validacao
Precision sobe quando o threshold fica mais rigido, o que e util quando o produto prefere suprimir deteccoes fracas a alucinar regioes.
Curva de recall da validacao
Recall cai quando o threshold sobe, e e por isso que ajuste de confianca sempre e um trade-off de produto, nao apenas academico.

As curvas de precision e recall tornam a mesma decisao de threshold legivel por lados opostos: uma mostra como os falsos positivos caem, a outra mostra o preco pago em deteccoes perdidas.

Conclusao

As metricas deste detector sao valiosas porque permitem inferir robustez, fragilidade e teto de melhoria. Elas nao existem para enfeitar um numero alto. Servem para orientar o proximo passo. Esse e o ponto.

Na proxima parte, vamos seguir o output do detector ate o pipeline de identificacao.

Further Reading

Arthur CostaA

Arthur Costa

Senior Full-Stack Engineer & Tech Lead

Senior Full-Stack Engineer with 8+ years in React, TypeScript, and Node.js. Expert in performance optimization and leading engineering teams.

View all articles →