Uma conversa sobre mAP, mAR e suas pegadinhas no mundo da visão computacional.
Se você já olhou para as métricas do COCO e pensou “ué, isso faz sentido?”, este post é pra você.
As métricas de detecção de objetos são fundamentais para avaliar modelos de visão computacional, mas ainda geram muitas dúvidas, especialmente quando falamos em mAP e mAR. Se você já treinou um detector de objetos e ficou olhando para a tabela de resultados sem entender se o seu modelo realmente está indo bem, você não está sozinho. Essas métricas não apenas medem a qualidade das previsões, como também revelam se o modelo está sendo conservador demais, arriscado demais ou equilibrado no que diz respeito a acertos, falsos positivos e cobertura dos objetos reais. Neste artigo, vamos esclarecer de forma leve e prática como interpretar essas métricas, explicar o papel do background, discutir situações comuns no formato COCO e mostrar como o mAP e o mAR se complementam. No final, você terá uma visão clara de como usar as métricas de detecção de objetos para escolher o melhor modelo para a sua aplicação, seja em cenários críticos como saúde ou em tarefas do dia a dia, como análise de imagens em vídeo.
Pergunta 1: O que é mAP?
Resposta:
O famoso mAP (mean Average Precision) é a métrica “estrela” na detecção de objetos.
Ele mede a precisão média em diferentes níveis de recall e de limiar de IoU.
No COCO, por exemplo, o mAP é calculado como a média de APs em IoU 0.5 até 0.95 (de 0.05 em 0.05).
Traduzindo: o mAP quer saber não só se você acertou, mas o quão bem você acertou a caixa.
Pergunta 2: Então, o mAP é sensível a falsos positivos?
Resposta:
Sim e não (clássica resposta de engenheiro 😅).
- Se o modelo gerar falsos positivos com score baixo, eles não derrubam tanto o mAP.
- Se os TPs vêm primeiro na lista de predições (com score maior), o mAP continua feliz.
Ou seja: o modelo pode dar mais palpites e ainda manter um bom mAP, desde que acerte os objetos principais com confiança alta.
Pergunta 3: E o mAR, como entra nessa história?
Resposta:
O mAR (mean Average Recall) é o oposto zen do mAP: ele ignora os falsos positivos e olha só para o recall.
Quer saber: “quantos objetos reais você conseguiu capturar?”
- Se você chutou 100 caixas e cobriu todos os objetos, parabéns: mAR alto.
- Se deixou vários objetos sem prever, mAR cai.
💡 Moral: o mAR mostra a cobertura do modelo.
Pergunta 4: Mas se o mAR ignora FPs, como ele me ajuda a avaliar eles?
Resposta:
O truque é comparar mAP e mAR juntos:
- mAP ≈ mAR → equilíbrio saudável (boa precisão e recall).
- mAR >> mAP → você detecta tudo, mas com muito chute → falsos positivos em excesso.
- mAR << mAP → você é conservador → só prediz quando tem certeza, mas perde objetos reais.
Portanto, o mAR não mede FP diretamente, mas combinado com mAP ele te diz se o modelo está mais “folgado” ou mais “econômico” nos palpites.
Pergunta 5: Se eu tiver dois modelos com mesmo mAP, devo escolher o de menor mAR?
Resposta:
Depende do objetivo da aplicação:
- Quer evitar falsos positivos a todo custo? Vá de menor mAR (modelo conservador).
- Quer detectar tudo que é possível, mesmo arriscando chutes extras? Vá de maior mAR (modelo agressivo).
Exemplo:
- Na área médica, você quer que nada passe batido → maior mAR.
- Em visão para tráfego, falsos positivos podem disparar alarmes falsos → menor mAR pode ser melhor.
Conclusão
- mAP avalia precisão e recall, mas pode “perdoar” palpites extras se os acertos estiverem bem ranqueados.
- mAR só olha para recall, mas combinado com mAP te ajuda a entender o equilíbrio entre cobertura e falsos positivos.
- Não escolha métricas isoladas — olhe sempre o conjunto (mAP, mAR, AP@0.5, AP@0.75, etc.).