Untuk deteksi, cara umum untuk menentukan apakah satu proposal objek benar adalah Persimpangan atas Union (IoU, IU). Ini mengambil himpunan dari objek piksel yang diusulkan dan set piksel objek benar dan menghitung:B
Secara umum, IoU> 0,5 berarti bahwa itu hit, jika tidak maka gagal. Untuk setiap kelas, seseorang dapat menghitung
- True Positive ( ): proposal dibuat untuk kelas dan sebenarnya ada objek kelasc c
- False Positive ( ): proposal dibuat untuk kelas , tetapi tidak ada objek kelasc c
- Rata-rata Presisi untuk kelas :# T P ( c )
PETA (rata-rata presisi rata-rata) =
Jika seseorang menginginkan proposal yang lebih baik, ia memang meningkatkan IoU dari 0,5 ke nilai yang lebih tinggi (hingga 1,0 yang akan menjadi sempurna). Seseorang dapat menyatakan ini dengan mAP @ p, di mana adalah IoU.
Tapi apa artinya mAP@[.5:.95]
(seperti yang ditemukan dalam makalah ini )?
computer-vision
Martin Thoma
sumber
sumber
[.5:.95]
bagian ini mengacu pada rentang nilai IoU, tetapi bagaimana rentang itu dinilai menjadi satu peta yang saya tidak akan tahu.Jawaban:
mAP@[.5:.95]
(seseorang dilambangkanmAP@[.5,.95]
) berarti rata-rata pemetaan atas ambang batas IoU yang berbeda, dari 0,5 menjadi 0,95, langkah 0,05 (0,5, 0,55, 0,6, 0,65, 0,7, 0,75, 0,8, 0,85, 0,9, 0,95).BTW, kode sumber dari coco menunjukkan apa
mAP@[.5:.95]
yang dilakukan:self.iouThrs = np.linspace(.5, 0.95, np.round((0.95 - .5) / .05) + 1, endpoint=True)
Referensi
https://github.com/pdollar/coco
http://mscoco.org/
https://www.cs.cornell.edu/~sbell/pdf/cvpr2016-ion-bell.pdf
https://arxiv.org/pdf/1506.01497.pdf
https://arxiv.org/pdf/1611.10012.pdf
sumber
sumber
AP dirata-rata untuk semua kategori. Secara tradisional, ini disebut "rata-rata presisi" (mAP). Kami tidak membuat perbedaan antara AP dan mAP (dan juga AR dan mAR) dan menganggap perbedaannya jelas dari konteksnya.
http://cocodataset.org/#detections-eval
sumber