Saya memiliki contoh di bawah ini yang saya ambil dari dokumentasi sklearn's sklearn.metrics.classification_report.
Apa yang saya tidak mengerti adalah mengapa ada nilai f1, nilai presisi dan recall untuk setiap kelas di mana saya percaya kelas adalah label prediktor? Saya pikir skor f1 memberi tahu Anda keakuratan keseluruhan model. Juga, apa yang diceritakan kolom dukungan kepada kami? Saya tidak dapat menemukan info tentang itu.
print(classification_report(y_true, y_pred, target_names=target_names))
precision recall f1-score support
class 0 0.50 1.00 0.67 1
class 1 0.00 0.00 0.00 1
class 2 1.00 0.67 0.80 3
avg / total 0.70 0.60 0.61 5
avg / total
? Tampaknya tidak cocok dengan kolom artinya ... Bagaimana cara menghitung dan apa artinya?(0.50*1 + 0.0*1 + 1.0*3)/5 = 0.70
. Totalnya hanya untuk dukungan total yaitu 5 di sini.