Sejauh yang saya lihat, pendapat cenderung berbeda tentang ini. Praktik terbaik tentu akan menentukan menggunakan validasi silang (terutama jika membandingkan RF dengan algoritma lain pada dataset yang sama). Di sisi lain, sumber asli menyatakan bahwa fakta kesalahan OOB dihitung selama pelatihan model cukup dari indikator kinerja set tes. Bahkan Trevor Hastie, dalam pembicaraan yang relatif baru mengatakan bahwa "Hutan Acak memberikan validasi silang gratis". Secara intuitif, ini masuk akal bagi saya, jika melatih dan mencoba meningkatkan model berbasis RF pada satu dataset.
Apa pendapat Anda tentang ini?
Jawaban:
Kesalahan OOB dihitung oleh untuk setiap pengamatan hanya menggunakan pohon yang tidak memiliki pengamatan khusus ini dalam sampel bootstrap mereka; lihat pertanyaan terkait ini . Ini kira-kira sama dengan validasi silang dua kali lipat karena probabilitas pengamatan tertentu dalam sampel bootstrap tertentu adalah .1−(1−1N)N≈1−e−1≈0.6
Seperti yang ditunjukkan oleh @Wouter, Anda mungkin ingin melakukan validasi silang untuk penyetelan parameter, tetapi sebagai perkiraan kesalahan set tes, kesalahan OOB harus baik-baik saja.
sumber