Penguatan pohon gradien seperti yang diusulkan oleh Friedman menggunakan pohon keputusan sebagai pelajar dasar. Saya bertanya-tanya apakah kita harus membuat pohon keputusan dasar serumit mungkin (dewasa) atau lebih sederhana? Apakah ada penjelasan untuk pilihannya?
Random Forest adalah metode ensemble lain yang menggunakan pohon keputusan sebagai pelajar dasar. Berdasarkan pemahaman saya, kami biasanya menggunakan pohon keputusan yang hampir sepenuhnya tumbuh di setiap iterasi. Apakah saya benar?
Jawaban:
Harap dicatat bahwa tidak seperti Boosting (yang berurutan), RF menumbuhkan pohon secara paralel . Istilah
iterative
yang Anda gunakan tidak sesuai.sumber
Pertanyaan ini dibahas dalam postingan yang sangat bagus ini. Silakan lihat dan referensi di dalamnya. http://fastml.com/what-is-better-gradient-boosted-trees-or-random-forest/
Perhatikan di artikel bahwa berbicara tentang kalibrasi, dan tautan ke posting blog (bagus) lainnya. Namun, saya menemukan bahwa makalah yang Memperoleh Probabilitas yang Dikalibrasi dari Peningkatan memberi Anda pemahaman yang lebih baik tentang kalibrasi apa dalam konteks penggolong yang ditingkatkan, dan apa metode standar untuk melakukannya.
Dan akhirnya satu aspek hilang (sedikit lebih teoretis). Baik RF maupun GBM adalah metode ensemble, artinya Anda membuat classifier dari sejumlah besar classifier yang lebih kecil. Sekarang perbedaan mendasar terletak pada metode yang digunakan:
sumber