Secara asimptotik, meminimalkan AIC setara dengan meminimalkan MSE validasi silang keluar-keluar untuk data cross-sectional [ 1 ]. Jadi ketika kita memiliki AIC, mengapa orang menggunakan metode membagi data menjadi pelatihan, validasi dan set tes untuk mengukur sifat prediktif model? Apa manfaat khusus dari praktik ini?
Saya dapat memikirkan satu alasan: jika seseorang ingin menilai kinerja prediksi model, analisis out-of-sample berguna. Tetapi meskipun AIC bukan ukuran akurasi perkiraan , orang biasanya memiliki ide bagus jika beberapa model mencapai potensi maksimumnya (untuk data yang diberikan) dalam hal seberapa baik Anda akan dapat memprediksi.
predictive-models
aic
Erosennin
sumber
sumber
Jawaban:
Dalam praktiknya, saya selalu menggunakan validasi silang atau split train-test sederhana daripada AIC (atau BIC). Saya tidak terlalu akrab dengan teori di balik AIC, tetapi dua masalah utama mengarahkan saya untuk lebih memilih perkiraan langsung dari akurasi prediksi:
Angka itu sendiri tidak memberi tahu Anda seberapa akurat model itu. AIC dapat memberikan bukti mengenai model mana yang paling akurat, tetapi tidak memberi tahu Anda seberapa akurat model tersebut dalam unit-unit DV. Saya hampir selalu tertarik pada perkiraan akurasi konkret dari jenis ini, karena ia memberi tahu saya betapa berguna suatu model dalam istilah absolut, dan juga seberapa jauh lebih akurat daripada model perbandingan.
AIC, seperti BIC, perlu untuk setiap model menghitung parameter atau nilai lain yang mengukur kompleksitas model. Tidak jelas apa yang harus Anda lakukan untuk ini dalam kasus metode prediksi yang kurang tradisional seperti klasifikasi tetangga terdekat, hutan acak, atau metode ensembel baru yang aneh yang Anda tuliskan pada serbet koktail di tengah penyok bulan lalu. Sebaliknya, perkiraan akurasi dapat dihasilkan untuk model prediksi apa pun, dan dengan cara yang sama.
sumber