Bagaimana AIC atau BIC dapat digunakan sebagai ganti dari train / test split?

8

Saya baru-baru ini menemukan beberapa sumber "informal" yang menunjukkan bahwa dalam beberapa keadaan, jika kita menggunakan AIC atau BIC untuk melatih model deret waktu, kita tidak perlu membagi data menjadi tes dan kereta - kita dapat menggunakan semua data untuk pelatihan. (Sumber termasuk antara lain, diskusi di posting blog Rob Hyndman di CV , presentasi dari Stanford , atau Bagian 4 dari teks ini ).

Secara khusus, mereka tampaknya menunjukkan bahwa AIC atau BIC dapat digunakan ketika kumpulan data terlalu kecil untuk memungkinkan pemisahan kereta / uji.

Komentar Rob Hyndman misalnya: "Jauh lebih efisien untuk menggunakan AIC / BIC kemudian menggunakan set tes atau CV, dan itu menjadi penting untuk seri waktu pendek di mana tidak ada cukup data untuk melakukan sebaliknya."

Namun saya tidak dapat menemukan teks atau makalah yang membahas hal ini secara terperinci.

Satu hal yang secara khusus membingungkan saya adalah bahwa AIC dan BIC cenderung ke arah validasi silang, yang berarti bahwa jika memungkinkan, mereka akan mengganti CV untuk set data besar - yang bertentangan dengan gagasan bahwa mereka berguna untuk set data kecil.

Adakah yang bisa mengarahkan saya ke diskusi formal (bab buku, makalah, tutorial) tentang ide ini?

Skander H.
sumber

Jawaban:

4

Dalam bab 5.5 buku ini , mereka membahas bagaimana banyak kriteria pemilihan model ini muncul. Mereka mulai dengan kriteria FPE Akaike untuk model AR, dan kemudian membahas AIC, AICc dan BIC. Mereka berjalan melalui derivasi cukup menyeluruh.

Apa kesamaan ini adalah bahwa mereka menyelidiki apa yang terjadi ketika Anda menggunakan beberapa data dalam sampel yang diamati untuk memperkirakan parameter model, dan kemudian melihat beberapa fungsi kerugian (rata-rata kesalahan prediksi kuadrat atau divergensi KL) pada beberapa yang tidak teramati / data luar sampel hipotetis{Xt}{Yt}yang timbul dari penggunaan model estimasi pada data baru ini. Gagasan utama adalah bahwa a) Anda mengambil ekspektasi sehubungan dengan semua data, dan 2) menggunakan beberapa hasil asimptotik untuk mendapatkan ekspresi untuk beberapa harapan. Kuantitas dari (1) memberi Anda kinerja keseluruhan yang diharapkan, tetapi (2) mengasumsikan Anda memiliki lebih banyak data daripada yang sebenarnya Anda miliki. Saya bukan ahli, tetapi saya berasumsi bahwa pendekatan cross-validasi menargetkan pengukuran kinerja ini juga; tetapi alih-alih mempertimbangkan data out-of-sample hipotetis, mereka menggunakan data nyata yang terpisah dari data pelatihan.

Contoh paling sederhana adalah kriteria FPE. Asumsikan Anda memperkirakan model AR Anda pada seluruh data (seperti tes-set), dan dapatkan . Maka kerugian yang diharapkan pada data yang tidak teramati (ini hipotetis, tidak terpecah seperti dalam cross-validation) adalah {ϕ^i}i{Yt}

E(Yn+1ϕ^1Ynϕ^pYn+1p)2=E(Yn+1ϕ1YnϕpYn+1p(ϕ^1ϕ1)Yn(ϕ^pϕp)Yn+1p)2=E(Zt+(ϕ^1ϕ1)Yn(ϕ^pϕp)Yn+1p)2=σ2+E[E[((ϕ^1ϕ1)Yn(ϕ^pϕp)Yn+1p)2|{Xt}]]=σ2+E[i=1pj=1p(ϕ^iϕi)(ϕ^jϕj)E[Yn+1iYn+1j|{Xt}]]=σ2+E[(ϕ^pϕp)Γp(ϕ^pϕp)](typo in book: n1/2 should be n1/2)σ2(1+pn)(nσ^2/σ2 approx. χnp2)nσ^2np(1+pn)=σ^2n+pnp.

Saya tidak tahu ada makalah dari atas kepala saya yang membandingkan secara empiris kinerja kriteria ini dengan teknik validasi silang. Namun buku ini memang memberi banyak sumber daya tentang bagaimana FPE, AIC, AICc dan BIC membandingkan satu sama lain.

Taylor
sumber