AIC dan BIC adalah kedua metode menilai model yang dikenakan sanksi untuk jumlah parameter yang diestimasi. Seperti yang saya pahami, BIC menghukum model lebih banyak untuk parameter gratis daripada AIC. Di luar preferensi berdasarkan ketatnya kriteria, apakah ada alasan lain untuk memilih AIC daripada BIC atau sebaliknya?
modeling
aic
cross-validation
bic
model-selection
russellpierce
sumber
sumber
Jawaban:
Pertanyaan Anda menyiratkan bahwa AIC dan BIC mencoba menjawab pertanyaan yang sama, yang tidak benar. AIC mencoba memilih model yang paling tepat menggambarkan realitas dimensi yang tidak diketahui. Ini berarti bahwa kenyataan tidak pernah ada dalam model kandidat yang sedang dipertimbangkan. Sebaliknya, BIC mencoba menemukan model TRUE di antara sekumpulan kandidat. Saya merasa agak aneh dengan asumsi bahwa realitas dipakai dalam salah satu model yang dibangun para peneliti di sepanjang jalan. Ini adalah masalah nyata bagi BIC.
Namun demikian, ada banyak peneliti yang mengatakan BIC lebih baik daripada AIC, menggunakan simulasi pemulihan model sebagai argumen. Simulasi ini terdiri dari menghasilkan data dari model A dan B, dan kemudian menyesuaikan kedua set data dengan dua model. Overfitting terjadi ketika model yang salah cocok dengan data lebih baik daripada menghasilkan. Inti dari simulasi ini adalah untuk melihat seberapa baik AIC dan BIC memperbaiki overfits ini. Biasanya, hasil menunjukkan fakta bahwa AIC terlalu liberal dan masih sering lebih suka model yang lebih kompleks, salah daripada model yang lebih sederhana dan benar. Sekilas simulasi ini tampaknya argumen yang benar-benar bagus, tetapi masalahnya adalah bahwa itu tidak ada artinya bagi AIC. Seperti yang saya katakan sebelumnya, AIC tidak menganggap bahwa salah satu model kandidat yang diuji adalah benar. Menurut AIC, semua model adalah perkiraan terhadap kenyataan, dan kenyataan seharusnya tidak pernah memiliki dimensi rendah. Setidaknya lebih rendah dari beberapa model kandidat.
Rekomendasi saya adalah menggunakan AIC dan BIC. Sebagian besar waktu mereka akan menyetujui model yang disukai, ketika mereka tidak, laporkan saja.
Jika Anda tidak puas dengan AIC dan BIC dan memiliki waktu luang untuk berinvestasi, lihat Minimum Deskripsi Panjang (MDL), pendekatan yang sama sekali berbeda yang mengatasi keterbatasan AIC dan BIC. Ada beberapa langkah yang berasal dari MDL, seperti kemungkinan maksimum yang dinormalisasi atau perkiraan Informasi Fisher. Masalah dengan MDL adalah bahwa secara matematis menuntut dan / atau intensif secara komputasi.
Namun, jika Anda ingin tetap berpegang pada solusi sederhana, cara yang bagus untuk menilai fleksibilitas model (terutama ketika jumlah parameternya sama, menjadikan AIC dan BIC tidak berguna) sedang melakukan Parametric Bootstrap, yang cukup mudah untuk diterapkan. Berikut ini tautan ke kertas di atasnya.
Beberapa orang di sini menganjurkan penggunaan validasi silang. Saya pribadi telah menggunakannya dan tidak menentangnya, tetapi masalahnya adalah bahwa pilihan di antara aturan pemotongan sampel (biarkan-keluar-satu, K-lipat, dll) adalah yang tidak berprinsip.
sumber
Meskipun AIC dan BIC keduanya merupakan estimasi Kemungkinan Maksimum yang didorong dan menghukum parameter gratis dalam upaya untuk memerangi overfitting, mereka melakukannya dengan cara yang menghasilkan perilaku yang sangat berbeda. Mari kita lihat satu versi metode yang disajikan secara umum (yang hasilnya berupa kesalahan yang terdistribusi normal dan asumsi berperilaku baik lainnya):
dan
dimana:
Model terbaik dalam kelompok dibandingkan adalah model yang meminimalkan skor ini, dalam kedua kasus. Jelas, AIC tidak bergantung langsung pada ukuran sampel. Terlebih lagi, secara umum, AIC menghadirkan bahaya yang mungkin berlebihan, sedangkan BIC menyajikan bahaya yang mungkin tidak pantas, hanya berdasarkan bagaimana mereka menghukum parameter bebas (2 * k dalam AIC; ln (N) * k dalam BIC). Secara diakronik, ketika data diperkenalkan dan skor dihitung ulang, pada N yang relatif rendah (7 dan kurang) BIC lebih toleran terhadap parameter bebas daripada AIC, tetapi kurang toleran pada N yang lebih tinggi (karena log natural N mengatasi 2).
Selain itu, AIC bertujuan untuk menemukan model perkiraan terbaik untuk proses pembuatan data yang tidak diketahui (melalui meminimalkan perkiraan perbedaan KL ). Dengan demikian, ia gagal untuk konvergen dalam probabilitas ke model yang benar (dengan asumsi satu hadir dalam kelompok yang dievaluasi), sedangkan BIC memang konvergen karena N cenderung tak hingga.
Jadi, seperti dalam banyak pertanyaan metodologis, yang lebih disukai tergantung pada apa yang Anda coba lakukan, metode lain apa yang tersedia, dan apakah ada atau tidak fitur yang diuraikan (konvergensi, toleransi relatif untuk parameter bebas, meminimalkan perbedaan KL yang diharapkan ), bicaralah dengan tujuan Anda.
sumber
Penjelasan cepat saya adalah
sumber
Dalam pengalaman saya, BIC menghasilkan underfitting yang serius dan AIC biasanya berkinerja baik, ketika tujuannya adalah untuk memaksimalkan diskriminasi prediksi.
sumber
"Derivasi" informatif dan dapat diakses dari AIC dan BIC oleh Brian Ripley dapat ditemukan di sini: http://www.stats.ox.ac.uk/~ripley/Nelder80.pdf
Ripley memberikan beberapa komentar tentang asumsi di balik hasil matematika. Berlawanan dengan apa yang ditunjukkan oleh beberapa jawaban lainnya, Ripley menekankan bahwa AIC didasarkan pada asumsi bahwa model itu benar. Jika model tidak benar, perhitungan umum akan mengungkapkan bahwa "jumlah parameter" harus diganti dengan kuantitas yang lebih rumit. Beberapa referensi diberikan dalam slide Ripleys. Namun, perlu diketahui bahwa untuk regresi linier (secara tegas berbicara dengan varian yang diketahui), secara umum, kuantitas yang lebih rumit disederhanakan agar sama dengan jumlah parameter.
sumber
Memang satu-satunya perbedaan adalah bahwa BIC AIC diperluas untuk mempertimbangkan jumlah objek (sampel). Saya akan mengatakan bahwa meskipun keduanya cukup lemah (dibandingkan dengan misalnya cross-validation) lebih baik menggunakan AIC, daripada lebih banyak orang akan terbiasa dengan singkatan - memang saya belum pernah melihat kertas atau program di mana BIC akan digunakan (masih saya akui bahwa saya bias terhadap masalah di mana kriteria seperti itu tidak berfungsi).
Sunting: AIC dan BIC setara dengan validasi silang dengan menyediakan dua asumsi penting - ketika asumsi itu ditetapkan, jadi ketika model tersebut merupakan kemungkinan maksimum dan ketika Anda hanya tertarik dengan kinerja model pada data pelatihan. Dalam hal menciutkan beberapa data menjadi semacam konsensus, mereka sangat oke.
Jika membuat mesin prediksi untuk beberapa masalah di dunia nyata, yang pertama salah, karena set pelatihan Anda hanya mewakili secuil informasi tentang masalah yang Anda hadapi, sehingga Anda tidak dapat mengoptimalkan model Anda; yang kedua salah, karena Anda berharap bahwa model Anda akan menangani data baru yang Anda bahkan tidak bisa berharap bahwa set pelatihan akan representatif. Dan untuk tujuan ini CV diciptakan; untuk mensimulasikan perilaku model ketika dihadapkan dengan data independen. Dalam hal pemilihan model, CV tidak hanya memberi Anda perkiraan kualitas, tetapi juga distribusi perkiraan kualitas, sehingga memiliki keuntungan besar sehingga bisa dikatakan "Saya tidak tahu, apa pun data baru yang akan datang, salah satu dari mereka dapat lebih baik."
sumber
Seperti yang Anda sebutkan, AIC dan BIC adalah metode untuk menghukum model karena memiliki lebih banyak variabel regressor. Fungsi penalti digunakan dalam metode ini, yang merupakan fungsi dari jumlah parameter dalam model.
Saat menerapkan AIC, fungsi penalti adalah z (p) = 2 p .
Ketika menerapkan BIC, fungsi penalti adalah z (p) = p ln ( n ), yang didasarkan pada menafsirkan penalti sebagai yang berasal dari informasi sebelumnya (maka nama Bayesian Information Criterion).
Ketika n besar, kedua model akan menghasilkan hasil yang sangat berbeda. Kemudian BIC menerapkan penalti yang jauh lebih besar untuk model yang kompleks, dan karenanya akan mengarah pada model yang lebih sederhana daripada AIC. Namun, seperti yang dinyatakan dalam Wikipedia di BIC :
sumber
Dari apa yang saya tahu, tidak ada banyak perbedaan antara AIC dan BIC. Keduanya merupakan pendekatan matematis yang nyaman yang dapat dilakukan untuk membandingkan model secara efisien. Jika mereka memberikan Anda model "terbaik" yang berbeda, itu mungkin berarti Anda memiliki ketidakpastian model tinggi, yang lebih penting untuk dikhawatirkan daripada apakah Anda harus menggunakan AIC atau BIC. Saya pribadi menyukai BIC lebih baik karena ia meminta lebih banyak (lebih sedikit) dari suatu model jika memiliki lebih banyak (lebih sedikit) data yang sesuai dengan parameternya - seperti guru yang meminta standar kinerja yang lebih tinggi (lebih rendah) jika siswa mereka memiliki lebih banyak (lebih sedikit) ) waktu untuk belajar tentang subjek. Bagi saya ini sepertinya hal yang intuitif untuk dilakukan. Tapi kemudian saya yakin ada juga argumen yang sama intuitif dan menarik untuk AIC juga, mengingat bentuknya yang sederhana.
Sekarang setiap kali Anda membuat perkiraan, pasti akan ada beberapa kondisi ketika perkiraan tersebut adalah sampah. Ini dapat dilihat tentunya untuk AIC, di mana terdapat banyak "penyesuaian" (AICc) untuk memperhitungkan kondisi tertentu yang membuat perkiraan awal menjadi buruk. Ini juga hadir untuk BIC, karena ada berbagai metode lain yang lebih tepat (tetapi masih efisien) ada, seperti Fully Laplace Approximations untuk campuran g-priors Zellner (BIC adalah pendekatan untuk metode pendekatan Laplace untuk integral).
Satu tempat di mana keduanya adalah omong kosong adalah ketika Anda memiliki informasi penting sebelumnya tentang parameter dalam setiap model yang diberikan. AIC dan BIC tidak perlu menghukum model di mana parameter diketahui sebagian dibandingkan dengan model yang memerlukan parameter untuk diperkirakan dari data.
Dan kemudian terus menetapkan model probabilitas yang sama (parameter yang sama, data yang sama, perkiraan yang sama, dll.), Saya akan mendapatkan set nilai BIC yang sama. Hanya dengan melampirkan semacam makna unik pada huruf logis "M" seseorang dapat ditarik ke dalam pertanyaan-pertanyaan yang tidak relevan tentang "model yang benar" (gema dari "agama yang benar"). Satu-satunya hal yang "mendefinisikan" M adalah persamaan matematika yang menggunakannya dalam perhitungan mereka - dan ini hampir tidak pernah memilih satu dan hanya satu definisi. Saya bisa memasukkan proposisi prediksi tentang M ("model ke-i akan memberikan prediksi terbaik"). Saya pribadi tidak bisa melihat bagaimana ini akan mengubah salah satu kemungkinan, dan karenanya seberapa baik atau buruk BIC (AIC dalam hal ini juga - walaupun AIC didasarkan pada derivasi yang berbeda)
Dan selain itu, apa yang salah dengan pernyataan Jika model yang benar adalah di set saya mempertimbangkan, maka ada 57% kemungkinan bahwa itu adalah model B . Tampak cukup masuk akal bagi saya, atau Anda bisa menggunakan versi yang lebih "lunak" ada kemungkinan 57% bahwa model B adalah yang terbaik di luar rangkaian yang sedang dipertimbangkan
Satu komentar terakhir: Saya pikir Anda akan menemukan banyak pendapat tentang AIC / BIC karena ada orang yang tahu tentang mereka.
sumber
AIC jarang digunakan, karena hanya benar-benar valid tanpa gejala. Hampir selalu lebih baik untuk menggunakan AICc (AIC dengan c orrection untuk ukuran sampel yang terbatas). AIC cenderung overparameterize: masalah itu sangat berkurang dengan AICc. Pengecualian utama untuk menggunakan AICc adalah ketika distribusi yang mendasarinya sangat leptokurtik. Untuk lebih lanjut tentang ini, lihat buku Model Selection oleh Burnham & Anderson.
sumber
AIC dan BIC adalah kriteria informasi untuk membandingkan model. Masing-masing mencoba menyeimbangkan fit model dan kekikiran dan masing-masing menghukum berbeda untuk jumlah parameter.
Saya belum pernah mendengar tentang KIC.
sumber
Sangat singkat:
Perhatikan bahwa kesalahan LOOCV juga dapat dihitung secara analitis dari residual dan diagonal dari matriks topi , tanpa harus benar-benar melakukan validasi silang apa pun. Ini akan selalu menjadi alternatif untuk AIC sebagai perkiraan asimptotik dari kesalahan LOOCV.
Referensi
Stone M. (1977) Kesetaraan asimtotik pilihan model dengan cross-validation dan kriteria Akaike. Jurnal Royal Statistical Society Seri B. 39, 44–7.
Shao J. (1997) Teori asimptotik untuk pemilihan model linier. Statistica Sinica 7, 221-242.
sumber