Statistik PRESS untuk regresi ridge

9

Dalam kuadrat terkecil biasa, regresi vektor target terhadap seperangkat prediktor , matriks topi dihitung sebagaiyX

H=X(XtX)1Xt

dan PRESS (prediksi jumlah residu kuadrat) dihitung oleh

SSP=i(ei1hii)2

di mana adalah residu ke- dan adalah elemen diagonal dari matriks topi.eiihii

Dalam regresi ridge dengan koefisien penalti , matriks topi dimodifikasi menjadiλ

H=X(XtX+λI)1Xt

Dapatkah statistik PRESS dihitung dengan cara yang sama, menggunakan matriks topi yang dimodifikasi?

Chris Taylor
sumber

Jawaban:

7

ya, saya banyak menggunakan metode ini untuk regresi ridge kernel, dan ini adalah cara yang baik untuk memilih parameter ridge (lihat misalnya makalah ini [doi , pracetak] ).

Pencarian untuk parameter ridge optimal dapat dibuat sangat efisien jika perhitungan a dilakukan dalam bentuk kanonik (lihat misalnya makalah ini ), di mana model ini di-parameter ulang sehingga kebalikan dari matriks diagonal diperlukan.

Dikran Marsupial
sumber
Terima kasih. Dalam pengalaman Anda, jika Anda menggunakan PRESS untuk memilih parameter ridge, bagaimana kesalahan prediksi Anda yang sebenarnya pada set tes dibandingkan dengan PRESS yang diukur pada set pelatihan? Agaknya (PRESS / n) adalah perkiraan kesalahan kesalahan yang terlalu kecil, tetapi apakah ini bisa diandalkan dalam praktiknya?
Chris Taylor
1
PRESS kira-kira tidak bias, masalah sebenarnya adalah varians, yang berarti ada banyak variabilitas tergantung pada sampel data tertentu yang dievaluasi. Ini berarti bahwa jika Anda mengoptimalkan PRESS dalam pemilihan model, Anda dapat menyesuaikan kriteria pemilihan model dan berakhir dengan model yang buruk. Namun untuk tipe model yang saya minati (metode pembelajaran kernel) itu cukup efektif dan masalah varians tampaknya tidak jauh lebih buruk daripada kriteria lain yang mungkin diharapkan bekerja lebih baik.
Dikran Marsupial
Jika ragu, Anda selalu dapat menggunakan mengantongi selain regresi ridge sebagai semacam pendekatan "sabuk-dan-kawat gigi" untuk menghindari pemasangan berlebihan.
Dikran Marsupial
Terima kasih atas bantuan Anda! Saya mendapat kesan bahwa mengantongi tidak memberikan perbaikan dalam model linier, misalnya seperti yang diklaim dalam artikel Wikipedia ? Bisakah Anda mengklarifikasi?
Chris Taylor
tidak masalah. Saya menduga artikel Wikipedia tidak benar, pilihan subset dalam regresi linier adalah salah satu contoh yang digunakan Brieman dalam makalah asli tentang Bagging. Ada kemungkinan bahwa regresi linear kuadrat-terkecil tanpa seleksi subset secara asimptotik tidak terpengaruh oleh bagging, tetapi bahkan kemudian saya ragu itu berlaku untuk model linear yang lebih umum (seperti regresi logistik).
Dikran Marsupial
0

Pendekatan berikut dapat diambil untuk menerapkan regularisasi L2 dan mendapatkan statistik PRESS. Metode ini menggunakan pendekatan augmentasi data.

Asumsikan Anda memiliki sampel N Y, dan variabel penjelas K X1, X2 ... Xk .... XK

  1. Tambahkan variabel tambahan X0 yang memiliki 1 di atas sampel N
  2. Bertambah dengan K sampel tambahan di mana:
    • Nilai Y adalah 0 untuk masing-masing sampel K
    • Nilai X0 adalah 0 untuk masing-masing sampel K
    • Nilai Xk adalah SQRT (Lambda * N) * [STDEV (Xk) di atas sampel N] jika pada diagonal, dan 0 sebaliknya
  3. Sekarang ada sampel N + K dan variabel K + 1. Regresi linier normal dapat diselesaikan dengan input ini.
  4. Karena ini dilakukan dalam satu langkah, statistik PRESS dapat dihitung sebagai normal.
  5. Masukan regularisasi Lambda harus diputuskan. Meninjau statistik PRESS untuk berbagai input Lambada dapat membantu menentukan nilai yang sesuai.
James65
sumber