Pertanyaan ini didorong oleh diskusi di tempat lain .
Kernel variabel sering digunakan dalam regresi lokal. Sebagai contoh, loess banyak digunakan dan berfungsi dengan baik sebagai regresi yang lebih lancar, dan didasarkan pada kernel dengan lebar variabel yang beradaptasi dengan data sparsity.
Di sisi lain, kernel variabel biasanya dianggap menyebabkan penaksir yang buruk dalam estimasi kepadatan kernel (lihat Terrell dan Scott, 1992 ).
Apakah ada alasan intuitif mengapa mereka akan bekerja dengan baik untuk regresi tetapi tidak untuk estimasi kepadatan?
nonparametric
smoothing
kernel-smoothing
loess
Rob Hyndman
sumber
sumber
Jawaban:
Tampaknya ada dua pertanyaan berbeda di sini, yang akan saya coba bagi:
1) bagaimana KS, perataan kernel, berbeda dengan KDE, estimasi kepadatan kernel? Nah, katakan saya punya estimator / lebih halus / interpolator
dan kebetulan juga mengetahui densitas "nyata" () di xi. Maka menjalankan
est( x, densityf )
harus memberikan estimasi densityf (): a KDE. Mungkin saja KS dan KDE dievaluasi secara berbeda - kriteria kelancaran yang berbeda, norma yang berbeda - tetapi saya tidak melihat perbedaan mendasar. Apa yang saya lewatkan?2) Bagaimana dimensi memengaruhi estimasi atau perataan, secara intuitif ? Ini contoh mainan, hanya untuk membantu intuisi. Pertimbangkan kotak N = 10.000 poin dalam kotak seragam, dan jendela, garis atau kotak atau kubus, dari W = 64 poin di dalamnya:
Di sini "rasio sisi" adalah sisi jendela / sisi kotak, dan "dist to win" adalah perkiraan kasar dari jarak rata-rata titik acak dalam kotak ke jendela yang ditempatkan secara acak.
Apakah ini masuk akal sama sekali? (Gambar atau applet akan sangat membantu: siapa pun?)
Idenya adalah bahwa jendela ukuran tetap dalam kotak ukuran tetap memiliki kedekatan yang sangat berbeda dengan kotak lainnya, dalam 1d 2d 3d 4d. Ini untuk kisi yang seragam; mungkin ketergantungan yang kuat pada dimensi membawa ke distribusi lain, mungkin tidak. Bagaimanapun, ini terlihat seperti efek umum yang kuat, suatu aspek dari kutukan dimensi.
sumber
Estimasi kepadatan kernel berarti integrasi melalui jendela lokal (fuzzy), dan perataan kernel berarti rata-rata atas jendela lokal (fuzzy).
Pemulusan kernel:y~( x ) ∝ 1ρ ( x )∑ K( | | x - xsaya| | )ysaya .
Estimasi kepadatan kernel:ρ ( x ) ∝ ∑ K( | | x - xsaya| | ) .
Bagaimana ini sama?
Pertimbangkan sampel fungsi bernilai boolean, yaitu satu set yang berisi "sampel benar" (masing-masing dengan nilai satuan) dan "sampel salah" (masing-masing dengan nilai nol). Dengan asumsi kerapatan sampel keseluruhan adalah konstan (seperti kisi), rata-rata lokal dari fungsi ini identik proporsional dengan kerapatan lokal (parsial) dari subset bernilai sebenarnya. (Sampel palsu memungkinkan kita untuk terus mengabaikan penyebut persamaan penghalusan, sambil menambahkan nol syarat untuk penjumlahan, sehingga menyederhanakan ke dalam persamaan estimasi kerapatan.)
Demikian pula jika sampel Anda direpresentasikan sebagai elemen jarang pada raster boolean, Anda dapat memperkirakan kepadatannya dengan menerapkan filter blur ke raster.
Apa bedanya?
Secara intuitif, Anda mungkin mengharapkan pilihan algoritma penghalusan bergantung pada apakah pengukuran sampel mengandung kesalahan pengukuran yang signifikan atau tidak.
Pada satu ekstrim (tanpa noise), Anda hanya perlu melakukan interpolasi antara nilai yang diketahui secara tepat di lokasi sampel. Katakanlah, dengan triangulasi Delaunay (dengan interpolasi sambungan bilinear).
Estimasi kepadatan menyerupai ekstrim yang berlawanan, itu sepenuhnya kebisingan, karena sampel dalam isolasi tidak disertai dengan pengukuran nilai kerapatan pada titik itu. (Jadi tidak ada yang perlu interpolasi. Anda mungkin mempertimbangkan untuk mengukur area sel diagram Voronoi, tetapi menghaluskan / denoising masih akan menjadi penting ..)
Intinya adalah bahwa meskipun ada kesamaan, ini adalah masalah yang secara fundamental berbeda, sehingga pendekatan yang berbeda mungkin optimal.
sumber