Masalah
Dalam regresi satu biasanya menghitung mean squared error (MSE) untuk sampel: untuk mengukur kualitas prediktor.
Saat ini saya sedang mengerjakan masalah regresi di mana tujuannya adalah untuk memprediksi harga yang bersedia dibayar oleh pelanggan untuk suatu produk dengan sejumlah fitur numerik. Jika harga yang diprediksi terlalu tinggi, pelanggan tidak akan membeli produk, tetapi kerugian moneter rendah karena harga dapat dikurangi. Tentu saja tidak boleh terlalu tinggi karena produk mungkin tidak akan dibeli untuk waktu yang lama. Di sisi lain jika harga yang diprediksi terlalu rendah, produk akan dibeli dengan cepat tanpa kesempatan untuk menyesuaikan harga.
Dengan kata lain algoritma pembelajaran harus memprediksi harga yang sedikit lebih tinggi yang dapat dikurangi jika perlu daripada meremehkan harga sebenarnya yang akan mengakibatkan kerugian moneter langsung.
Pertanyaan
Bagaimana Anda merancang metrik kesalahan yang memasukkan asimetri biaya ini?
Kemungkinan Solusi
Cara untuk mendefinisikan fungsi kerugian asimetris adalah dengan mengalikan dengan bobot: dengana∈(0,1)menjadi parameter kita bisa menyesuaikan diri dengan mengubah derajat asimetri. Saya menemukannyadi sini
sumber
Jawaban:
Seperti disebutkan dalam komentar di atas, regresi kuantil menggunakan fungsi kerugian asimetris (linier tetapi dengan kemiringan berbeda untuk kesalahan positif dan negatif). Analog kuadratik (kerugian kuadrat) dari regresi kuantil adalah regresi harapan.
Anda dapat google regresi kuantil untuk referensi. Untuk regresi harapan lihat paket R expectreg dan referensi dalam manual referensi.
sumber
Jenis bobot yang tidak sama ini sering dilakukan dalam masalah klasifikasi dengan dua kelas. Aturan Bayes dapat dimodifikasi menggunakan fungsi kerugian yang menimbang kerugian lebih tinggi untuk satu kesalahan daripada yang lain. Ini akan mengarah pada aturan yang menghasilkan tingkat kesalahan yang tidak sama.
Dalam regresi tentu akan mungkin untuk membangun fungsi bobot seperti jumlah kuadrat tertimbang yang akan memberikan bobot pada kesalahan negatif dan bobot yang lebih tinggi untuk yang positif. Ini akan mirip dengan kuadrat terkecil tertimbang tetapi sedikit berbeda karena kuadrat terkecil tertimbang dimaksudkan untuk masalah di mana varians kesalahan tidak konstan pada ruang nilai yang mungkin untuk variabel prediktor. Dalam hal ini bobot lebih tinggi untuk titik-titik di mana varians kesalahan diketahui kecil dan lebih tinggi di mana varians kesalahan diketahui besar. Ini tentu saja akan mengarah pada nilai untuk parameter regresi yang berbeda dari apa yang akan diberikan OLS kepada Anda.
sumber