Mengapa menggunakan Root Mean Squared Error (RMSE) alih-alih Mean Absolute Error (MAE) ??
Hai
Saya telah menyelidiki kesalahan yang dihasilkan dalam perhitungan - Saya awalnya menghitung kesalahan sebagai Root Mean Normalized Squared Error.
Melihat sedikit lebih dekat, saya melihat efek kuadrat kesalahan memberikan bobot lebih besar untuk kesalahan yang lebih besar daripada yang lebih kecil, condong perkiraan kesalahan terhadap outlier aneh. Ini cukup jelas dalam retrospeksi.
Jadi pertanyaan saya - dalam hal apa Root Mean Squared Error menjadi ukuran kesalahan yang lebih tepat daripada Mean Absolute Error? Yang terakhir sepertinya lebih cocok untuk saya atau saya melewatkan sesuatu?
Untuk menggambarkan hal ini, saya telah melampirkan contoh di bawah ini:
Plot sebar menunjukkan dua variabel dengan korelasi yang baik,
dua histogram ke grafik kanan kesalahan antara Y (diamati) dan Y (diprediksi) menggunakan RMSE yang dinormalisasi (atas) dan MAE (bawah).
Tidak ada pencilan yang signifikan dalam data ini dan MAE memberikan kesalahan yang lebih rendah daripada RMSE. Adakah yang rasional, selain MAE yang lebih disukai, untuk menggunakan satu ukuran kesalahan di atas yang lain?
sumber
Jawaban:
Ini tergantung pada fungsi kerugian Anda. Dalam banyak keadaan, masuk akal untuk memberi bobot lebih banyak pada poin yang jauh dari rata-rata - yaitu, turun 10 kali lebih buruk dua kali lipat mati 5. Dalam kasus seperti itu RMSE adalah ukuran kesalahan yang lebih tepat.
Jika mati sepuluh kali hanya lima kali lipat mati 5 kali, maka MAE lebih tepat.
Bagaimanapun, tidak masuk akal untuk membandingkan RMSE dan MAE satu sama lain seperti yang Anda lakukan dalam kalimat kedua-ke-terakhir Anda ("MAE memberikan kesalahan yang lebih rendah daripada RMSE"). MAE tidak akan pernah lebih tinggi dari RMSE karena cara mereka dihitung. Mereka hanya masuk akal dibandingkan dengan ukuran kesalahan yang sama: Anda dapat membandingkan RMSE untuk Metode 1 dengan RMSE untuk Metode 2, atau MAE untuk Metode 1 ke MAE untuk Metode 2, tetapi Anda tidak bisa mengatakan MAE lebih baik daripada RMSE untuk Metode 1 karena lebih kecil.
sumber
Berikut adalah situasi lain ketika Anda ingin menggunakan (R) MSE daripada MAE: ketika distribusi kondisional pengamatan Anda asimetris dan Anda menginginkan kecocokan yang tidak bias. MSE (R) diminimalkan dengan mean bersyarat , MAE dengan median kondisional . Jadi, jika Anda meminimalkan MAE, cocok akan lebih dekat ke median dan bias.
Tentu saja, semua ini sangat tergantung pada fungsi kerugian Anda.
Masalah yang sama terjadi jika Anda menggunakan MAE atau (R) MSE untuk mengevaluasi prediksi atau perkiraan . Misalnya, data penjualan volume rendah biasanya memiliki distribusi asimetris. Jika Anda mengoptimalkan MAE, Anda mungkin terkejut menemukan bahwa perkiraan optimal-MAE adalah perkiraan nol.
Berikut ini adalah sedikit presentasi yang membahas hal ini , dan inilah komentar yang diundang baru-baru ini mengenai kompetisi peramalan M4 di mana saya menjelaskan efek ini .
sumber
N = 1e3; set.seed(1); y = rpois(N, lambda=1); yhat = c(y[2:N],0)
? "Perbedaan" prediksi kepadatan akan minimal tetapi yang sebenarnyayhat
tidak akan berguna. Memang, ini adalah kasus yang ekstrem. (Saya mungkin kehilangan sesuatu yang jelas, permintaan maaf untuk itu sebelumnya - saya tidak memiliki akses ke makalah hanya presentasi.)RMSE adalah cara yang lebih alami untuk menggambarkan kehilangan dalam jarak Euclidean. Karenanya, jika Anda membuat grafiknya dalam 3D, kerugiannya berbentuk kerucut, seperti yang Anda lihat di atas berwarna hijau. Ini juga berlaku untuk dimensi yang lebih tinggi, meskipun lebih sulit untuk memvisualisasikannya.
MAE dapat dianggap sebagai jarak blok kota. Ini tidak benar-benar alami cara untuk mengukur kerugian, seperti yang Anda lihat dalam grafik dengan warna biru.
sumber