Hal paling sederhana untuk dilakukan adalah menyesuaikan proses Gaussian dengan fungsi kovarians setara non-ARD (biasanya RBF) dan membandingkan tingkat kesalahan pengujian. Untuk banyak masalah, fungsi kovarians ARD berkinerja lebih buruk daripada fungsi kovarians non-ARD karena terlalu pas dalam menyetel parameter hiper. Karena kovarians RBF adalah kasus khusus dari kovarians ARD, jika RBF berkinerja lebih baik, itu adalah indikasi kuat bahwa kernel ARD terlalu pas (mulai mengoptimalkan koefisien ARD pada nilai optimal untuk kovarians RBF yang sesuai, ini adalah lebih cepat, dan juga membantu memastikan bahwa masalah dengan kovarians ISPA bukan hanya karena minimum lokal dalam kemungkinan marginal). Ini adalah masalah yang jauh lebih besar daripada yang umumnya dihargai.
Saya telah menulis beberapa makalah tentang ini:
GC Cawley dan NLC Talbot, Mencegah over-fitting selama pemilihan model melalui regularisasi Bayesian dari hyper-parameter, Journal of Machine Learning Research, volume 8, halaman 841-861, April 2007 ( pdf )
dan
GC Cawley dan NLC Talbot, Over-fitting dalam pemilihan model dan bias seleksi selanjutnya dalam evaluasi kinerja, Journal of Machine Learning Research, 2010. Penelitian, vol. 11, hlm. 2079-2107, Juli 2010 ( pdf )
Yang pertama mencakup beberapa percobaan dengan dokter, yang menunjukkan bahwa pemasangan yang terlalu pas dalam pemilihan model juga merupakan masalah bagi dokter dengan pemilihan model berbasis maksimalisasi marginal kemungkinan.
Analisis yang lebih menyeluruh adalah mengevaluasi kesalahan uji GP pada setiap langkah dalam proses mengoptimalkan kemungkinan marginal. Sangat mungkin bahwa Anda akan mendapatkan tanda aula klasik dari over-fitting, di mana kriteria pemilihan model menurun secara monoton, tetapi kesalahan pengujian pada awalnya menurun, tetapi kemudian mulai naik lagi karena kriteria pemilihan model over-dioptimalkan (cf Gambar 2a dalam makalah JMLR 2010).