Ketika saya membaca situs ini sebagian besar jawaban menyarankan bahwa validasi silang harus dilakukan dalam algoritma pembelajaran mesin. Namun ketika saya membaca buku "Memahami Pembelajaran Mesin" saya melihat ada latihan yang terkadang lebih baik untuk tidak menggunakan validasi silang. Saya sangat bingung. Kapan algoritma pelatihan pada seluruh data lebih baik daripada cross-validation? Apakah itu terjadi dalam kumpulan data nyata?
Biarkan menjadi k kelas hipotesis. Misalkan Anda diberi IID pelatihan contoh dan Anda ingin belajar kelas . Pertimbangkan dua pendekatan alternatif:
Pelajari pada contoh menggunakan aturan ERM
Bagilah contoh m menjadi set pelatihan ukuran dan set validasi ukuran , untuk beberapa . Kemudian, terapkan pendekatan pemilihan model menggunakan validasi. Yaitu, pertama-tama latih setiap kelas pada contoh pelatihan menggunakan aturan ERM sehubungan dengan , dan mari menjadi hipotesis yang dihasilkan . Kedua, terapkan aturan ERM sehubungan dengan kelas { } pada contoh validasi .
Jelaskan skenario di mana metode pertama lebih baik daripada yang kedua dan sebaliknya.
Jawaban:
Pesan dibawa pulang:
latihan harus mengajarkan Anda bahwa kadang-kadang (tergantung pada bidang Anda: sering atau bahkan hampir selalu) lebih baik untuk tidak melakukan optimasi / tuning / pemilihan model data-driven.
Ada juga situasi di mana validasi silang bukan pilihan terbaik di antara opsi validasi yang berbeda , tetapi pertimbangan ini tidak relevan dalam konteks latihan Anda di sini.
Sayangnya, teks yang Anda kutip mengubah dua hal antara pendekatan 1 dan 2:
IMHO, validasi silang, dan optimisasi berbasis data adalah dua keputusan yang sangat berbeda (dan sebagian besar independen) dalam mengatur strategi pemodelan Anda. Satu- satunya koneksi adalah Anda dapat menggunakan perkiraan validasi silang sebagai fungsional target untuk optimisasi Anda. Tetapi ada fungsi target lainnya yang siap digunakan, dan ada kegunaan lain perkiraan validasi silang (penting, Anda dapat menggunakannya untuk verifikasi model Anda, alias validasi atau pengujian)
Sayangnya, terminologi pembelajaran mesin adalah IMHO saat ini berantakan yang menunjukkan koneksi / penyebab / dependensi palsu di sini.
Saat Anda mencari pendekatan 3 (validasi silang bukan untuk optimisasi tetapi untuk mengukur kinerja model), Anda akan menemukan validasi silang "keputusan" vs. pelatihan pada seluruh data yang ditetapkan sebagai dikotomi palsu dalam konteks ini: Saat menggunakan validasi silang untuk mengukur kinerja classifier, angka validasi silang digunakan sebagai estimasi untuk model yang dilatih pada seluruh kumpulan data. Yakni pendekatan 3 meliputi pendekatan 1.
Bahkan, di bidang saya, saya sangat sering harus berurusan dengan set data yang terlalu kecil untuk memungkinkan pemikiran optimasi data-driven. Jadi apa yang harus saya lakukan: Saya menggunakan pengetahuan domain saya tentang data dan proses pembuatan data untuk memutuskan model mana yang cocok dengan sifat fisik data dan aplikasi. Dan di dalam ini, saya masih harus membatasi kompleksitas model saya.
sumber