Mengapa terlalu buruk?

27

Saya telah mempelajari banyak hal ini, dan mereka mengatakan bahwa tindakan yang berlebihan dalam pembelajaran mesin itu buruk, namun neuron kita menjadi sangat kuat dan menemukan tindakan / indera terbaik yang kita alami atau hindari, ditambah dapat dikurangi / ditingkatkan dari buruk / baik oleh pemicu buruk atau baik, artinya tindakan akan naik level dan berakhir dengan yang terbaik (kanan), tindakan percaya diri yang sangat kuat. Bagaimana ini gagal? Ia menggunakan pemicu indera positif dan negatif untuk menambah / menambah tindakan yang dikatakan dari 44pos. ke 22neg.

Orang yang Ramah 44
sumber
4
Pertanyaan ini jauh lebih luas daripada hanya untuk pembelajaran mesin, jaringan saraf, dll. Ini berlaku untuk contoh-contoh sesederhana memasang polinomial.
gerrit
7
@ FriendlyPerson44 Setelah membaca kembali pertanyaan Anda, saya pikir ada keterputusan utama antara judul Anda dan pertanyaan Anda yang sebenarnya. Anda tampaknya bertanya tentang kelemahan pada AI Anda ( yang hanya dijelaskan secara samar-samar ) - sementara orang-orang menjawab " Mengapa terlalu buruk? "
DoubleDouble
3
@DoubleDouble Saya setuju. Selain itu, hubungan antara pembelajaran mesin dan neuron meragukan. Pembelajaran mesin tidak ada hubungannya dengan 'bertindak seperti otak', mensimulasikan neuron, atau mensimulasikan kecerdasan. Tampaknya ada banyak jawaban berbeda yang mungkin membantu OP pada saat ini.
Shaz
2
Anda harus mempertajam pertanyaan dan judul Anda. Mungkin untuk: "Mengapa kita harus menjaga otak virtual agar tidak overfitting sementara otak manusia bekerja hebat tanpa ada penanggulangan terhadap overfitting?"
Falco

Jawaban:

44

Penjelasan terbaik yang pernah saya dengar adalah ini:

Ketika Anda melakukan pembelajaran mesin, Anda menganggap Anda mencoba belajar dari data yang mengikuti beberapa distribusi probabilistik.

Ini berarti bahwa dalam set data apa pun, karena keacakan, akan ada beberapa noise : data akan bervariasi secara acak.

Ketika Anda berpakaian berlebihan, Anda akhirnya belajar dari kebisingan Anda, dan memasukkannya ke dalam model Anda.

Kemudian, ketika tiba saatnya untuk membuat prediksi dari data lain, keakuratan Anda menurun: kebisingan membuat jalan masuk ke model Anda, tetapi itu khusus untuk data pelatihan Anda, sehingga merusak akurasi model Anda. Model Anda tidak menggeneralisasi: terlalu spesifik untuk kumpulan data yang Anda pilih untuk dilatih.

Ya ampun
sumber
1
"Belajar dari kebisingan" terdengar samar bagiku. Apa yang sebenarnya terjadi? Bisakah Anda memberi contoh?
Raphael
bahkan jika data Anda sangat bersih dan keluar dari outlier (outlier alami dan non-natural) masih "overfitting" adalah praktik yang buruk dan harus dihilangkan dari model Anda. ketika model Anda "overfitted" itu berarti model Anda tidak menggeneralisasi pengetahuan yang tersembunyi dalam data, dan tidak dapat memprediksi titik data lainnya. Hanya ketika Anda mendandani model Anda, Anda hanya cocok pada set data train / test Anda.
Aboelnour
2
@Raphael Sistem mulai melihat suara dalam pelatihan ditetapkan sebagai fitur. Jika Anda kemudian menjalankan internet pada data nyata di mana noise spesifik tersebut hilang Anda akan berakhir dengan probabilitas yang lebih rendah karena ada fitur (= noise yang dimasukkan) hilang.
drake7707
2
@ Raphael Bagaimana dengan misalnya: Saya punya koleksi gambar dari kamera lalu lintas. Mari kita latih jaring yang mendeteksi apakah ada mobil atau tidak. Setelah beberapa pelatihan saya memilikinya memberikan satu set dengan mobil dan tanpa mobil, bagus! Mari kita terapkan jaring pada set baru untuk mendeteksi apakah jalan kosong tanpa orang dan ya, mengapa tidak mendeteksi jalan kosong saya dengan probabilitas tinggi? Melihat kembali pada set sampel dan saya perhatikan bahwa di setiap gambar ada orang-orang di latar belakang gambar ketika tidak ada mobil. Karena overfitting net, ia menekankan orang-orang yang hadir
drake7707
1
Pertimbangkan sistem yang memiliki noise yang ditambahkan oleh flip koin. Pada head, Anda menambahkan 1 ke nilai, dan pada ekor yang Anda tambahkan 0. Untuk membuat hasilnya jelas, kami akan memilih kumpulan data kecil dua poin: (2, 5) dan (2.1, 8). Balik koin mendarat kepala untuk titik pertama, ekor untuk yang kedua, memperkenalkan kebisingan, membuat dataset (3, 5), (2.1, 8). Sekarang neural net sedang belajar dari dataset yang terlihat seperti ada korelasi yang signifikan antara nilai x dan y, meskipun hampir semuanya adalah noise. Jika Anda kemudian mengirim 'net out ini pada data nyata, ini akan menghasilkan banyak hasil yang salah
Cort Ammon - Reinstate Monica
39

Versi ELI5

Ini pada dasarnya bagaimana saya menjelaskannya kepada anak saya yang berusia 6 tahun.

Pernah ada seorang gadis bernama Mel ( "Paham? ML?" "Ayah, kau lumpuh." ). Dan setiap hari Mel bermain dengan teman yang berbeda, dan setiap hari dia bermain itu adalah hari yang cerah dan indah.

Mel bermain dengan Jordan pada hari Senin, Lily pada hari Selasa, Mimi pada hari Rabu, Olive pada hari Kamis .. dan kemudian pada hari Jumat Mel bermain dengan Brianna, dan hujan turun. Itu adalah badai yang mengerikan!

Lebih banyak hari, lebih banyak teman! Mel bermain dengan Kwan pada hari Sabtu, Grayson pada hari Minggu, Asa pada hari Senin ... dan kemudian pada hari Selasa Mel bermain dengan Brooke dan hujan turun lagi, bahkan lebih buruk dari sebelumnya!

Sekarang ibu Mel membuat semua teman mainnya, jadi malam itu saat makan malam dia mulai memberi tahu Mel semua tentang teman bermain baru yang telah dia antre. "Luis pada hari Rabu, Ryan pada hari Kamis, Jemini pada hari Jumat, Bianca pada hari Sabtu -"

Mel mengerutkan kening.

Ibu Mel bertanya, "Ada apa, Mel, kamu tidak suka Bianca?"

Mel menjawab, "Oh, tentu, dia hebat, tapi setiap kali aku bermain dengan seorang teman yang namanya dimulai dengan B, hujan turun!"


Apa yang salah dengan jawaban Mel?

Yah, mungkin tidak hujan pada hari Sabtu.

Yah, aku tidak tahu, maksudku, Brianna datang dan hujan, Brooke datang dan hujan ...

Ya, saya tahu, tetapi hujan tidak bergantung pada teman Anda.

Kyle Hale
sumber
10
Dan untuk pertanyaan lain itu, inilah yang dimaksud "belajar dari kebisingan".
Kyle Hale
Untuk komentar hujan - Tapi kami DO melakukannya, maka kami terus bekerja seperti itu dan belajar lebih banyak nanti.
Orang Ramah 44
13
@ FriendlyPerson44 Anda benar, orang membuat kesalahan dan melakukan hal-hal buruk seperti pakaian berlebihan. Pertanyaan Anda bertanya mengapa overfitting itu buruk, bukan apakah orang melakukannya atau tidak.
Kyle Hale
1
Masalah ini tidak hanya berlaku untuk robot belajar yang buruk tetapi juga orang belajar yang buruk.
Tomáš Zato - Reinstate Monica
Saya tidak cukup mengikuti: Rain seharusnya tidak menjadi variabel prediktor, apa hubungannya dengan overfitting?
mucaho
14

Overfitting menyiratkan bahwa pelajar Anda tidak akan menggeneralisasi dengan baik. Sebagai contoh, pertimbangkan skenario pembelajaran terawasi standar di mana Anda mencoba untuk membagi poin menjadi dua kelas. Misalkan Anda diberi poin pelatihan Anda dapat memasukkan polinomial derajat N yang menghasilkan 1 pada poin pelatihan kelas pertama dan -1 pada poin pelatihan kelas kedua. Tetapi polinomial ini mungkin tidak akan berguna dalam mengklasifikasikan poin baru. Ini adalah contoh dari overfitting dan mengapa itu buruk.NN

Yuval Filmus
sumber
Tapi tindakan super berlebihannya terkait dengan indera tertentu, dan hanya ketika ia melihat indra yang sama lagi itu cocok dengan memori dan tautan ke tindakan ini, itu tidak akan melakukannya ketika melihat hal-hal lain. Generalisasi adalah dua hal - semua gambar pohon ini adalah pohon, dan gunakan pengetahuan dari masa lalu untuk mencari tahu hal baru ini. Agar AI saya menyelesaikan ini, ia melihat pohon dan mendengar "pohon", dan yang cocok dengan memori dan membawanya ke depan, kemudian ia melihat pohon baru dan nama mereka dan mereka semua terhubung ke indera dalam memori terbaru - gambar pohon pertama & suara. Mencari tahu sedikit hal terkait baru dengan knwldge adalah actio
Friendly Person baru 44
2
@ FriendlyPerson44 Dalam pembelajaran mesin yang diawasi, hasil pelatihan seharusnya tidak perlu berubah lebih lanjut. Di sinilah "overfitting" berperan. Ini akan seolah-olah mesin telah belajar mengenali pohon - pertama dengan warna, kemudian bentuk umum, kemudian bentuk tertentu (di mana ia harus berhenti ), tetapi kemudian mulai membedakan pohon dengan pola acak tambahan yang hanya ditemukan di Anda perlengkapan latihan. Ketika Anda membiarkannya melihat gambar acak pohon baru, itu memutuskan itu bukan pohon. Pada titik itu, kasus terburuknya adalah ia digunakan dan tidak ada yang mengawasinya!
DoubleDouble
Tapi milikku mengenali pohon dengan menyimpan gambar pohon dan suara "pohon" dan menghubungkan kedua indera bersama, dan ketika pohon dikatakan cocok dengan apa yang ada dalam memori dan membawa korek api dan segala yang terkait dengannya ke depan memori dan kemudian ketika ditampilkan lainnya pohon dan menyebut nama baru gambar ini & terdengar seperti yang pertama dipelajari. Tapi pohon bukan pemicunya. Makanan tidak, itu tidak akan menyelamatkan tindakan saat melihat warna atau pola. Milik saya benar-benar belajar tindakan.
Orang Ramah 44
1
@ FriendlyPerson44 Apa hubungannya dengan mengapa overfitting itu buruk?
DoubleDouble
9

Secara kasar, over-fitting biasanya terjadi ketika rasio

masukkan deskripsi gambar di sini

terlalu tinggi.

Pikirkan over-fitting sebagai situasi di mana model Anda mempelajari data pelatihan dengan hati alih-alih mempelajari gambar-gambar besar yang mencegahnya untuk dapat digeneralisasikan ke data uji: ini terjadi ketika model terlalu kompleks sehubungan dengan ukuran data pelatihan, yaitu ketika ukuran data pelatihan menjadi kecil dibandingkan dengan kompleksitas model.

Contoh:

  • jika data Anda dalam dua dimensi, Anda memiliki 10.000 poin dalam set pelatihan dan modelnya berupa garis, Anda cenderung kurang pakaian.
  • jika data Anda berada dalam dua dimensi, Anda memiliki 10 poin dalam set pelatihan dan modelnya adalah polinomial 100 derajat, Anda cenderung kelebihan pakaian.

masukkan deskripsi gambar di sini

Dari sudut pandang teoretis, jumlah data yang Anda butuhkan untuk melatih model Anda dengan benar adalah pertanyaan yang krusial namun jauh dari jawab dalam pembelajaran mesin. Salah satu pendekatan untuk menjawab pertanyaan ini adalah dimensi VC . Yang lain adalah tradeoff bias-varians .

Dari sudut pandang empiris, orang biasanya memplot kesalahan pelatihan dan kesalahan tes pada plot yang sama dan memastikan bahwa mereka tidak mengurangi kesalahan pelatihan dengan mengorbankan kesalahan pengujian:

masukkan deskripsi gambar di sini

Saya menyarankan untuk menonton kursus Pembelajaran Mesin Coursera , bagian "10: Saran untuk menerapkan Pembelajaran Mesin".

Franck Dernoncourt
sumber
1
Saya suka garis "belajar dengan hati" karena manusia mampu (dan melakukan) sampai batas tertentu. Bayangkan mengambil kuis yang sangat sulit di mana pertanyaan dan jawaban tidak pernah berubah tetapi Anda diberitahu jawabannya ketika Anda salah menjawab. Berpura-pura persamaan (2 + 2) itu sulit, Anda mengenali persamaan dan mengatakan '4' - tetapi kemudian (2 + 3) muncul, tetapi Anda belum belajar menambahkan, Anda baru belajar mengatakan '4' ketika Anda memiliki '2 + 2'
DoubleDouble
penjelasan yang bagus
Nikos M.
4

Saya pikir kita harus mempertimbangkan dua situasi:

Pelatihan terbatas

Ada sejumlah data terbatas yang kami gunakan untuk melatih model kami. Setelah itu kami ingin menggunakan model.

Dalam hal ini, jika Anda berpakaian berlebihan, Anda tidak akan membuat model dari fenomena yang menghasilkan data, tetapi Anda akan membuat model dari kumpulan data Anda. Jika kumpulan data Anda tidak sempurna - Saya mengalami kesulitan membayangkan kumpulan data yang sempurna - model Anda tidak akan berfungsi dengan baik di banyak atau beberapa situasi, tergantung pada kualitas data yang Anda gunakan untuk berlatih. Jadi overfitting akan mengarah ke spesialisasi pada set data Anda, ketika Anda ingin generalisasi untuk memodelkan fenomena yang mendasarinya.

Pembelajaran berkelanjutan

Model kami akan menerima data baru setiap saat dan terus belajar. Mungkin ada periode awal peningkatan elastisitas untuk mendapatkan titik awal yang dapat diterima.

Kasus kedua ini lebih mirip dengan bagaimana otak manusia dilatih. Ketika seorang manusia masih sangat muda, contoh-contoh baru tentang apa yang ingin Anda pelajari memiliki pengaruh yang lebih nyata daripada ketika Anda lebih tua.

Dalam hal ini overfitting memberikan masalah yang sedikit berbeda tetapi serupa: sistem yang termasuk dalam kasus ini seringkali merupakan sistem yang diharapkan untuk melakukan suatu fungsi saat belajar. Pertimbangkan bagaimana manusia tidak hanya duduk di suatu tempat sementara data baru disajikan untuk dipelajari. Manusia berinteraksi dengan dan bertahan hidup di dunia sepanjang waktu.

Anda bisa berargumen bahwa karena data terus berdatangan, hasil akhirnya akan bekerja dengan baik, tetapi dalam rentang waktu ini apa yang telah dipelajari perlu digunakan! Overfitting akan memberikan efek waktu yang sama seperti pada kasus 1, memberikan kinerja model Anda lebih buruk. Tetapi Anda tergantung pada kinerja model Anda berfungsi!

Lihatlah cara ini, jika Anda berpakaian berlebihan, Anda mungkin mengenali bahwa predator yang mencoba memakan Anda di masa depan setelah banyak contoh lagi, tetapi ketika predator makan Anda yang diperdebatkan.

Niels
sumber
Jawaban yang bagus untuk pertanyaan yang diimplikasikan oleh op: "Mengapa kita harus mencegah overfitting di otak virtual, ketika otak kita tampaknya bekerja ok, tanpa kompensasi overfitting" - karena menggunakan mesin terlatih, sementara manusia belajar sendiri.
Falco
3

Katakanlah Anda ingin mengajar komputer untuk menentukan antara produk baik dan buruk dan berikan dataset berikut untuk dipelajari: diagram dengan dataset.  0 hingga 50 adalah 0. 52 dan 74 adalah 0. Nilai yang tersisa dari 51 hingga 100 adalah 1

0 berarti produk rusak, 1 berarti tidak apa-apa. Seperti yang Anda lihat, ada korelasi kuat antara sumbu X dan Y. Jika nilai yang diukur di bawah atau sama dengan 50, sangat mungkin (~ 98%) bahwa produk tersebut rusak dan di atasnya sangat likley (~ 98%) tidak apa-apa. 52 dan 74 adalah outlier (salah diukur atau tidak diukur faktor yang berperan; juga dikenal sebagai noise). Nilai yang diukur mungkin ketebalan, suhu, kekerasan atau sesuatu dan unit itu tidak penting dalam contoh ini Jadi algoritma generik akan menjadi

if(I<=50)
    return faulty;
else
    return OK;

Ini akan memiliki peluang 2% dari kesalahan klasifikasi.

Algoritma overfitting adalah:

if(I<50)
    return faulty;
else if(I==52)
    return faulty;
else if(I==74)
    return faulty;
else
    return OK;

Jadi algoritma overfitting akan salah mengklasifikasikan semua produk berukuran 52 atau 74 sebagai kesalahan walaupun ada kemungkinan besar bahwa mereka OK ketika diberi dataset baru / digunakan dalam produksi. Ini akan memiliki peluang 3,92% dari kesalahan klasifikasi. Bagi pengamat eksternal, kesalahan klasifikasi ini akan aneh tetapi dapat dijelaskan dengan mengetahui dataset asli yang dilengkapi secara berlebihan.

Untuk dataset asli, algoritma overfitted adalah yang terbaik, untuk dataset baru, algoritma generik (bukan overfitted) kemungkinan besar adalah yang terbaik. Kalimat terakhir menjelaskan secara mendasar arti overfitting.

H. Idden
sumber
2

Di kursus AI kampus saya, instruktur kami memberi contoh dengan nada yang mirip dengan Kyle Hale:

Seorang gadis dan ibunya keluar berjalan-jalan di hutan bersama, ketika tiba-tiba seekor harimau melompat keluar dari semak-semak dan melahap ibunya. Hari berikutnya dia berjalan melalui hutan bersama ayahnya, dan harimau itu melompat keluar dari semak-semak. Ayahnya berteriak padanya untuk berlari, tetapi dia menjawab, "Oh, tidak apa-apa ayah, harimau hanya makan ibu."

Tetapi di sisi lain:

Seorang gadis dan ibunya keluar berjalan-jalan di hutan bersama, ketika tiba-tiba seekor harimau melompat keluar dari semak-semak dan melahap ibunya. Hari berikutnya ayahnya menemukan dia meringkuk di kamarnya dan bertanya mengapa dia tidak bermain-main dengan teman-temannya. Dia menjawab, "Tidak! Jika aku pergi ke luar, harimau pasti akan memakanku!"

Baik overfitting dan underfitting dapat menjadi buruk, tetapi saya akan mengatakan bahwa itu tergantung pada konteks masalah yang Anda coba selesaikan mana yang membuat Anda lebih khawatir.

Elang Hitam
sumber
2

Salah satu yang sebenarnya saya temui adalah sesuatu seperti ini. Pertama, saya mengukur sesuatu di mana saya berharap rasio input terhadap output secara linier. Inilah data mentah saya:

Input   Expected Result
1.045   0.268333453
2.095   0.435332226
3.14    0.671001483
4.19    0.870664399
5.235   1.073669373
6.285   1.305996464
7.33    1.476337174
8.38    1.741328368
9.425   1.879004941
10.47   2.040661489

Dan ini adalah grafik:

masukkan deskripsi gambar di sini

Tampaknya sesuai dengan harapan saya akan data linier. Harus cukup mudah untuk menyimpulkan persamaan, kan? Jadi Anda membiarkan program Anda menganalisis data ini sebentar, dan akhirnya melaporkan bahwa ia menemukan persamaan yang mengenai semua titik data ini, dengan akurasi 99,99%! Luar biasa! Dan persamaan itu adalah ... 9sin (x) + x / 5. Yang terlihat seperti ini: masukkan deskripsi gambar di sini

Nah, persamaannya pasti memprediksi data input dengan akurasi yang hampir sempurna, tetapi karena terlalu cocok untuk data input, itu cukup berguna untuk melakukan hal lain.

Mooing Duck
sumber
Saya pikir overfitting lebih merupakan pertanyaan tentang apa yang Anda lakukan salah setelah Anda memiliki data input. Di sini tidak ada yang bisa Anda lakukan; input tidak memadai karena ada undersampling.
Emre
1
@ Emre: Saya tidak bermaksud untuk undersampling, saya bermaksud agar input / output menjadi linear, tetapi over-fitting menghasilkan persamaan yang jelas non-linear. Saya akan mengedit untuk menjelaskan.
Mooing Duck
1

Lihatlah artikel ini, itu menjelaskan overfitting dan underfitting dengan cukup baik.

http://scikit-learn.org/stable/auto_examples/model_selection/plot_underfitting_overfitting.html

Artikel ini membahas contoh data sinyal dari fungsi kosinus. Model overfitting memprediksi sinyal menjadi fungsi yang sedikit lebih rumit (yang juga didasarkan pada fungsi kosinus). Namun, model overfitted menyimpulkan ini bukan berdasarkan generalisasi tetapi pada menghafal noise dalam data sinyal.

Arnab Datta
sumber
4
Jika tautan itu putus, jawaban Anda akan hampir tidak berharga. Tolong berikan setidaknya ringkasan (dengan atribusi, tentu saja) sehingga jawabannya memiliki nilai yang terlepas dari tautan itu.
Raphael
1

Tanpa pengalaman dalam pembelajaran mesin dan menilai dari jawaban @ jmite di sini adalah visualisasi dari apa yang saya pikir maksudnya:

Grafik acak dengan perkiraan bentuk yang tepat untuk demonstrasi

Asumsikan bilah individual dalam grafik di atas adalah data Anda, untuk itu Anda mencoba mengetahui tren umum untuk diterapkan pada set data yang lebih besar. Tujuan Anda adalah menemukan garis lengkung. Jika Anda berpakaian berlebihan - alih-alih garis lengkung yang ditampilkan, Anda menyambungkan bagian atas dari setiap bilah individual, dan kemudian menerapkannya pada kumpulan data Anda - dan mendapatkan respons runcing aneh yang tidak akurat karena suara (variasi dari yang diharapkan) akan dilebih-lebihkan ke dalam set data praktik nyata Anda.

Saya harap saya telah membantu ...

Azrantha
sumber
0

Overfitting dalam kehidupan nyata:

Orang kulit putih melihat berita tentang orang kulit hitam yang melakukan kejahatan. Orang kulit putih melihat berita lain tentang orang kulit hitam yang melakukan kejahatan. Orang kulit putih melihat berita ketiga tentang orang kulit hitam yang melakukan kejahatan. Orang kulit putih melihat berita tentang orang kulit putih yang mengenakan baju merah, orang tua yang kaya, dan sejarah penyakit mental melakukan kejahatan. Orang kulit putih menyimpulkan bahwa semua orang kulit hitam melakukan kejahatan, dan hanya orang kulit putih yang mengenakan baju merah, orang tua yang makmur, dan sejarah penyakit mental yang melakukan kejahatan.

Jika Anda ingin memahami mengapa overfitting semacam ini "buruk", ganti saja "hitam" di atas dengan beberapa atribut yang sedikit banyak mendefinisikan Anda secara unik.

Manusia mesin pemotong rumput
sumber
Stereotyping adalah apa yang disebut orang awam terlalu pantas.
Emre
3
Itu tidak berlebihan. Overfitting akan menjadi sistem yang memutuskan bahwa satu-satunya orang yang menjadi penjahat adalah mereka yang memiliki warna kulit, warna baju, pendapatan orang tua, dan riwayat penyakit mental yang sama dengan salah satu penjahat dalam laporan berita.
David Richerby
8
@Emre Tidak, stereotip adalah kebalikan dari overfitting. Stereotyping sampai pada kesimpulan yang mengabaikan sebagian besar properti data pelatihan. Overfitting sampai pada kesimpulan bahwa hanya data yang setiap titik dalam data pelatihan dengan sempurna menggambarkan bagian dari hal yang Anda coba kenali.
David Richerby
Catatan Moderator: komentar di luar topik / di luar konteks dihapus. Untuk diskusi umum, silakan kunjungi Obrolan Ilmu Komputer . Jika Anda memiliki pertanyaan tentang program tertentu yang mungkin atau mungkin tidak menggunakan overfitting bermanfaat, silakan ajukan pertanyaan baru.
Gilles 'SANGAT berhenti menjadi jahat'
2
@ArnabDatta Overfitting terlalu cocok dengan model yang terlalu rumit untuk data pelatihan; stereotip adalah penggunaan model yang terlalu disederhanakan.
David Richerby
0

Setiap data yang Anda uji akan memiliki properti yang ingin Anda pelajari, dan beberapa properti yang tidak relevan yang tidak ingin Anda pelajari.

John berusia 11
Jack berusia 19 tahun
Kate berusia 31
Lana berusia 39 tahun

Pemasangan yang tepat: Usia kira-kira linier, melewati ~ usia 20
Pakaian: Dua manusia tidak dapat terpisah 10 tahun (properti kebisingan dalam data)
Pakaian dalam: 1/4 dari semua manusia berusia 19 (stereotip)

Nick
sumber
Selamat datang! Kami sudah memiliki banyak contoh informal, jadi saya tidak yakin ini menambah banyak. Dan sepertinya sulit untuk menjadikan contoh ini lebih formal. Misalnya, apa fungsi linear yang Anda sebutkan? Input ke fungsi tampaknya adalah nama orang tersebut, yang bukan angka. Sementara itu, "dua manusia tidak dapat terpisah sepuluh tahun" dan "1/4 manusia adalah 19" bukanlah contoh fungsi yang dipelajari dari data.
David Richerby