Saya tahu bahwa k-means tidak diawasi dan digunakan untuk pengelompokan dll dan bahwa k-NN diawasi. Tapi saya ingin tahu perbedaan konkret antara
k-Nearest-Neighbor Classifier Kelas-kelas ini berbasis memori, dan tidak memerlukan model yang sesuai. Diberi poin permintaan x0, kami menemukan poin pelatihan k x (r), r = 1, ..., k paling dekat jaraknya ke x0, dan kemudian mengklasifikasikan menggunakan suara terbanyak di antara tetangga k.
Saya tahu bahwa k-means tidak diawasi dan digunakan untuk pengelompokan dll dan bahwa k-NN diawasi. Tapi saya ingin tahu perbedaan konkret antara
Saya ingin membuat plot yang dijelaskan dalam buku ElemStatLearn "Unsur-unsur Pembelajaran Statistik: Penambangan Data, Inferensi, dan Prediksi. Edisi Kedua" oleh Trevor Hastie & Robert Tibshirani & Jerome Friedman. Plotnya adalah: Saya bertanya-tanya bagaimana saya bisa menghasilkan...
Saya baru saja menemukan makalah ini , yang menjelaskan bagaimana menghitung pengulangan (alias reliabilitas, alias korelasi intraclass) dari pengukuran melalui pemodelan efek campuran. Kode R adalah: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc =...
Dari apa yang saya pahami, kita hanya bisa membangun fungsi regresi yang terletak di dalam interval data pelatihan. Misalnya (hanya satu panel yang diperlukan): Bagaimana saya memprediksi ke masa depan menggunakan regresor KNN? Sekali lagi, tampaknya hanya memperkirakan fungsi yang berada dalam...
Saya agak baru dalam pendataan / pembelajaran mesin / dll. dan telah membaca tentang beberapa cara untuk menggabungkan beberapa model dan menjalankan model yang sama untuk meningkatkan prediksi. Kesan saya dari membaca beberapa makalah (yang sering menarik dan hebat dalam teori dan huruf Yunani...
Pada tahun 1999, Beyer et al. bertanya, Kapan "Tetangga Terdekat" bermakna? Adakah cara yang lebih baik untuk menganalisis dan memvisualisasikan efek jarak rata pada pencarian NN sejak 1999? Apakah set data yang diberikan memberikan jawaban yang berarti untuk masalah 1-NN? Masalah 10-NN?...
Apa kompleksitas waktu dari algoritma k -NN dengan pendekatan pencarian naif (tidak ada pohon kd atau similars)? Saya tertarik pada kompleksitas waktunya mempertimbangkan juga hyperparameter k . Saya telah menemukan jawaban yang bertentangan: O (nd + kn), di mana n adalah kardinalitas set...
Tampaknya KNN adalah algoritma pembelajaran yang diskriminatif, tetapi saya tidak dapat menemukan sumber online yang mengkonfirmasi hal ini. Apakah KNN merupakan algoritma pembelajaran
Tempat saya telah membaca tentang kutukan dimensionalitas menjelaskannya dalam hubungannya dengan kNN terutama, dan model linier secara umum. Saya secara teratur melihat peringkat teratas di Kaggle menggunakan ribuan fitur pada dataset yang hampir tidak memiliki 100k titik data. Mereka terutama...
Saya melakukan CV 5 kali lipat untuk memilih K yang optimal untuk KNN. Dan sepertinya semakin besar K, semakin kecil kesalahannya ... Maaf saya tidak punya legenda, tetapi warna yang berbeda mewakili cobaan yang berbeda. Ada 5 total dan sepertinya ada sedikit variasi di antara mereka. Kesalahan...
Bisakah seseorang tolong jelaskan kepada saya mengapa Anda perlu menormalkan data saat menggunakan K tetangga terdekat. Saya sudah mencoba mencari ini, tetapi saya masih belum bisa memahaminya. Saya menemukan tautan berikut: https://discuss.analyticsvidhya.com/t/why-it-is-n
Saya mencari paket imputasi KNN. Saya telah melihat paket imputasi ( http://cran.r-project.org/web/packages/imputation/imputation.pdf ) tetapi untuk beberapa alasan fungsi impute KNN (bahkan ketika mengikuti contoh dari deskripsi) hanya tampak untuk memasukkan nilai nol (sesuai di bawah ini). Saya...
Saya memprogram algoritma kNN dan ingin mengetahui yang berikut: Tie-breaks: Apa yang terjadi jika tidak ada pemenang yang jelas dalam pemungutan suara mayoritas? Misalnya semua k tetangga terdekat berasal dari kelas yang berbeda, atau untuk k = 4 ada 2 tetangga dari kelas A dan 2 tetangga dari...
Saya mengerti alasan di balik normalisasi kolom, karena hal itu menyebabkan fitur-fitur menjadi tertimbang sama rata, bahkan jika mereka tidak diukur pada skala yang sama - namun, sering dalam literatur tetangga terdekat, baik kolom dan baris dinormalisasi. Apa normalisasi baris untuk / mengapa...
Saya baru mengenal kernel dan telah mengalami kesulitan saat mencoba kernelkan kNN. Persiapan Saya menggunakan kernel polinomial: K( X , y ) = ( 1 + ⟨ x , y ⟩ )dK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d KNN Euclidean khas Anda menggunakan metrik...
Adakah yang bisa melaporkan pengalaman mereka dengan penaksir kepadatan kernel adaptif? (Ada banyak sinonim: adaptif | variabel | lebar variabel, KDE | histogram | interpolator ...) Estimasi kepadatan kernel variabel mengatakan "kami memvariasikan lebar kernel di berbagai daerah ruang sampel....
Menurut beberapa makalah yang saya baca, jarak Jeffries dan Matusita biasa digunakan. Tetapi saya tidak dapat menemukan banyak informasi tentang itu kecuali rumus di bawah ini JMD (x, y) =∑(xi−−√2−yi−−√2)2−−−−−−−−−−−−−√2∑(xi2−yi2)22\sqrt[2]{\sum(\sqrt[2]{x_i}-\sqrt[2]{y_i})^2} Ini mirip dengan...
Dalam Elemen Pembelajaran Statistik , masalah diperkenalkan untuk menyoroti masalah dengan k-nn dalam ruang dimensi tinggi. Ada titik data yang terdistribusi secara seragam dalam satuan bola -dimensi.pNNNppp Jarak median dari titik asal ke titik data terdekat diberikan oleh
Saya membaca buku Kevin Murphy: Machine Learning-A probabilistic Perspective. Dalam bab pertama penulis menjelaskan kutukan dimensi dan ada bagian yang saya tidak mengerti. Sebagai contoh, penulis menyatakan: Pertimbangkan input didistribusikan secara seragam di sepanjang unit D-dimensi cube....
Seperti yang saya pahami, k-NN adalah algoritma pelajar yang malas dan tidak membutuhkan fase pelatihan. Jadi mengapa kita perlu menggunakan .fit()sklearn dan apa yang terjadi ketika kita