Statistik dan Big Data

10
Jeffrey sebelum kemungkinan binomial

Jika saya menggunakan Jeffreys sebelum untuk parameter probabilitas binomial maka ini berarti menggunakan distribusi .q ~ b e t a ( 1 / 2 , 1 / 2 )θθ\thetaθ∼beta(1/2,1/2)θ∼beta(1/2,1/2)\theta \sim beta(1/2,1/2) Jika saya bertransformasi ke kerangka referensi baru maka jelas juga tidak...

10
Varian "Rata-rata"

Saya perlu mendapatkan semacam "rata-rata" di antara daftar varian, tetapi mengalami masalah dengan solusi yang masuk akal. Ada diskusi menarik tentang perbedaan di antara tiga cara Pythagoras (aritmatika, geometris, dan harmonik) di utas ini ; Namun, saya masih tidak merasa ada di antara mereka...

10
Mengapa kita tidak bisa menggunakan

Bayangkan kita memiliki model regresi linier dengan variabel dependen . Kami menemukan . Sekarang, kami melakukan regresi lain, tetapi kali ini di , dan juga menemukan . Saya telah diberitahu bahwa saya tidak dapat membandingkan kedua untuk melihat model mana yang lebih cocok. Mengapa demikian?...

10
Regularisasi: mengapa dikalikan dengan 1 / 2m?

Dalam minggu 3 catatan kuliah dari kelas Coursera Machine Learning Andrew Ng , istilah ditambahkan ke fungsi biaya untuk melaksanakan regularisasi: J+( θ ) = J( θ ) + λ2 m∑j = 1nθ2jJ+(θ)=J(θ)+λ2m∑j=1nθj2J^+(\theta) = J(\theta) + \frac{\lambda}{2m} \sum_{j=1}^n \theta_j^2 Catatan kuliah...

10
Clustering sebagai reduksi dimensi

Saya membaca buku "Machine learning with Spark" oleh Nick Pentreath, dan di halaman 224-225 penulis membahas tentang penggunaan K-means sebagai bentuk pengurangan dimensionalitas. Saya belum pernah melihat pengurangan dimensi seperti ini, apakah ada nama atau / dan berguna untuk bentuk data...