Pertanyaan Umum
Katakanlah kita memiliki data id , , ... θ n - 1 ,
tanpa harus memulai dari awal. Apakah ada algoritma umum untuk ini?
Contoh mainan
Jika , , ... , maka
jadi
μ n - 1 = 1 μ
Katakanlah kita memiliki data id , , ... θ n - 1 ,
tanpa harus memulai dari awal. Apakah ada algoritma umum untuk ini?
Jika , , ... , maka
jadi
μ n - 1 = 1 μ
Jawaban:
Lihat konsep kecukupan dan khususnya, statistik yang cukup minimal . Dalam banyak kasus Anda membutuhkan seluruh sampel untuk menghitung estimasi pada ukuran sampel tertentu, tanpa cara sepele untuk memperbarui dari sampel satu ukuran lebih kecil (yaitu tidak ada hasil umum yang nyaman).
Jika distribusinya adalah keluarga eksponensial (dan dalam beberapa kasus lain selain itu, seragam adalah contoh yang rapi) ada statistik yang cukup bagus yang dalam banyak kasus dapat diperbarui dengan cara yang Anda cari (yaitu dengan sejumlah distribusi yang umum digunakan akan ada pembaruan cepat).
Salah satu contoh saya tidak mengetahui adanya cara langsung untuk menghitung atau memperbarui adalah perkiraan untuk lokasi distribusi Cauchy (misalnya dengan skala unit, untuk membuat masalah menjadi masalah satu-parameter yang sederhana). Namun, mungkin ada pembaruan yang lebih cepat, yang belum saya perhatikan - saya tidak bisa mengatakan saya telah melakukan lebih dari sekadar melirik untuk mempertimbangkan kasus pembaruan.
Di sisi lain, dengan MLE yang diperoleh melalui metode optimasi numerik, estimasi sebelumnya dalam banyak kasus akan menjadi titik awal yang bagus, karena biasanya estimasi sebelumnya akan sangat dekat dengan estimasi yang diperbarui; setidaknya dalam arti itu, pembaruan cepat harus sering dilakukan. Meskipun ini bukan kasus umum - dengan fungsi kemungkinan multimodal (sekali lagi, lihat Cauchy sebagai contoh), pengamatan baru dapat menyebabkan mode tertinggi berada agak jauh dari yang sebelumnya (bahkan jika lokasi masing-masing dari beberapa mode terbesar tidak banyak berubah, mana yang tertinggi dapat berubah).
sumber
Dalam pembelajaran mesin, ini disebut sebagai pembelajaran online .
Seperti yang ditunjukkan @Glen_b, ada kasus khusus di mana MLE dapat diperbarui tanpa perlu mengakses semua data sebelumnya. Seperti yang dia tunjukkan, saya tidak percaya ada solusi umum untuk menemukan MLE.
Pendekatan yang cukup umum untuk menemukan solusi perkiraan adalah dengan menggunakan sesuatu seperti penurunan gradien stokastik. Dalam hal ini, saat setiap pengamatan masuk, kami menghitung gradien sehubungan dengan pengamatan individual ini dan memindahkan nilai parameter dalam jumlah yang sangat kecil ke arah ini. Dalam kondisi tertentu, kami dapat menunjukkan bahwa ini akan menyatu dengan lingkungan MLE dengan probabilitas tinggi; lingkungan semakin ketat karena kami mengurangi ukuran langkah, tetapi lebih banyak data diperlukan untuk konvergensi. Namun, metode stokastik ini secara umum membutuhkan lebih banyak mengutak-atik untuk mendapatkan kinerja yang baik daripada, katakanlah, pembaruan formulir tertutup.
sumber