Saya tidak pernah benar-benar memahami perbedaan antara dua ukuran konvergensi ini. (Atau, pada kenyataannya, salah satu dari jenis konvergensi yang berbeda, tetapi saya menyebutkan keduanya secara khusus karena Lemah dan Hukum Kuat dari Sejumlah Besar.)
Tentu, saya bisa mengutip definisi masing-masing dan memberikan contoh di mana mereka berbeda, tetapi saya masih belum mengerti.
Apa cara yang baik untuk memahami perbedaannya? Mengapa perbedaan itu penting? Apakah ada contoh yang sangat mengesankan di mana mereka berbeda?
probability
random-variable
raegtin
sumber
sumber
Jawaban:
Dari sudut pandang saya perbedaan itu penting, tetapi sebagian besar karena alasan filosofis. Asumsikan Anda memiliki beberapa perangkat, yang membaik seiring waktu. Jadi, setiap kali Anda menggunakan perangkat, probabilitas kegagalannya kurang dari sebelumnya.
Konvergensi dalam probabilitas mengatakan bahwa peluang kegagalan menjadi nol karena jumlah penggunaan mencapai tak terhingga. Jadi, setelah menggunakan perangkat berkali-kali, Anda bisa sangat percaya bahwa perangkat itu bekerja dengan benar, masih mungkin gagal, hanya saja sangat tidak mungkin.
Konvergensi hampir pasti sedikit lebih kuat. Dikatakan bahwa jumlah total kegagalan adalah terbatas . Artinya, jika Anda menghitung jumlah kegagalan saat jumlah penggunaan mencapai tak terhingga, Anda akan mendapatkan angka yang terbatas. Dampak dari hal ini adalah sebagai berikut: Saat Anda menggunakan perangkat lebih dan lebih, Anda akan, setelah beberapa kali penggunaan terbatas, menghabiskan semua kegagalan. Sejak saat itu perangkat akan bekerja dengan sempurna .
Seperti yang ditunjukkan oleh Srikant, Anda sebenarnya tidak tahu kapan Anda telah menghabiskan semua kegagalan, jadi dari sudut pandang yang sepenuhnya praktis, tidak ada banyak perbedaan antara kedua mode konvergensi.
Namun, secara pribadi saya sangat senang bahwa, misalnya, ada hukum yang kuat dalam jumlah besar, tidak seperti hukum yang lemah. Karena sekarang, percobaan ilmiah untuk mendapatkan, katakanlah, kecepatan cahaya, dibenarkan dalam mengambil rata-rata. Setidaknya secara teori, setelah mendapatkan data yang cukup, Anda bisa mendekati kecepatan cahaya yang sebenarnya. Tidak akan ada kegagalan (betapapun mustahil) dalam proses rata-rata.
sumber
Saya tahu pertanyaan ini telah dijawab (dan cukup baik, dalam pandangan saya), tetapi ada pertanyaan berbeda di sini yang memiliki komentar @NRH yang menyebutkan penjelasan grafis, dan daripada meletakkan gambar di sana , tampaknya lebih cocok untuk letakkan di sini.
Jadi begini. Ini tidak sekeren paket R. Tapi itu mandiri dan tidak memerlukan berlangganan JSTOR.
SLLN (konvergensi hampir pasti) mengatakan bahwa kita dapat 100% yakin bahwa kurva ini membentang ke kanan pada akhirnya akan, pada waktu yang terbatas, jatuh sepenuhnya dalam band selamanya setelah itu (ke kanan).
Kode R yang digunakan untuk menghasilkan grafik ini di bawah ini (label petak dihilangkan untuk singkatnya).
Kode R untuk grafik mengikuti (sekali lagi, melompati label).
sumber
Saya memahaminya sebagai berikut,
Konvergensi dalam probabilitas
Probabilitas bahwa urutan variabel acak sama dengan nilai target menurun secara asimptotik dan mendekati 0 tetapi tidak pernah benar-benar mencapai 0.
Konvergensi Hampir Pasti
Urutan variabel acak akan sama dengan nilai target asimtotik tetapi Anda tidak dapat memprediksi pada titik mana hal itu akan terjadi.
The wiki memiliki beberapa contoh baik yang harus membantu memperjelas atas (khususnya lihat contoh dari pemanah dalam konteks konvergensi di prob dan contoh amal dalam konteks hampir yakin konvergensi).
Dari sudut pandang praktis, konvergensi dalam probabilitas sudah cukup karena kami tidak terlalu peduli dengan kejadian yang sangat tidak mungkin. Sebagai contoh, konsistensi estimator pada dasarnya adalah konvergensi dalam probabilitas. Jadi, ketika menggunakan estimasi yang konsisten, kami secara implisit mengakui fakta bahwa dalam sampel besar ada kemungkinan yang sangat kecil bahwa estimasi kami jauh dari nilai sebenarnya. Kita hidup dengan 'cacat' konvergensi dalam probabilitas karena kita tahu bahwa secara asimptot probabilitas estimator yang jauh dari kebenaran semakin kecil.
sumber
Jika Anda menikmati penjelasan visual, ada artikel 'Pojok Guru' yang bagus tentang masalah ini di American Statistician (kutip di bawah). Sebagai bonus, penulis menyertakan paket R untuk memfasilitasi pembelajaran.
sumber
Orang terakhir ini menjelaskannya dengan sangat baik. Jika Anda mengambil urutan variabel acak Xn = 1 dengan probabilitas 1 / n dan nol sebaliknya. Mudah untuk melihat batas yang konvergen ke nol dalam probabilitas, tetapi gagal untuk konvergen hampir pasti. Seperti yang dia katakan, probabilitas tidak peduli bahwa kita mungkin mendapatkan satu di jalan. Hampir pasti.
Hampir pasti menyiratkan konvergensi dalam probabilitas, tetapi tidak sebaliknya?
sumber
Satu hal yang membantu saya memahami perbedaannya adalah kesetaraan berikut
∀ ϵ > 0P(limn→∞|Xn−X|=0)=1⇐⇒limn→∞(supm>=n|Xm−X|>ϵ)=0 ∀ϵ>0
Dalam perbandingan konvergensi stokastik:
∀ ϵ > 0limn→∞P(|Xn−X|>ϵ)=0 ∀ϵ>0
Ketika membandingkan sisi kanan equivlance atas dengan konvergensi stokastik, saya kira perbedaannya menjadi lebih jelas.
sumber