Latar belakang penelitian saya :
Dalam sampling Gibbs di mana kami sampel (variabel minat) dan dari dan masing-masing, di mana dan adalah vektor acak -dimensi. Kita tahu bahwa proses ini biasanya dibagi menjadi dua tahap:
- Periode Bakar, di mana kami membuang semua sampel. sampel sebagai dan .
- Periode "After-Burn-in", di mana kami rata-rata sampel sebagai hasil akhir yang diinginkan kami.
Namun, sampel dalam urutan "after-burn-in" tidak didistribusikan secara independen. Karena itu jika saya ingin memeriksa varian hasil akhirnya, itu menjadi
Di sini istilah adalah matriks kovarians lintas berlaku untuk setiap dengan .k × k ( i , j ) i < j
Sebagai contoh, saya punya
maka saya dapat memperkirakan matriks kovarians dengan
Sekarang saya tertarik jika estimasi yang dihasilkan secara signifikan bukan nol sehingga saya perlu memasukkannya ke dalam estimasi varians saya dari .
Jadi inilah pertanyaan saya :
- Kami mengambil sampel dari . Karena berubah, saya pikir dan tidak dari distribusi yang sama, jadi tidak sama dengan . Apakah pernyataan ini benar? P ( X t + i | Y t + i ) Y t + i X t + i X t + i + 1 Cov [ X t + i , X t + j ] Cov [ X t + i , X t + i ]
- Misalkan saya memiliki cukup data untuk memperkirakan (sampel tetangga dalam urutan), apakah ada cara untuk menguji apakah matriks kovarians secara signifikan merupakan matriks bukan nol? Secara umum, saya tertarik pada indikator yang menuntun saya ke beberapa matriks lintas-kovarian yang bermakna yang harus dimasukkan dalam estimasi varians akhir saya.
Jawaban:
Anda bingung distribusi kondisional dan tanpa syarat di sini, lihat juga komentar saya berikutnya. Bersyarat pada dan , . Tetapi seluruh titik membangun sampler Gibbs Anda adalah untuk sampel dari distribusi stasioner dari dan . Secara kasar, jika Anda telah menjalankan rantai Anda cukup lama dan sehingga mengikuti distribusi stasioner, Anda dapat mengatakan berarti bahwa distribusi tanpa syarat juga invarian. Dengan kata lain, sebagaiY t + i + 1 = y 2 P ( X t + i | Y t + i = y 1 ) ≠ P ( X t + i + 1 | Y t + i + 1 = y 2 ) X Y { Y t } P ( X tYt+i=y1 Yt+i+1=y2 P(Xt+i|Yt+i=y1)≠P(Xt+i+1|Yt+i+1=y2) X Y {Yt} Xtt→∞P(Xt+i|Yt+i)=P(Xt+i+1|Yt+i+1)Yt+iYt+i
Ya, ini benar - walaupun , yaitu dan memiliki distribusi stasioner yang sama. Saya tahu ini mungkin membingungkan, tetapi bersabarlah. Definisikan dengan . Dengan substitusi berulang, kita dapat menunjukkan bahwa , dan karena (tak terbatas) jumlah normals masih normal, ia menyatakan bahwa dan agar . Jelas, danXt+1∼Xt Xt Xt+1 Yt=0.8⋅Yt−1+εt εt∼iidN(0,1) Yt=∑ti=00.8iεt−i Ytiid∼N(0,1Var(Yt)=∑ti=00.82i=11−0.82 YtYt+1Yt+1∼YtXtYt∼iidN(0,11−0.82) Yt Yt+1 masih akan dikorelasikan, tetapi mereka juga akan berasal dari distribusi yang sama ( ). Situasi serupa berlaku untuk Anda .Yt+1∼Yt Xt
Nah, jika Anda memiliki banyak pengamatan yang tak terhingga, semuanya pada akhirnya akan menjadi signifikan. Jelas, Anda tidak dapat melakukan ini dalam praktik, tetapi ada cara 'memotong' ekspansi setelah beberapa istilah, lihat jawaban yang sangat baik diterima di sini. Pada dasarnya, Anda mendefinisikan kernel yang meluruh ke dan memberikan bobot ke matriks kovarians pertama yang dapat Anda hitung. Jika Anda ingin memilih dengan cara berprinsip, Anda harus menggali sedikit ke dalam literatur, tetapi posting yang saya tautkan memberi Anda beberapa referensi yang baik untuk melakukan hal itu.0 l T l Tk(⋅) 0 lT lT
sumber