Bagaimana cara menguji apakah matriks kovarian silang tidak nol?

11

Latar belakang penelitian saya :

Dalam sampling Gibbs di mana kami sampel (variabel minat) dan dari dan masing-masing, di mana dan adalah vektor acak -dimensi. Kita tahu bahwa proses ini biasanya dibagi menjadi dua tahap:XYP(X|Y)P(Y|X)XYk

  1. Periode Bakar, di mana kami membuang semua sampel. sampel sebagai dan .X1XtY1Yt
  2. Periode "After-Burn-in", di mana kami rata-rata sampel sebagai hasil akhir yang diinginkan kami.X¯=1ki=1kXt+i

Namun, sampel dalam urutan "after-burn-in" tidak didistribusikan secara independen. Karena itu jika saya ingin memeriksa varian hasil akhirnya, itu menjadiXt+1Xt+k

Var[X¯]=Var[i=1kXt+i]=1k2(i=1kVar[Xt+i]+i=1k1j=i+1kCov[Xt+i,Xt+j])

Di sini istilah adalah matriks kovarians lintas berlaku untuk setiap dengan .k × k ( i , j ) i < jCov[Xt+i,Xt+j]k×k(i,j)i<j

Sebagai contoh, saya punya

Xt+1=(1,2,1)Xt+2=(1,0,2)Xt+3=(1,0,0)Xt+4=(5,0,1)

maka saya dapat memperkirakan matriks kovarians denganCov[Xt+i,Xt+i+1]

13i=13(Xt+iμt+i)(Xt+i+1μt+i+1)

Sekarang saya tertarik jika estimasi yang dihasilkan secara signifikan bukan nol sehingga saya perlu memasukkannya ke dalam estimasi varians saya dari .Var[X¯]

Jadi inilah pertanyaan saya :

  1. Kami mengambil sampel dari . Karena berubah, saya pikir dan tidak dari distribusi yang sama, jadi tidak sama dengan . Apakah pernyataan ini benar? P ( X t + i | Y t + i ) Y t + i X t + i X t + i + 1 Cov [ X t + i , X t + j ] Cov [ X t + i , X t + i ]Xt+iP(Xt+i|Yt+i)Yt+iXt+iXt+i+1Cov[Xt+i,Xt+j]Cov[Xt+i,Xt+i]
  2. Misalkan saya memiliki cukup data untuk memperkirakan (sampel tetangga dalam urutan), apakah ada cara untuk menguji apakah matriks kovarians secara signifikan merupakan matriks bukan nol? Secara umum, saya tertarik pada indikator yang menuntun saya ke beberapa matriks lintas-kovarian yang bermakna yang harus dimasukkan dalam estimasi varians akhir saya.Cov[Xt+i,Xt+i+1]
TomHall
sumber
4
Sebenarnya, sekarang ini sepertinya pertanyaan yang cukup bagus; Saya pikir beberapa orang akan ditempatkan lebih baik untuk memberikan jawaban yang baik daripada saya, jadi saya ingin mempromosikan ini (beri hadiah) ketika itu akan memenuhi syarat segera. [Jawaban singkat: 1. Kedua kovarian itu berbeda. 2. Anda tidak perlu menguji apakah variasi berturut-turut berkorelasi (dalam semua kasus kecuali yang paling sepele; algoritma bekerja dengan menghasilkan variabel dependen) - lebih menarik untuk mengukur korelasi daripada mengujinya;] ... jika jawaban yang bagus tidak muncul, saya akan memperluas komentar singkat itu menjadi jawaban lengkap
Glen_b -Reinstate Monica
4
Tampaknya pertanyaan Anda jauh lebih luas daripada pertanyaan judul Anda. Khusus untuk menjawab pertanyaan judul Anda, ada uji kebulatan Bartlett yang memungkinkan untuk menguji apakah matriks kovarians sampel diagonal. Anda mungkin perlu menyesuaikannya dengan skenario lintas-kovarians Anda ("matriks kovarians" Anda sebenarnya bukan matriks kovarians, ini adalah matriks lintas-kovarian; ini merupakan blok off-diagonal dari matriks kovarians penuh baik X_t dan X_ { t +1} bersama-sama). CC ke @Glen_b.
Amuba mengatakan Reinstate Monica
2
Saya akan menambahkan bahwa kovarian cenderung meluruh kurang lebih secara geometris (semakin meningkat saat Anda bergerak lebih jauh); nilai yang berjauhan dalam waktu cenderung memiliki korelasi yang sangat rendah ( bukan nol tetapi sebagian besar dapat diabaikan) sementara mereka yang berdekatan kadang-kadang bisa sangat tergantung.
Glen_b -Reinstate Monica
1
@ Tom 1. Namun, dengan seri stasioner, pada jarak yang sangat jauh (4 tidak jauh!), Apa yang terjadi pada ACF? 2. Anda tahu sesuatu tentang bagaimana nilai yang dihasilkan dari MCMC bekerja sehingga Anda tidak bisa mengatakan tentang deret waktu yang sewenang-wenang ... mereka Markovian . Anda akan mencatat bahwa komentar saya sebelumnya tidak mengklaim bahwa kelambanan terdekat harus menunjukkan pembusukan geometris (mis. Saya tidak mengatakan bahwa tidak mungkin untuk melihat korelasi yang lebih tinggi pada kelambatan 4 dari 3). Anda masih akan mendapatkan (jika kondisi tertentu berlaku) kecenderungan untuk pembusukan geometris di ACF saat Anda bergerak berjauhan.
Glen_b -Reinstate Monica
2
Jika periode pengambilan sampel Anda sangat singkat sehingga Anda tidak memiliki perkiraan silang kovarians yang sangat akurat, Anda mungkin hanya harus berurusan dengan fakta bahwa perkiraan Anda terhadap persyaratan lintas-kovarian memiliki kesalahan standar yang besar. Mengingat pemahaman saya saat ini, saya bahkan lebih kuat akan menegaskan kembali keberatan saya untuk menguji korelasi. Pengujian hipotesis untuk korelasi nol vs tidak nol tidak mengatasi masalah Anda di sini.
Glen_b -Reinstate Monica

Jawaban:

1
  1. Kami mengambil sampel dari . Karena berubah, saya pikir dan tidak berasal dari distribusi yang sama [...] P ( X t + i | Y t + i ) Y t + i X t + i X t + i + 1Xt+iP(Xt+i|Yt+i)Yt+iXt+iXt+i+1

Anda bingung distribusi kondisional dan tanpa syarat di sini, lihat juga komentar saya berikutnya. Bersyarat pada dan , . Tetapi seluruh titik membangun sampler Gibbs Anda adalah untuk sampel dari distribusi stasioner dari dan . Secara kasar, jika Anda telah menjalankan rantai Anda cukup lama dan sehingga mengikuti distribusi stasioner, Anda dapat mengatakan berarti bahwa distribusi tanpa syarat juga invarian. Dengan kata lain, sebagaiY t + i + 1 = y 2 P ( X t + i | Y t + i = y 1 ) P ( X t + i + 1 | Y t + i + 1 = y 2 ) X Y { Y t } P ( X tYt+i=y1Yt+i+1=y2P(Xt+i|Yt+i=y1)P(Xt+i+1|Yt+i+1=y2)XY{Yt} XttP(Xt+i|Yt+i)=P(Xt+i+1|Yt+i+1)Yt+iYt+i

P(Xt)=YP(Xt|Yt)dP(Yt),
Xtt dan kami bertemu ke distribusi stasioner, , karena dan akan diambil secara asimptotik dari (yang sama!) distribusi stasioner . Di sisi lain dan seperti sebelumnya, setelah kami mengkondisikan pada dan , ini tidak akan bertahan lagi, terlepas dari seberapa besar .P(Xt+i|Yt+i)=P(Xt+i+1|Yt+i+1)Yt+i P( Y t ) Y t + i = y 1 Y t + i + 1 = y 2 tYt+i+1P(Yt)Yt+i=y1Yt+i+1=y2t

[...] jadi tidak sama dengan . Apakah pernyataan ini benar?Cov [ X t + i , X t + i ]Cov[Xt+i,Xt+j]Cov[Xt+i,Xt+i]

Ya, ini benar - walaupun , yaitu dan memiliki distribusi stasioner yang sama. Saya tahu ini mungkin membingungkan, tetapi bersabarlah. Definisikan dengan . Dengan substitusi berulang, kita dapat menunjukkan bahwa , dan karena (tak terbatas) jumlah normals masih normal, ia menyatakan bahwa dan agar . Jelas, danXt+1XtXtXt+1Yt=0.8Yt1+εtεtiidN(0,1)Yt=i=0t0.8iεti YtiidN(0,1Var(Yt)=i=0t0.82i=110.82YtYt+1Yt+1YtXtYtiidN(0,110.82)YtYt+1masih akan dikorelasikan, tetapi mereka juga akan berasal dari distribusi yang sama ( ). Situasi serupa berlaku untuk Anda .Yt+1YtXt

  1. Misalkan saya memiliki cukup data untuk memperkirakan (sampel tetangga dalam urutan), apakah ada cara untuk menguji apakah matriks kovarians secara signifikan merupakan matriks bukan nol? Secara umum, saya tertarik pada indikator yang menuntun saya ke beberapa matriks lintas-kovarian yang bermakna yang harus dimasukkan dalam estimasi varians akhir saya.Cov[Xt+i,Xt+i+1]

Nah, jika Anda memiliki banyak pengamatan yang tak terhingga, semuanya pada akhirnya akan menjadi signifikan. Jelas, Anda tidak dapat melakukan ini dalam praktik, tetapi ada cara 'memotong' ekspansi setelah beberapa istilah, lihat jawaban yang sangat baik diterima di sini. Pada dasarnya, Anda mendefinisikan kernel yang meluruh ke dan memberikan bobot ke matriks kovarians pertama yang dapat Anda hitung. Jika Anda ingin memilih dengan cara berprinsip, Anda harus menggali sedikit ke dalam literatur, tetapi posting yang saya tautkan memberi Anda beberapa referensi yang baik untuk melakukan hal itu.0 l T l Tk()0lTlT

Jeremias K
sumber