Mengapa penyebut penaksir kovarians tidak menjadi n-2 daripada n-1?

36

Penyebut penduga varians (tidak bias) adalah n1 karena ada n pengamatan dan hanya satu parameter yang diperkirakan.

V(X)=i=1n(XiX¯)2n1

Dengan cara yang sama saya bertanya-tanya mengapa penyebut kovarians tidak menjadi n2 ketika dua parameter diperkirakan?

Cov(X,Y)=i=1n(XiX¯)(YiY¯)n1
MYaseen208
sumber
15
Jika Anda melakukan itu, Anda akan memiliki dua definisi bertentangan untuk varian: satu akan menjadi formula pertama dan yang lain akan menjadi rumus kedua diaplikasikan dengan Y=X .
whuber
3
Mean bi / multivariat (ekspektasi) adalah satu, bukan 2 parameter.
ttnphns
14
@ttnphns Itu tidak benar: mean bivariat jelas adalah dua parameter karena memerlukan dua bilangan real untuk mengekspresikannya. (Memang itu adalah parameter vektor tunggal , tetapi mengatakan demikian hanya menyamarkan fakta bahwa ia memiliki dua komponen.) Ini muncul secara eksplisit dalam derajat kebebasan untuk uji-t gabungan-ragam, misalnya, di mana 2 dikurangi, bukan 1 . Yang menarik dari pertanyaan ini adalah bagaimana ia mengungkapkan betapa kabur, tidak menarik, dan berpotensi menyesatkan adalah "penjelasan" umum yang kita kurangi 1 dari n karena satu parameter telah diperkirakan.
whuber
@whuber, Anda benar pada saat itu. Jika hanya (observasi independen) yang penting kita tidak akan menghabiskan lebih banyak df dalam tes multivariat dari dalam yang univariat. n
ttnphns
3
@whuber: Saya mungkin akan mengatakan bahwa itu menunjukkan bahwa apa yang dianggap sebagai "parameter" tergantung pada situasinya. Dalam hal ini varians dihitung atas pengamatann dan sehingga setiap pengamatan - atau total rata-rata - dapat dilihat sebagai satu parameter, bahkan jika itu adalah rata-rata multivariat, seperti yang dikatakan oleh ttnphns. Namun, dalam kasus lain ketika misalnya uji mempertimbangkan kombinasi linear dimensi, setiap dimensi dari setiap pengamatan menjadi "parameter". Anda benar bahwa ini adalah masalah yang rumit.
Amoeba berkata Reinstate Monica

Jawaban:

31

Varian adalah varian.

Karena dengan identitas polarisasi

Cov(X,Y)=Var(X+Y2)Var(XY2),

penyebutnya harus sama.

whuber
sumber
20

Kasus khusus harus memberi Anda intuisi; pikirkan hal-hal berikut:

Cov^(X,X)=V^(X)

Anda senang bahwa yang terakhir adalah karena koreksi Bessel.i=1n(XiX¯)2n1

Tetapi mengganti dengan X di ^ C o v ( X , Y ) untuk yang pertama memberi n i = 1 ( X i - ¯ X ) ( X i - ¯ XYXCov^(X,Y) , jadi apa yang menurut Anda paling baik mengisi kekosongan?i=1n(XiX¯)(XiX¯)mystery denominator

Gegat
sumber
1
BAIK. Tetapi OP mungkin bertanya "mengapa mempertimbangkan cov (X, X) dan cov (X, Y) berada dalam satu baris logika? Mengapa Anda mengganti Y dengan X dalam cov () dengan sembrono? Mungkin cov (X, Y) Apakah situasi berbeda? " Anda tidak menghindari itu, sementara jawaban (sangat tervotasikan) seharusnya ada, dalam kesan saya :-)
ttnphns
7

Jawaban cepat dan kotor ... Mari kita pertimbangkan dulu ; jika Anda memiliki n pengamatan dengan nilai ekspektasi yang diketahui E ( X ) = 0 Anda akan menggunakan 1var(X)n E(X)=0 untuk memperkirakan varians.1ni=1nXi2

Nilai yang diharapkan tidak diketahui, Anda dapat mengubah pengamatan Anda menjadi pengamatan n - 1 dengan nilai harapan yang diketahui dengan mengambil A i = X i - X 1 untuk i = 2 , , n . Anda akan mendapatkan formula dengan n - 1 di penyebut - namun A i tidak independen dan Anda harus mempertimbangkan ini; pada akhirnya Anda akan menemukan formula yang biasa.nn1Ai=XiX1i=2,,nn1Ai

Sekarang untuk kovarians Anda dapat menggunakan ide yang sama: jika nilai yang diharapkan dari adalah ( 0 , 0 ) , Anda akan memiliki 1(X,Y)(0,0) dalam rumus. Dengan mengurangi(X1,Y1)ke semua nilai yang diamati lainnya, Anda mendapatkann-1pengamatan dengan nilai yang diharapkan diketahui ... dan11n(X1,Y1)n11n1 dalam formula - sekali lagi, ini memperkenalkan beberapa ketergantungan untuk diperhitungkan.

PS Cara bersih untuk melakukannya adalah untuk memilih basis ortonormal dari , yaitu n - 1 vektor c 1 , ... , c n - 1R n sehingga(1,,1)n1c1,,cn1Rn

  • untuk semua i ,jcij2=1i
  • untuk semua i ,jcij=0i
  • untuk semua i 1i 2 .jci1jci2j=0i1i2

You can then define n1 variables Ai=jcijXj and Bi=jcijYj. The (Ai,Bi) are independent, have expected value (0,0), and have same variance/covariance than the original variables.

All the point is that if you want to get rid of the unknown expectation, you drop one (and only one) observation. This works the same for both cases.

Elvis
sumber
6

Here is a proof that the p-variate sample covariance estimator with denominator 1n1 is an unbiased estimator of the covariance matrix:

x=(x1,...,xp).

Σ=E((xμ)(xμ))

S=1n(xix¯)(xix¯)

To show: E(S)=n1nΣ

Proof: S=1nxixix¯x¯

Next:

(1) E(xixi)=Σ+μμ

(2) E(x¯x¯)=1nΣ+μμ

Therefore: E(S)=Σ+μμ(1nΣ+μμ)=n1nΣ

And so Su=nn1S, with the final denominator 1n1, is unbiased. The off-diagonal elements of Su are your individual sample covariances.

Additional remarks:

  1. The n draws are independent. This is used in (2) to calculate the covariance of the sample mean.

  2. Step (1) and (2) use the fact that Cov(x)=E[xx]μμ

  3. Step (2) uses the fact that Cov(x¯)=1nΣ

statchrist
sumber
The difficulty being in step 2 ! :)
Elvis
@Elvis It's messy. One needs to apply the rule Cov(X+Y,Z)=Cov(X,Z) + Cov(Y,Z) and recognize that the different draws are independent. Then it's basically summing up the covariance n times and scaling it down by 1/n²
statchrist
4

I guess one way to build intuition behind using 'n-1' and not 'n-2' is - that for calculating co-variance we do not need to de-mean both X and Y, but either of the two, i.e.

Uditg_ucla
sumber
Could you elaborate on how this bears on the question of what denominator to use? The algebraic relation in evidence derives from the fact that the residuals relative to the mean sum to zero, but otherwise is silent about which denominator is relevant.
whuber
5
I came here because I had the same question as the OP. I think this answer gets at the nub of the point @whuber pointed out above: that the rule of thumb is that df ~= n - (parameters estimated) can be "vague, unrigorous, and potentially misleading." This points out the fact that though it looks like you need to estimate two parameters (xbar and ybar), you really only estimate one (xbar or ybar). Since the df should be the same in both cases, it must be the lower of the two. I think that is the intent here.
mpettis
1

1) Mulai df=2n.

2) Sampel kovarians sebanding dengan Σi=1n(XiX¯)(YiY¯). Lose two df; one from X¯, one from Y¯ resulting in df=2(n1).

3) However, Σi=1n(XiX¯)(YiY¯) only contains n separate terms, one from each product. When two numbers are multiplied together the independent information from each separate number disappears.

As a trite example, consider that

24=124=212=38=46=64=83=122=241,

and that does not include irrationals and fractions, e.g. 24=2626, so that when we multiply two number series together and examine their product, all we see are the df=n1 from one number series, as we have lost half of the original information, that is, what those two numbers were before the pair-wise grouping into one number (i.e., multiplication) was performed.

In other words, without loss of generality we can write

(XiX¯)(YiY¯)=ziz¯ for some zi and z¯,

i.e., zi=XiYiX¯YiXiY¯, and, z¯=X¯Y¯. From the z's, which then clearly have df=n1, the covariance formula becomes

Σi=1nziz¯n1=

Σi=1n[(XiX¯)(YiY¯)]n1=

1n1Σi=1n(XiX¯)(YiY¯).

Thus, the answer to the question is that the df are halved by grouping.

Carl
sumber
@whuber How on earth did I get the same thing posted twice and deleted once? What gives? Can we get rid of one of them? For future reference, is there any way to permanently delete such duplicates? I have a few hanging around and it's annoying.
Carl
As far as I can tell, you reposted your answer from the duplicate to here. (Nobody else has the power to post answers in your name.) The system strongly discourages posting identical answers in multiple threads, so when I saw that, it convinced me these two threads are perfect duplicates and I "merged" them. This is a procedure that moves all comments and answers from the source thread to the target thread. I then deleted your duplicate post here in the target thread. It will remain permanently deleted, but will be visible to you as well as to people of sufficiently high reputation.
whuber
@whuber I didn't know what happens in a merge, that a merge was taking place or what many of the rules are, despite looking things up constantly. It takes time to learn, be patient, BTW, would you consider taking stats.stackexchange.com/questions/251700/… off of Hold?
Carl