Apa kata invers dari matriks kovarian tentang data? (Secara intuitif)

46

Saya ingin tahu tentang sifat . Adakah yang bisa mengatakan sesuatu yang intuitif tentang "Apa yang dikatakan tentang data?"Σ1Σ1

Sunting:

Terima kasih atas balasannya

Setelah mengikuti beberapa kursus hebat, saya ingin menambahkan beberapa poin:

  1. Ini adalah ukuran informasi, yaitu, adalah jumlah info di sepanjang arah .xTΣ1xx
  2. Dualitas: Karena adalah pasti positif, demikian pula , jadi mereka adalah norma-norma produk-titik, lebih tepatnya mereka adalah norma ganda satu sama lain, sehingga kami dapat memperoleh Fenchel ganda untuk masalah kuadrat terkecil yang diatur, dan melakukan maksimalisasi wrt masalah ganda. Kita dapat memilih salah satu dari mereka, tergantung pada kondisi mereka.ΣΣ1
  3. Ruang Hilbert: Kolom (dan baris) dan menjangkau ruang yang sama. Jadi tidak ada keuntungan (selain itu ketika salah satu dari matriks ini dikondisikan dengan buruk) antara representasi dengan atauΣ1ΣΣ1Σ
  4. Statistik Bayesian: norma memainkan peran penting dalam statistik Bayesian. Yaitu menentukan berapa banyak informasi yang kita miliki sebelumnya, misalnya, ketika kovarians dari kepadatan sebelumnya seperti kita memiliki non-informatif (atau mungkin Jeffreys sebelumnya)Σ1Σ10
  5. Statistik Frequentist: Ini terkait erat dengan informasi Fisher, menggunakan ikatan Cramér-Rao. Bahkan, matriks informasi fisher (produk luar dari gradien log-kemungkinan dengan dirinya sendiri) adalah Cramér-Rao terikat, yaitu Σ1F (kerucut semi-pasti positif, konsentrasi baru), konsentrasi baru ellipsoid). Jadi ketika Σ1=F estimator kemungkinan maksimum efisien, yaitu informasi maksimum ada dalam data, sehingga rezim frequentist optimal. Dengan kata sederhana, untuk beberapa fungsi kemungkinan (perhatikan bahwa bentuk fungsional dari kemungkinan semata-mata tergantung pada model probablistik yang diduga menghasilkan data, alias model generatif), kemungkinan maksimum adalah penduga yang efisien dan konsisten, aturan seperti bos. (maaf karena menagih berlebihan)
Arya
sumber
3
Saya pikir PCA mengambil vektor eigen dengan nilai eigen besar daripada nilai eigen kecil.
wdg
2
(3) Tidak benar, karena sama artinya dengan menyatakan kolom adalah (hingga permutasi), yang hanya berlaku untuk matriks identitas. Σ1Σ
whuber

Jawaban:

15

Ini adalah ukuran presisi seperti adalah ukuran dispersi.Σ

Lebih rumitnya, adalah ukuran bagaimana variabel-variabel tersebar di sekitar rata-rata (elemen diagonal) dan bagaimana mereka saling bervariatif dengan elemen variabel lain (off-diagonal). Semakin dispersi semakin jauh jaraknya dari rerata dan semakin ragamnya (dalam nilai absolut) dengan variabel lain semakin kuat kecenderungan mereka untuk 'bergerak bersama' (dalam arah yang sama atau berlawanan tergantung pada tanda kovarians).Σ

Demikian pula, adalah ukuran seberapa ketatnya variabel dikelompokkan di sekitar rata-rata (elemen diagonal) dan sejauh mana mereka tidak bervariasi dengan variabel lain (elemen off-diagonal). Dengan demikian, semakin tinggi elemen diagonal, semakin ketat variabel dikelompokkan di sekitar rata-rata. Penafsiran elemen-elemen off-diagonal lebih halus dan saya merujuk Anda ke jawaban lain untuk interpretasi itu.Σ1

menopang
sumber
3
Contoh tandingan yang kuat untuk pernyataan terakhir Anda tentang elemen diagonal di diberikan oleh contoh nontrivial yang paling sederhana dalam dua dimensi, Nilai off-diagonal yang lebih besar sesuai dengan nilai yang lebih ekstrim dari koefisien korelasi yang merupakan kebalikan dari apa yang Anda katakan. Σ1Σ1=(11ρ2ρ1ρ2ρ1ρ211ρ2).ρ,
whuber
@whuber Benar. Saya harus menyingkirkan kata 'absolut' dalam kalimat terakhir. Terima kasih
menopang
3
Terima kasih, tetapi itu masih belum menyembuhkan masalah: hubungan yang Anda nyatakan antara elemen off-diagonal dari invers dan co-variasi tidak ada.
whuber
@whuber saya pikir begitu. Dalam contoh Anda, elemen off-diagonal negatif. Oleh karena itu, sebagai meningkat elemen off-diagonal menurun. Anda dapat memeriksanya dengan memperhatikan hal berikut: at elemen off-diagonal adalah ; ketika mendekati pendekatan elemen off-diagonal dan turunan dari elemen off-diagonal sehubungan dengan adalah negatif. ρρ=00ρ1ρ
menopang
2
Elemen off-diagonal saya adalah positif ketikaρ<0.
whuber
17

Menggunakan superskrip untuk menunjukkan elemen invers, adalah varian komponen variabel yang tidak berkorelasi dengan variabel lainnya, dan adalah korelasi parsial dari variabel dan , mengendalikan variabel lainnya.1/σiiip1σij/σiiσjjijp2

Ray Koopman
sumber