Kovaryans Matrisi

Kısaca: Kovaryans matrisi (veya varyans-kovaryans matrisi veya varyans matrisi) ''istatistik'' ve ''olasılık kuramı bilimlerinde veya bir rassal vektör'ün elemanları arasındaki kovaryansların bir matematik matris olarak ifade edilmesidir. Kovaryans matrisi , bir skaler-değerli rassal değişken için varyans kavramının, çoklu değişken bulunması halinde çoklu boyutlara doğal olarak genelleştirilmesidir. ...devamı ☟

Kovaryans matrisi (veya varyans-kovaryans matrisi veya varyans matrisi) istatistik ve olasılık kuramı' bilimlerinde veya bir rassal vektör'ün elemanları arasındaki kovaryansların bir matematik matris olarak ifade edilmesidir. Kovaryans matrisi , bir skaler-değerli rassal değişken için varyans kavramının, çoklu değişken bulunması halinde çoklu boyutlara doğal olarak genelleştirilmesidir. Tanımlama Eğer şu sütun vektörü içine : \mathbf X = \beginX_1 \\ \vdots \\ X_n \end giren değişkenlerin her biri sonlu varyansı olan rassal degişken iseler, o halde (i,j) elemanı bir kovaryans olan matris Σ kovaryans matrisi olur: : \Sigma_ = \mathrm(X_i, X_j) = \mathrm\begin (X_i - \mu_i)(X_j - \mu_j) \end burada : \mu_i = \mathrm(X_i)\, X vektöründeki iinci değişkenin beklenen değeri olur. Diğer bir deyişle, elimizde şu vardır: : \Sigma = \begin \mathrm - \mu_1)(X_1 - \mu_1) & \mathrm - \mu_1)(X_2 - \mu_2) & \cdots & \mathrm - \mu_1)(X_n - \mu_n) \\ \\ \mathrm - \mu_2)(X_1 - \mu_1) & \mathrm - \mu_2)(X_2 - \mu_2) & \cdots & \mathrm - \mu_2)(X_n - \mu_n) \\ \\ \vdots & \vdots & \ddots & \vdots \\ \\ \mathrm - \mu_n)(X_1 - \mu_1) & \mathrm - \mu_n)(X_2 - \mu_2) & \cdots & \mathrm - \mu_n)(X_n - \mu_n) \end. Bu matrisin tersi' olan matris, yani \Sigma^, ters kovaryans matrisi ya da konsantrasyon matrisi veya kesinlik matrisi olarak anılır. Bu "ters kovaryans matrisi"nın elemanları kısmi korelasyonlar veya kısmi varyanslara yapılan atıflarla açıklanabilirler. Kulanılan notasyonlarda ve isimlendirmede çatışmalar İstatistik literatüründe bu kavram için isimlendirme tek-örnek olarak degil, değişik şekillerde yapılmaktadır: * Amerikan olasılık teoricisi William Feller'in takipcileri bu matrise X rassal vektörünün Varyans matrisi adını verirler; çünkü bu tek-boyutlu varyans kavramının doğal olarak daha yüksek boyutlarda genelleştirilmesidir. * Diğerleri bu matris covaryans matris olarak isimlendirirler, cunku bu X matrisinin skaler parcalarinin arasinda olan kovaryanslarin matrisidir. Böylece : \operatorname(\textbf) = \operatorname(\textbf) = \mathrm \left (\textbf - \mathrm [\textbf) (\textbf - \mathrm [1])^\top \right]. Ama iki vektör arasındaki karşılıklı-kovaryans için notasyon sadece tek bir standarta uyar: : \operatorname(\textbf,\textbf) = \mathrm \left (\textbf - \mathrm[\textbf) (\textbf - \mathrm[2])^\top \right]. Özel var notasyonu William Feller'in An Introduction to Probability Theory and Its Applications, adlı eserinde kullanılır; ama her iki alternatif notasyon da standart olarak kullanılmaktadır; bu iki değişik başta açılanıp öğrenilmekte ve anlayıp kullananlar için bir anlam karışıklığına neden olmamaktadır. \Sigma matrisi ise çok zaman 'varyans-kovaryans matris' olarak anılır; çünkü bu matrisin diagonal elemanları varyanslardır. Özellikleri X p-boyutlu bir rassal degisken ve Y q-boyutlu bir rassal degisken icin \Sigma=\mathrm \left \left( \textbf - \mathrm[\textbf \right) \left( \textbf - \mathrm[3] \right)^\top \right] ve \mu = \mathrm(\textbf), olarak verilmisse, su temel ozellikler bulunmaktadir: # \Sigma = \mathrm(\mathbf) - \mathbf\mathbf # \Sigma \, bir positif semi-definit matrisdir. # \operatorname(\mathbf + \mathbf) = \mathbf\, \operatorname(\mathbf)\, \mathbf # \operatorname(\mathbf,\mathbf) = \operatorname(\mathbf,\mathbf)^\top # \operatorname(\mathbf_1 + \mathbf_2,\mathbf) = \operatorname(\mathbf_1,\mathbf) + \operatorname(\mathbf_2, \mathbf) # Eger p = q, ise o zaman \operatorname(\mathbf + \mathbf) = \operatorname(\mathbf) + \operatorname(\mathbf,\mathbf) + \operatorname(\mathbf, \mathbf) + \operatorname(\mathbf) # \operatorname(\mathbf, \mathbf^\top\mathbf) = \mathbf\, \operatorname(\mathbf, \mathbf) \,\mathbf # Eğer \mathbf ve \mathbf birbirlerinden bağımsız iseler, o halde \operatorname(\mathbf, \mathbf) = 0 burada \mathbf, \mathbf_1 ve \mathbf_2 rassal p×1 derecede vektör, \mathbf rassal q×1 derecede vektör, \mathbf ise q×1 derecede vektör, \mathbf ve \mathbf (q×p) dereceli matrislerdir. Bu kovaryans matrisi değişik alanlarda uygulamaları bulunan bir matematik araçtır. Bu matrisden bir transformayon matrisi çıkartılabilir ve bu veride bulunan bütün korelasyonların elimine edilebilmesini mümkun kılar. Bu transformasyon matrisi bularak tüm korelasyonları elimine etme analizine temel bileşenler ("principal components) analizi adı verilir. Bir doğrusal operatör olarak Hangi matrisler kovaryans matrisleridir? Uygun bir kovaryans matrisi nasıl bulunur Bazı uygulamalarda (örneğin sadece kısmen gözumlenen verilerden veri modeli kurmada) bir verilmiş belirli (gözümlenen kovaryanslardan oluşmuş) bir simetrik matrise "en yakın" kovaryans matrisi bulmak istenebilir. 2002 yılında, Higham "ağırlıklı Frobenius normu" kullanarak en yakınlılık kavramını formalize etmiştir ve böylece en yakın kovaryans matrisi bulmak için gereken yöntemi vermistir. Kompleks rassal vektorler Kestirim Bir çoklu değişirli normal dağılım için kovaryans matrisinin maksimum-olabilirlilik kestrimcisininin elde edilmesi, belki çok zeki bir ince tranformasyon ile kolayca yapılabilir. Bakın kovaryans matrisleri kestimi Olasılık yoğunluk fonksiyonu Bir n tane korelasyonlu rassal değişken dizisi icin olasılık yoğunluk fonksiyonu, n dereceli bir Gauss-tipi vektor olan birlesik olasılık fonksiyonu olup Maksimum olabilirlik maddesinde aciklanmaktadir. Dipnotlar Ayrıca bakınız * Kovaryans matrisleri kestrimi * Çok değişirli istatistik * Örneklem kovaryans matrisi * Gramian matrisi * eigendeğer dekompozisyon Dış kaynaklar * İngilizce Wikipedia "Covariance matrix" maddesi (Erişme:17.12.2009) * Weisstein, Eric W., "Covariance Matrix", MathWorld--A Wolfram Web Resource (Erişme:17.12.2009) * N.G. van Kampen, (1981) Stochastic processes in physics and chemistry. New York: North-Holland,

Kaynaklar

Vikipedi

Bu konuda henüz görüş yok.
Görüş/mesaj gerekli.
Markdown kullanılabilir.

Kovaryans
2 yıl önce

n-değişirli (n-sütunlu) vektör değişken Y arasındaki kovaryans matrisi X matris-bekleme değerleri μ=E(X) ve Y matris bekleme değerleri ν=E(Y) ile şöyle tanımlanır:...

Kovaryans, Rastsal, İstatistik, Olasılık Teorisi
Simetrik matris
2 yıl önce

Antimetrik matris Centrosymmetric matris Dairesel matris Kovaryans matris Coxeter matrisi Hankel matrisi Hilbert matrisi Persymmetric matris Çarpık-simetrik...

Multinom dağılımı
2 yıl önce

gerektirir. Bu kovaryans matrisi kertesi k - 1 olan bir k × k büyüklüğünde bir matristir. Bununla ilişkili olan bir diğer matrik corelasyon matrisidir. Korelasyon...

Matris normal dağılım
6 yıl önce

{X} -\mathbf {M} )\right]\right).} Burada M matrisi n × p, Ω matris p × p ve Σ matrisi n × n. İki kovaryans matrisini tanımlamak için çeşitli alternatifler...

Çokdeğişirli normal dağılım
2 yıl önce

eşitse ve u kare matris ise, bunun sonucunda ortaya çıkan U Λ U T {\displaystyle U\Lambda U^{T}} kovaryans matrisi bir singuler matris olur. Geometrik...

Otokorelasyon
2 yıl önce

yeterli bulunmakta idi. Bu durumda rassal hatalarin varyns-kovaryans matrisi bir diyagonal matris olur: V a r − K o v = s i g m a 2 I {\displaystyle Var-Kov=sigma^{2}I}...

Otokorelasyon, Korelasyon, Regresyon, Artık terim
Vektör otoregresyon
2 yıl önce

(e_{t}e_{t}')=\Omega \,} — hata terimlerinin eşzamanlı kovaryans matrisi Ω 'dır (k × k positive definite matris); E ( e t e t − k ′ ) = 0 {\displaystyle \mathrm...

Shapiro-Wilk sınaması
6 yıl önce

ististiklerinin beklenen değerlerdir. ve V ise bu sıra istatistikleri için kovaryans matrisidir. En son olarak sınama istatistiği şu formül kullanılarak hesaplanır:...