Tópicos de Matrizes e Distribuição Normal Multivariada

Tópicos de Matrizes e Distribuição Normal Multivariada

(Parte 2 de 4)

1. Se A ≥ 0 e B > 0 matrizes de ordem (p×p) entao todas as raızes caracterısticas nao-nulas de B−1A sao positivas.

Interpretacao Geometrica Seja A uma matriz positiva definida. Entao (x−α)tA−1(x− α) = C2 representa um elipsoide em dimensao p. O centro do elipsoıde e x = α.

1.4 Inversa Generalizada

Definicao : Seja a matriz A(n×p). A− e a g-inversa ou inversa generalizada de A se A−A = A. A g-inversa sempre existe, embora possa nao ser unica

1. Se r(A) = r e A(n×p) entao as linhas e colunas podem ser rearranjadas de modo que A11(r × r) seja nao-singular . Logo uma g-inversa e dada por

2. Se A(p×p) e nao-singular entao A− = A−1 e e unica Teorema Seja G uma g-inversa de XtX

1. Gt e uma g-inversa de XtX 2. GXt e uma g-inversa de X 3. XGXt nao varia com G 4. XGXt e simetrica mesmo que G nao o seja.

1.5 Diferenciacao de Vetores e Matrizes

atx = xta = λ;λ = a1x1 + a2x2 ++ apxp

1. Seja a um vetor de constantes

DIFERENCIACAO DE VETORES E MATRIZES 9

a11a1p
ap1app
λ1 λ2λp )

j=1 xjaji

∂xtA

∂λp
∂λp
xtAx = a11x21 ++ appx2p + 2a12x1x2 + ... + 2a(p−1)pxp−1xp

∂xtAx

∂xtAx ∂xp

2a11x1 + 2a12x2 ++ 2a1pxp
2ap1x1 + 2ap2x2 ++ 2appxp

A e simetrica e a um vetor

CAPITULO 2 Vetores Aleatorios

Um vetor aleatorio e um vetor cujos elementos sao variaveis aleatorias. Similarmente, uma matriz aleatoria e uma matriz cujos elementos sao variaveis aleatorias. Os vetores aleatorios sao tambem chamados de variaveis aleatorias multidimensionais. O Valor esperado de uma matriz aleatoria e uma matriz consistindo dos valores esperados de cada um de seus elementos. Seja X uma matriz aleatoria p × n,

X = (Xij), se existem os valores esperados E(Xij), Se (a matriz de valores esperados)X e Y tem mesma dimensao p × n e sao matrizes aleatorias e A e B sao adequadas matrizes constantes,

σ1 σ12σ1p
σ21 σ2σ21
σp1 σp2σp

Se Xi e Xj sao independentes entao Cov(Xi,Xj) = 0. Ha situacoes em que Cov(Xi,Xj) = 0 mas Xi e Xj nao sao independentes.

 (X1 − µ1) (X2 − µ2)(Xp − µp) =

Xp −µp

(X1 − µ1)(X1 − µ1) (X1 − µ1)(X2 − µ2)(X1 − µ1)(Xp − µp)
(X2 − µ2)(X1 − µ1) (X2 − µ2)(X2 − µ2)(X2 − µ2)(Xp − µp)
(Xp − µp)(X1 − µ1) (Xp − µp)(X2 − µ2)(Xp − µp)(Xp − µp)

VETOR DE MEDIAS E MATRIZ DE COVARIANCIAS 1

(X1 − µ1)2 (X1 − µ1)(X2 − µ2)(X1 − µ1)(Xp − µp)
(X2 − µ2)(X1 − µ1) (X2 − µ2)2(X2 − µ2)(Xp − µp)
(Xp − µp)(X1 − µ1) (Xp − µp)(X2 − µ2)(Xp − µp)2
σ1 σ1σ1
σ1σ1
σ1 σ1σ1

2.1.1 Matriz de Correlacao

Uma medida de correlacao linear entre Xi e Xj e dada pelo coeficiente de correlacao linear simples ρij = σij√ σiσj

. O coeficiente de correlacao e obtido da matriz de covariancia-variancia Σ. A Matriz de correlacao ρ =

1 ρ12ρ1p
1 ... ...
ρp1 ρp21
σ1 00 √
σ20
0 0
1 00
20
0 0σ−1/2

Outra relacao importante e Σ = V 1/2ρV 1/2.Assim Σ pode ser obtida de Σ pode ser obtida de ρ e V 1/2 enquanto ρ pode ser obtida de Σ.

Matriz de covariancia Particionada

Frequentemente as caracterısticas observadas num experimento podem ser classificadas em dois grupos. Por exemplo, em observando-se estudantes as variaveis socio-economicas podem formar um grupo, enquanto o desempenho academico e composto por outro grupo de variaveis. Em geral, particionando o vetor X em dois grupos de variaveis, digamos, X(1),(q × 1) e X(2),(p − q) × 1, obtem-se

VETOR DE MEDIAS E MATRIZ DE COVARIANCIAS 12

(X(1) − µ(1))(X(1) − µ(1))t(X(1) − µ(1))(X(2) − µ(2))t
(X(2) − µ(2))(X(1) − µ(1))t(X(2) − µ(2))(X(2) − µ(2))t
Σ12
Σ2

LISTA DE EXERCıCIOS 13 2.2 Lista de exercıcios

1. Seja a variavel aleatoria bidimensional X, p×1,p = 2. X1 e X2 sao v.a. discretas independentes com as seguintes funcoes de probabilidade,

(d) ρx Comente

(b) Cov(aXi,bXj) = abCov(Xi,Xj), a e b constantes (c) Para combinacoes lineares das variaveis componentes de X,atX e btX,Cov(atX,btX) = at∑ b, forma bilinear.

2. Se A e B sao matrizes constantes (r × p) e (s × p), respectivamente e Y = AX, Z = BX sao duas transformacoes da variavel aleatoria X entao :

σi), i = 1,, p

CAPITULO 3 Distribuicao Normal Multivariada

A generalizacao da familiar densidade normal para varias dimensoes tem um fundamental papel na analise multivariada. Enquanto dados reais nunca sao exatamente normal multivariados, a densidade normal e frequentemente uma util aproximacao para a veradadeira distribuicao da populacao.

Uma vantagem da distribuicao normal multivariada e que ela e matamaticamente atrativa, dela obtendo-se excelentes resultados. Mas estatısticamente, duas outras razoes sao as que indicam o uso da distribuicao normal.

Primeira, distribuicoes amostrais de muitos estatısticos multivariados sao aproximadamente normais, devido ao efeito do teorema do limite central. Em segundo lugar, a distribuicao normal serve como modelo aproximado para certos fenomenos naturais.

3.1 Densidade e propriedades da distribuicao normal multivariada 3.1.1 Definicao 1

Sabemos que a distribuicao normal univariada, com media µ e variancia σ2, tem

A densidade normal multivariada e a generalizacao da densidade normal univari- para (x − µ)tΣ−1(x − µ) que e a distancia quadrada generalizada (distancia de Mahalanobis), quando Σ admite inversa. Em outro caso a densidade nao e bem

constante mais geral para tornar o ‘ volume′ (no caso multivariado as probabilidades sao representadas por volumes sob a superfıcies na regiao definida) sob a superfıcie da funcao de densidade multivariada unitaria para qualquer p. Essa constante sera (2pi)−p/2 |Σ|−1/2 .

Consequentemente, para Σ definida positiva, a funcao de densidade de uma variavel X ∼ Np(µ,Σ) sera

DENSIDADE E PROPRIEDADES DA DISTRIBUICAO NORMAL MULTIVARIADA 15

3.1.2 Definıcao 2

Dizemos que X tem uma distribuicao normal multivariada p−variada se e somente se atx tem distribuicao normal univariada para todo a fixado.

Se X tem distribuicao normal multivariada p−variada entao cada um dos ele- mentos de X, ou seja, Xi , i = 1,...,p tem distribuicao normal univariada. Se todas as p(p − 1)/2 covariancias sao nulas, as p componentes de x sao inde- pendentemente distribuıdas e

f(x)dx1dxp =

A densidade normal multivariada e constante nas superfıcies onde a distancia (x − µ)tΣ−1(x − µ) e constante. Esse corte e chamado de contorno.

O contorno de uma densidade de probabilidade constante e a superfıcie de um elipsoide centrado em µ e e igual ao conjunto de pontos {x : (x − µ)tΣ−1(x −

autovetor da matriz Σ.

DENSIDADE E PROPRIEDADES DA DISTRIBUICAO NORMAL MULTIVARIADA 16

(Parte 2 de 4)

Comentários