introdução a estimação espectral

introdução a estimação espectral

(Parte 1 de 4)

mbj - 1 -

Introdução à Estimação Espectral

Marcelo Basilio Joaquim

Departamento de Engenharia Elétrica – EESC-USP São Carlos – 2012/2013 texto escrito de forma livre, sem revisão, para uso na disciplina aplicações de processamento de sinais mbj - 2 -

Conteúdo

1. Resumo da teoria de probabilidade 3 2. Processos aleatórios de tempo discreto 10 3. Estimação espectral clássica 25 4. Estimação espectral paramétrica 42 5. Trabalho I 58 6. Trabalho I 62 7. Trabalho I 65 8. Bibliografia 67 9. Apêndice I 68 10. Apêndice I 70 mbj - 3 -

Capítulo I

Resumo da teoria de probabilidade

1. Introdução

A teoria de probabilidade trata com os efeitos de possibilidades ou então de médias de fenômenos que ocorrem sequencialmente ou simultaneamente, como por exemplo, emissão de elétrons, chamadas telefônicas, controle de qualidade, falhas em sistemas, etc.

O propósito da teoria de probabilidade é descrever e predizer tais médias em termos das probabilidades de ocorrências de eventos. Neste capítulo será feita uma revisão dos conceitos básicos desta teoria para posterior aplicação no estudo e descrição de sinais aleatórios.

2. Definições de probabilidade

Nesta seção vamos tratar das definições de probabilidade de ocorrência de um evento. Temos três definições distintas: a de frequência relativa, a axiomática e a definição clássica.

2.1.1. Definição de frequência relativa

No arremesso de uma moeda ideal temos a certeza de que o resultado será cara ou coroa e que estes resultados são igualmente prováveis. Podemos interpretar este resultado como uma média: se a moeda é arremessada um número muito grande vezes o número de resultados cara e o de coroas tenderiam a serem iguais. Este exemplo apresenta uma pista para definir a probabilidade de um evento quantitativamente em termos de frequência relativa.

mbj - 4 -

A probabilidade P(A) de ocorrência de um evento “A” é dada pelo seguinte limite:

AP AN lim (1) em que nA é o número de ocorrências do evento A e N é o número de tentativas.

Segue desta definição que a probabilidade é sempre um número não negativo menor ou igual à unidade, ou seja,

Eventos mutuamente exclusivos

Um conjunto de eventos é chamado de mutuamente exclusivos se a ocorrência de qualquer um deles elimina a possibilidade de ocorrência de qualquer outro evento do conjunto.

Exemplo 1: No arremesso de dois dados considere três eventos:

A1: o número total de pontos é 10. A2: o número total de pontos é 1. A3: ao menos um dos resultados é 6.

Fica claro que se ocorrer o evento A1 então é impossível de ocorrer o evento A2. Portanto A1 e A2 são mutuamente exclusivos.

Se o evento ocorre é possível ocorrer ao mesmo tempo o evento A3, pois para ocorrer A1 temos os seguintes resultados {(4,6), (6,4) ou (5,5)}. Portanto A1 e

A3 não são mutuamente exclusivos, similarmente, A2 e A3 não são mutuamente exclusivos.

mbj - 5 -

Probabilidade total

Seja um experimento tal que o seu resultado seja um dos dois eventos A ou B mutuamente exclusivos, tal resultado é denotado por (A∩B) ou (A+B). Se o experimento é repetido N vezes e nA e nB são os números de resultados favoráveis a A e B, respectivamente então a probabilidade de ocorrência do evento (A+B) é dada por:

Se um experimento apresenta M resultados A1,, AM e nenhum outro, e se eles

forem mutuamente exclusivos então,

O evento (A1 ∩ A2 ∩∩ AM) ou (A1 + A2 + ... + AM) é o evento certeza, que será
Convém notar que se A1,, AM não forem mutuamente exclusivos, então,

2.1.2. Definição axiomática

A definição de frequência relativa deixa a desejar do ponto de vista matemático. Em um experimento real nA e N podem ser relativamente grandes mas a razão nA/N não pode se estender até o infinito. Assim o limite deve ser aceito como hipótese e não como um número que pode ser determinado experimentalmente.

mbj - 6 -

Na abordagem axiomática o conceito de probabilidade não é inicialmente definido, mas são postulados três axiomas a respeito da probabilidade de ocorrência de um evento.

i. A probabilidade P(A) é um número positivo assinalado a este evento.

Segue deste conceito que a probabilidade do evento impossível é nula. 0 P i. A probabilidade o evento certeza é a unidade.

Segue deste axioma que para qualquer evento A, a probabilidade do evento complementar é:

i. Se dois eventos A e B são mutuamente exclusivos então:

Se A e B não forem mutuamente exclusivos então:

É evidente que a definição axiomática utiliza a definição de frequência relativa ou então a definição clássica que será vista a seguir.

mbj - 7 -

2.1.3. Definição clássica de probabilidade

A probabilidade de ocorrência de um evento A é igual à razão dos seus resultados favoráveis pelo número total de resultados, desde que todos os resultados sejam igualmente prováveis.

n APA (10) em que nA é o número de resultados possíveis ao evento A e N é o número total de resultados possíveis.

Exemplo 2: No arremesso de um dado determine a probabilidade do resultado ser par.

n parPA

3. Probabilidade conjunta, condicional e eventos independentes

3.1.1. Probabilidade conjunta

A probabilidade de se observar um resultado particular A de um conjunto e um resultado B de outro conjunto é chamada de probabilidade conjunta do evento A∩B ou AB.

Exemplo 3: Retirada de duas cartas em sequência, com ou sem reposição, de um baralho.

Evento A: retirada de um “as” na primeira tentativa. Evento B: retirada de um “as” na segunda tentativa.

(A∩B) ou (AB) é o evento de retirar dois ases.

mbj - 8 -

3.1.2. Probabilidade condicional

No exemplo anterior se a primeira carta não é recolocada no baralho fica evidente que a retirada de um “as” na segunda tentativa está condicionada ao resultado da primeira tentativa. Assim, define-se probabilidade condicional como a probabilidade de um evento A dado que ocorreu o evento B. Ela é denotada por P(A/B).

BAP BAP (1)

Similarmente a probabilidade de ocorrência do evento B dado que ocorreu o evento A é dada por:

BAP ABP (12)

Combinado as equações (1) e (12) chega-se à regra de Bayes para probabilidade condicional:

ABPAP BAP (13) ou,

BAPBP ABP (14)

3.1.3. Eventos independentes

Observe que no exemplo 3 se a primeira carta retirada é recolocada no baralho novamente então os eventos A e B são independentes um do outro. Assim, podemos definir que um evento A é estatisticamente independente de um evento B se e somente se:

mbj - 9 -

Pode-se mostrar facilmente que se dois eventos são independentes então:

Admitindo que três eventos A, B e C são independentes então:

A independência de mais de três eventos pode ser definida indutivamente seguindo o procedimento da equação (17) (Hsu 1996).

mbj - 10 -

Capítulo I

Processos Aleatórios de Tempo Discreto

1. Introdução

No estudo de variáveis aleatórias foi associado um ponto amostral ξ ou ξ k a cada resultado de um experimento. A coleção de todos os resultados ou pontos amostrais foi

chamada de espaço amostral S = {ξ1, ξ2,}, e a cada ponto amostral foi assinalado um

valor real x, de acordo com alguma regra, tal que:

Esta função, definida sobre o espaço amostral S, foi chamada de variável aleatória

X. Se o espaço amostral pertence ao conjunto dos números inteiros a variável aleatória é discreta e de o espaço amostral pertence ao campo dos números reais a variável aleatória é continua.

aleatória. Neste caso a cada ponto amostral ξk (k = 0, 1, 2,) é associada uma sequência

Um processo estocástico de tempo discreto é uma extensão do conceito de variável discreta x(n, ξk), -∞ < n < ∞. O espaço amostral, que é formado pelo conjunto de todas as sequências x(n, ξk), constitui um processo estocástico ou aleatório de tempo discreto. Ele é denotado por X(n, ξk). Assim, um processo aleatório discreto é constituído por um conjunto de sequências ou sinais de tempo discreto e uma maneira de descrevê-lo é pela função densidade de probabilidade. Neste capítulo utilizaremos, sem perda de generalidade, a letra x para indicar o processo estocástico ou aleatório.

mbj - 1 -

A interpretação de um processo estocástico pode ser feita com o auxílio da figura 1. Existem quatro possibilidades de se interpretar X(n, ξk):

Para um valor fixo ξ0 e n variável, x(n, ξ0) é uma sequência aleatória, sequência amostra ou uma realização do experimento. Para ξk variável e um valor fixo de n, por exemplo, n0, x(n0, ξk) é uma variável aleatória. Para valores fixos ξ0 e n0, x(n0, ξ0) é um número e para valores variáveis tanto de ξk como de n temos o processo estocástico ou aleatório. Se n é número real então teremos um processo de tempo contínuo. Neste capítulo vamos considerar n um número inteiro, pois nas aplicações práticas de processamento digital de sinais, estes são considerados de tempo discreto.

X(n,ξk) n1 x(n ξk) n n n xn x2 x1 n2 n Figura 1: Descrição de um processo aleatório.

Considerando ainda a figura 1, dado um instante qualquer n = n as amplitudes das sequências são representadas por x(n, ξk) = x(n) = xn. Este conjunto de resultados forma uma variável aleatória e, portanto apresenta uma determinada função densidade de probabilidade p(x; n), assim, x(n) representa uma variável aleatória das amplitudes da sequência no instante n. As estatísticas de cada uma destas variáveis aleatórias (para todo n inteiro) são chamadas de estatísticas de primeira ordem do processo aleatório. As estatísticas conjuntas de duas variáveis, por exemplo, x1 e x2, são chamadas de estatísticas de segunda ordem, e assim por diante. O processo aleatório é então caracterizado pela função densidade de probabilidade conjunta de todas estas variáveis aleatórias, isto é,

mbj - 12 -

A descrição através da função densidade de probabilidade é muito difícil de se fazer, a não ser que o processo seja simples, pois requer um conjunto de informações muito grande. Em geral, podemos descrevê-lo através de algumas médias utilizando as funções densidade de probabilidade de primeira e segunda ordem.

2. Caracterização de um processo aleatório discreto no tempo

Somente o conhecimento das funções densidade de probabilidade individual de um processo aleatório discreto no tempo não é suficiente para caracterizá-lo. Assim, como na teoria de probabilidade, existem outras ferramentas importantes para caracterizar um processo aleatório:

Valor médio - valor quadrático médio - variância, Função de autocorrelação,

Espectro densidade de potência,

Função de correlação cruzada, quando se trabalha com dois processos distintos.

Uma observação importante que podemos fazer neste momento é que para um processo aleatório de tempo discreto as estatísticas acima podem ser facilmente estimadas com o auxílio de um micro-computador e softwares especializados.

O valor médio de um processo aleatório é definido por:

mbj - 13 -

O valor quadrático médio é definido por:

e a variância é definida por:

Note que as quantidades definidas acima são, em geral, sequências determinísticas e dependem do tempo discreto n. Portanto as quantidades acima em geral variam com o tempo e teoricamente um processo aleatório é variante no tempo.

Admitindo dois instantes n1 e n2, a função de autocorrelação entre x1 e x2 é definida como o momento conjunto destas variáveis aleatórias, isto é,

A função de autocorrelação fornece uma medida da dependência de dois valores do processo aleatório em dois instantes de tempo diferentes, quanto maior o seu valor maior é a dependência. Note que ela fornece informações a respeito das variações temporais do sinal. Note também que se n1 = n2 = n, a função de autocorrelação é o valor quadrático médio do processo aleatório.

A função de autocovariância do processo é definida do mesmo modo que a função de autocorrelação, retirando o seu valor médio, assim,

mbj - 14 -

É evidente que se um processo aleatório apresenta valor médio nulo então

2121,,nncnnxx , note também que se n1 = n2 = n, a função de autocovariância é a própria variância do processo aleatório.

Se tivermos dois processos aleatórios x(n) e y(n) que são definidos no mesmo espaço amostral então a função de correlação cruzada é definida por:

Para função de covariância cruzada retiramos as medias dos processos na equação acima, isto é,

3. Algumas classes de processos aleatórios

Nesta seção nós vamos descrever resumidamente algumas classes muito comuns de processos aleatórios baseadas em suas propriedades estatísticas.

i. Processos aleatórios independentes Um processo aleatório é chamado de independente se:

mbj - 15 -

Se todas as variáveis aleatórias têm a mesma função densidade de probabilidade xpX então ele é chamado de independente e identicamente distribuído.

Se tivermos dois processos aleatórios x(n) e y(n), eles são estatisticamente independentes se para quaisquer os valores de n1 e n2 tem-se que:

i. Processos descorrelacionados

Dois processos aleatórios x(n) e y(n) são descorrelacionados se para todos os valores de n1 e n2 tem-se que:

i. Processos ortogonais

Dois processos aleatórios x(n) e y(n) são ortogonais se para todos os valores de n1 e n2 tem-se que:

4. Processos aleatórios estacionários

Um processo aleatório é estacionário no sentido estrito se todas as suas estatísticas, de todas as ordens não exibirem variância como deslocamento do tempo, isto é para um valor de k qualquer se tem que:

mbj - 16 -

Assim, a função distribuição de probabilidade não é afetada por um deslocamento na origem e x(n) e x(n+k) terão a mesma distribuição, desse modo o processo é caracterizado por uma única função distribuição de probabilidade p(x).

A função de autocorrelação 21,nnx não depende de n1 e n2, mas da diferença entre n1 e n2. Admitindo k = n2 – n1, para um processo estacionário tem-se que,

Observe que para um processo estacionário o valor médio, o valor quadrático médio e a variância são constantes e independentes do tempo.

Um processo aleatório estacionário é um modelo ideal que não se observa no mundo real, pois todo processo físico tem um início e um fim, assim as estatísticas não podem ser independentes da origem do tempo. Por isso para trabalhar na prática definimos outros dois tipos de processos, o processo estacionário no sentido amplo e o processo ergódigo.

4.1.1 Processos estacionários no sentido amplo

Para propósitos de análise de processos aleatórios os parâmetros mais importantes em aplicações em Engenharia Elétrica são o valor médio, o valor quadrático médio ou a variância, e a função de autocorrelação ou de autocovariância. Neste sentido é definido um processo estacionário no sentido amplo tal que o seu valor médio é constante para todo n e a função de autocorrelação só depende do atraso k e não da referência do tempo discreto. Assim, para um processo estacionário no sentido amplo as seguintes condições são válidas.

mbj - 17 -

Observe que um processo estacionário no sentido estrito é também um processo estacionário no sentido amplo, mas o inverso não é verdadeiro.

4.1.2 Processos ergódigos

Em situações práticas tem-se disponível um número pequeno (muitas vezes somente uma) de sequências amostras do processo aleatório. Neste caso é possível determinar as características estatísticas do processo se for possível considerá-lo ergódigo. Em muitas aplicações em que é disponível somente uma sequência amostra assume-se que o processo estacionário é ergódigo.

Em um processo ergódico todas as suas estatísticas são determinadas a partir de uma única sequência amostra do processo, isto é, todas as sequências apresentam as mesmas informações. Neste caso ele possui a propriedade de que todas as médias temporais das sequências amostras são iguais às médias estatísticas.

Assim para um processo ergódigo as médias estatísticas são admitidas iguais às médias temporais e são definidas por:

(Parte 1 de 4)

Comentários