Docsity
Docsity

Prepare-se para as provas
Prepare-se para as provas

Estude fácil! Tem muito documento disponível na Docsity


Ganhe pontos para baixar
Ganhe pontos para baixar

Ganhe pontos ajudando outros esrudantes ou compre um plano Premium


Guias e Dicas
Guias e Dicas

Revisão probalidade + estatística, Notas de estudo de Engenharia de Telecomunicações

Conceitos tópicos e revisão

Tipologia: Notas de estudo

2010

Compartilhado em 20/02/2010

alysson-machado-10
alysson-machado-10 🇧🇷

5

(1)

1 documento

Pré-visualização parcial do texto

Baixe Revisão probalidade + estatística e outras Notas de estudo em PDF para Engenharia de Telecomunicações, somente na Docsity! Modelagem e Simulação de Sistemas de Computacionais © LARC-PCS/EPUSP 2004 1 Revisão de Probabilidade e Estatística 1 Principais Ramos da Estatística Estatística Descritiva Utilizada na etapa inicial da análise de dados com o objetivo de tirar conclusões iniciais. Probabilidade Teoria matemática utilizada para estudar a incerteza decorrente de fenômenos de caráter aleatório. Inferência Estatística Estudo de técnicas que permitem a extrapolação, a um grande volume de dados, denominado população, de informações e conclusões obtidas de um subconjunto menor de valores, denominado amostra. 2 Conceitos de Probabilidades Experimento Experimento é um processo cuja saída não é conhecida com certeza. O conjunto de todos os valores possíveis do experimento são chamados de Espaço Amostral. Estatística Descritiva • Consistência dos dados Inferência Estatística • Estimações de quantidades desconhecidas • Extrapolação dos resultados População Amostra Magalhães e Lima 2001 Modelagem e Simulação de Sistemas de Computacionais © LARC-PCS/EPUSP 2004 2 Espaço Amostral Espaço Amostral, indicado por S, é o conjunto de todos resultados possíveis de um certo fenômeno aleatório. Eventos Eventos ou pontos amostrais, são subconjuntos do espaço amostral. Variável aleatória Variável aleatória é uma função que atribui um número real a cada ponto do espaço amostral. Variável aleatória discreta Variável aleatória discreta é uma variável aleatória que assume valores enumeráveis x1, x2, ..., isto é, existe uma correspondência 1 a 1 com conjunto dos números inteiros. Exemplo 1: No lançamento de uma moeda o espaço amostral é S ={cara,coroa}. A variável aleatória X que indica o valor do resultado pode ser igual a 1 se Cara e 2 se Coroa. Exemplo 2: No lançamento de dois dados o espaço amostral é S ={(1,1),(1,2),(1,3),...(6,6)}. A variável aleatória discreta X, definida como a soma dos dois valores, assume o valor 7 se o resultado for (3,4). Exemplo 3: Na chegada de clientes a um banco, o intervalo de tempo entre duas chegadas é uma variável aleatória que assume valores reais positivos. Probabilidade Uma função de P[.) é denominada Probabilidade se atribui valores numéricos aos eventos do espaço amostral de acordo com as seguintes condições: (i) 0≤ P[A] ≤ 1, qualquer A ⊂ S. (ii) P[S] = 1 (iii) ][][ 11 ∑ == = n j j n j j APAPU com os Aj disjuntos Exemplo 4: No lançamento de um dado podem ocorrer os valores 1, 2, 3, 4, 5 e 6. O espaço amostral S={1, 2, 3, 4, 5, 6}. A probabilidade de ocorrência de cada evento é p[1]=1/6, p[2]=1/6, p[3]=1/6, p[4]=1/6, p[5]=1/6, p[6]=1/6. Modelagem e Simulação de Sistemas de Computacionais © LARC-PCS/EPUSP 2004 5 Uma variável aleatória uniforme no intervalo [0,1] tem a função densidade de probabilidade: 0 1 )( =xF se 0 ≤ x ≤ 1 Caso contrário No caso de 0 ≤ x ≤ 1 tem-se xdydyyfxF xx === ∫∫ 00 1)()( Os gráficos das funções do exemplo são os seguintes: 2.5 Função de Probabilidade Conjunta Função de Probabilidade Conjunta – Caso Discreto Se X e Y são variáveis aleatórias discretas então p[x,y] = P[X=x, Y=y] para todo x,y onde p[x,y] é denominada função de probabilidade conjunta. X e Y são independentes se p[x,y] = pX[x] pY[y] para todo x,y onde ∑ − = ytodo X yxpxp ],[][ e ∑ − = xtodo y yxpyp ],[][ são as probabilidades (marginais) de X e Y. Exemplo 7: Supondo que X e Y sejam variáveis aleatórias discretas conjuntas com 0 27 ],[ xy yxp = para x=1,2 e y= 2,3,4 caso contrário 0 1 x f(x) 1 F(x) 1 0 1 x Modelagem e Simulação de Sistemas de Computacionais © LARC-PCS/EPUSP 2004 6 327 ][ 4 2 xxy xp y X == ∑ = para x=1,2 927 ][ 2 1 yxy yp x y == ∑ = para y=2,3,4 Considerando que p[x,y]=xy/27=px[x]pY[y] para todo x,y, as variáveis aleatórias X e Y são independentes. Função Densidade de Probabilidade Conjunta – Caso Contínuo No caso em que X e Y são variáveis contínuas, se existe a função não negativa f(x,y), chamada função densidade de probabilidade conjunta de X e Y, tal que para todos os conjuntos de números reais A e B tem-se ∫ ∫=∈∈ A B dxdyyxfBYAXP ),(],[ Neste caso X e Y são independentes se f(x,y) = fX(x)fY(y) para todo x,y onde ∫ ∞ ∞− = dyyxfxfX ),()( e ∫ ∞ ∞− = dxyxfyfY ),()( são as funções densidade de probabilidade de X e Y. Exemplo 8: Sendo X e Y variáveis aleatórias contínuas conjuntas com 0 24 ),( xy yxf = para x ≥ 0, y ≥0 , e x+y ≤ 1 caso contrário então 2 1 0 2 1 0 )1(121224)( xxxyxydyxf x x X −=== − − ∫ 0 ≤ x ≤ 1 e 21 0 2 1 0 )1(121224)( yyyxxydxyf y y Y −=== − − ∫ 0 ≤ y ≤ 1 Como ) 2 1() 2 1( 2 36) 2 1, 2 1( 2 YX fff =     ≠= então X e Y não são independentes. Modelagem e Simulação de Sistemas de Computacionais © LARC-PCS/EPUSP 2004 7 2.6 Média e Desvio Padrão A média ou valor esperado de uma variável aleatória Xi (onde i=1,2,...,n) é indicada como µi ou E[Xi] é definida como ∫ ∑ ∞ ∞− ∞ ==µ dxxxf xpx i i x j jxj i )( )( 1 se Xi é discreta se Xi é contínua Exemplo 9: Considerando a variável discreta que assume valores 1, 2, 3, 4 com probabilidades 1/6, 1/3, 1/3 e 1/6 do exemplo 5: 6 5) 6 1(4) 3 1(3) 3 1(2) 6 1(1 =+++=µ Exemplo 10: Para a distribuição uniforme entre [0,1] do exemplo 6: 2 1)( 1 0 1 0 ∫∫ ===µ xdxdxxxf Propriedades da Média 1. E[cX] = cE[X] 2. ∑∑ == = n j ii n j ii XEcXcE 11 ][][ mesmo se Xi forem dependentes 2.7 Variância A variância de uma variável aleatória Xi (onde i=1,2,...,n) é indicada como σi2 ou Var[Xi] é definida como σi2 = E[(Xi- µi )2] = E[Xi2] - µi 2 Desvio Padrão é definido como σi Exemplo 11: Considerando os valores dos exemplos 5 e 9 6 43) 6 1(4) 3 1(3) 3 1(2) 6 1(1][ 22222 =+++=XE Modelagem e Simulação de Sistemas de Computacionais © LARC-PCS/EPUSP 2004 10 Exemplo 15: Na fila do Exemplo 14, seja Q(t) o número de clientes na fila no instante t. Então {Q(t),t ≥ 0} é um processo estocástico de tempo-contínuo com espaço de estado 0, 1, 2, ... Em alguns casos práticos, para tornar a análise estatística possível, supomos que algumas propriedades do processo estocástico são válidas, tais como a propriedade covariância-estacionária. Um processo é dito de covariância-estacionária se µi = µ para i=1,2,... e -∞ < µ < ∞. σi2 = σ2 para i=1,2,... e σ2 < ∞ e Ci,i+j = Cov(Xi,Xi+j) são independentes de i para i=1,2,... No caso de covariância-estacionária, a covariância e a correlação entre Xi e Xi+j, indicadas como Cj e ρj são Cj = Ci,i+j 0 222 , C CCC jj jii jii j =σ = σσ =ρ + + Se X1, X2, ..., é um processo estocástico começando no tempo 0, é provável que a covariância não seja estacionária. Entretanto, após algum tempo de simulação, isto é, para k suficientemente grande, Xk, Xk+1, ..., serão aproximadamente estacionários. O valor de k para atingir este ponto define o período de “aquecimento” do sistema (“warmup”). 3 Estimadores e Estimativa Parâmetros Parâmetros são atributos da população, em geral desconhecidos, e sobre os quais temos interesse de estudo. Estimador Estimador é um representante de um parâmetro obtido através de uma amostra. Estimativa Estimativa é um valor numérico assumido pelo estimador. Um estimador θ̂ de um parâmetro θ denomina-se não viciado se θ=θ]ˆ[E Serão estudados estimadores para dois casos diferentes: • Variáveis aleatórias Independentes e Identicamente Distribuídas (IID). • Variáveis aleatórias de um processo estocástico covariante-estacionário. Modelagem e Simulação de Sistemas de Computacionais © LARC-PCS/EPUSP 2004 11 O segundo caso tem interesse à análise de dados de saída que, em geral, não são independentes. 3.1 Variáveis Aleatórias Identicamente Distribuídas IID 3.2 Estimativa da Média Supondo que X1, X2,..., Xn sejam variáveis aleatórias IID com média da população finita µ e variância σ2 . Então a média n X nX n i i∑ == 1)( é um estimador não viciado de µ, isto é, µ=)]([ nXE Intuitivamente, isto significa que se fizermos um número grande de experimentos independentes e calcularmos o )(nX para cada experimento, a média dos )(nX será µ. Estimativa da Variância De forma similar, a variância da amostra S2(n) é calculada como 1 )]([ )( 1 2 2 − − = ∑ = n nXX nS n i i é um estimador não viciado de σ2 pois 22 )]([ σ=nSE Os estimadores )(nX e S2(n) são indicados muitas vezes como µ̂ e 2σ̂ . A dificuldade de se trabalhar com estas estimativas é não se saber o quanto estão próximas do valor µ. Para isto será definido o intervalo de confiança. Antes disso será feita a estimativa de )]([ nXVar )(1)1()]([ 1 2 1 ∑∑ == == n i i n i i XVarn X n VarnXVar Sendo Xi independentes n n n XVar n nXVar n i i 2 2 2 1 2 1)(1)]([ σ=σ== ∑ = Da fórmula n nXVar 2 )]([ σ= pode-se observar que,quanto maior o valor de n, menor será )]([ nXVar e, em conseqüência, )(nX estará mais próximo de µ. Além disso, podemos obter um estimador não viciado de )]([ nXVar substituindo σ2 por S2(n). Modelagem e Simulação de Sistemas de Computacionais © LARC-PCS/EPUSP 2004 12 )1( )]([ )()]([ˆ 1 2 2 − − == ∑ = nn nXX n nS nXraV n i i 3.3 Variáveis Aleatórias de um Processo Estocástico Covariante-estacionário Quando as variáveis aleatórias X1, X2, ..., Xn não forem IID mas definirem um processo estocástico com co-variância estacionária então a média amostral )(nX ainda é um estimador não viciado de µ mas a variância S2(n) não é mais um estimador não viciado de σ2 pois pode-se mostrar que: ] 1 ))/1( 21[)]([ 1 122 − ρ− −σ= ∑ − = n nj nSE n j j Se ρj > 0 (correlação positiva), que é um caso comum na prática, então E[S2(n)] < σ2. A estimativa da variância da média amostral )]([ nXVar , quando X1, X2, ..., Xn são variáveis aleatórias de um processo estocástico com co-variância estacionária, é: n nj nXVar n j j∑ − = ρ−+ σ= 1 12 )])/1(21[ )]([ Assim, estimar )]([ nXVar por S2(n)/n resulta em duas fontes de erros: • S2(n) é um estimador viciado de σ2 e • Os termos de correlação foram negligenciados na fórmula acima. As estimativas de ρj (para j= 1,2,...,n-1) podem ser calculadas como: )( ˆ ˆ 2 nS jC j =ρ e jn nXXnXX C jn i ii j − −− = ∑ − =1 )]()][([ ˆ O problema com estes estimadores é que são viciados e possuem uma variância grande, a menos que n seja muito grande, e são correlacionados entre si, isto é, 0)ˆ,ˆ( ≠ρρ kjCov . Estas considerações mostram a dificuldade de se analisar os dados de saída por serem correlacionados. 4 Distribuição Normal Uma variável aleatória X tem distribuição Normal com média µ e variância σ2 se a sua função densidade é Modelagem e Simulação de Sistemas de Computacionais © LARC-PCS/EPUSP 2004 15 Na prática o teorema diz que quando n for suficiente grande, a variável aleatória Zn será distribuída aproximadamente como uma variável com distribuição normal, independente da distribuição das variáveis Xi. Também pode ser demonstrado que quando n for grande então a média amostral )(nX tem distribuição aproximadamente normal com média µ e variância σ2 /n. A dificuldade de utilizar estes resultados é não se conhecer o valor da variância σ2. Neste caso se utilizará S2(n) que converge para σ2 quando n se torna grande. O novo enunciado do teorema, com esta alteração, ficará “Quando n for suficientemente grande, a variável nnS nX tn /)( )( 2 µ− = terá distribuição aproximada à de uma variável com distribuição normal N(0,1).” 5.2 Intervalo de Confiança Será considerada a variável aleatória Zn, definida no Teorema Central do Limite, com distribuição Normal N(0,1). Fixado um valor α tal que 0 < α < 1, podemos encontrar um valor z1-α/2 tal que P[| Zn | < z1-α/2 )= P[-z1-α/2 < Zn < z1-α/2 ) = 1- α Neste caso, dado α procura-se na tabela de N(0,1) o valor de z1-α/2 tal que P[-z1-α/2< Zn<z1-α/2 )=1- α. Em lugar de zn usaremos tn definido pela fórmula nnS nX tn /)( )( 2 µ− = Neste caso tem-se α−=≤ µ− ≤− α−α− 1] /)( )([ 2/122/1 znnS nX zP z1-α/2- z1-α/2 z f(z) 0 1-α/2 1-α/2 Modelagem e Simulação de Sistemas de Computacionais © LARC-PCS/EPUSP 2004 16 que pode re-escrita como α−=+≤µ≤− α − α − 1])()()()([ 2 2 1 2 2 1 n nS znX n nS znXP Assim, para n suficientemente grande, o intervalo com 100(1- α) porcento de confiança para µ, é definido como n nS znX )()( 2 2/1 α−± ou ])()(,)()([ 2 2 1 2 2 1 n nS znX n nS znX α − α − +− Dado o conjunto X1, X2, ..., Xn de variáveis, chamamos n nS znXnl )()(),( 2 2/1 α−−=α limite inferior do intervalo de confiança e n nS znXnu )()(),( 2 2/1 α−+=α limite superior do intervalo de confiança e o intervalo de confiança será [l(n, α),u(n, α)]. A interpretação para o intervalo de confiança é: “Se construirmos um número grande de intervalos de confiança 100(1- α), independentes e baseados em n observações, para n suficientemente grande, a proporção desses intervalos que contem µ é (1-α). Esta proporção define a cobertura do intervalo de confiança” O intervalo de confiança dá uma idéia de quão preciso é o valor de µ. A construção do intervalo de confiança depende da escolha de um n “suficientemente grande”. Quanto mais assimétrica for a distribuição dos Xi’s maior deve ser o valor de n. Se n não for suficientemente grande, o intervalo de confiança será aproximado. Tem-se uma forma alternativa para determinar o intervalo de confiança. Se as variáveis Xi’s têm distribuição normal, então nnSnXtn /)(/])([ 2µ−= tem distribuição t (t- Student) com n-1 graus de liberdade (df). Neste caso, um intervalo de confiança exato para µ com porcentagem 100(1- α), para n≥2, é dado por n nS tnX n )()( 2 2/1,1 α−−± O valor de tn-1,1- α/2 é obtido da tabela da distribuição t. Modelagem e Simulação de Sistemas de Computacionais © LARC-PCS/EPUSP 2004 17 Pode-se observar, pela forma das curvas nos gráficos que tn-1,1- α/2 > z1- α/2 . Na prática os Xi’s raramente são normais e o intervalo de confiança dado pela fórmula nnStnX n /)()( 2 2/1,1 α−−± é aproximado. Pelo fato que tn-1,1- α/2 > z1- α/2 , o intervalo obtido é mais largo que o obtido com a fórmula nnSznX /)()( 22/1 α−± e, portanto, está mais próximo de cobrir o nível (1- α) desejado. Deve ser observado que tn-1,1- α/2 → z1- α/2 quando n → ∞ . Exemplo 17: Supondo que 10 observações 1.20, 1.50, 1.68, 1.89, 0.95, 1.49, 1.58, 1.55, 0.50, e 1,09 foram feitas e apresentaram distribuição normal com média µ desconhecida e queremos construir um intervalo de confiança com 90% (α=0.10) para µ. Dos dados calculamos 34,1)10( =X 17,0)10(2 =S Com estes resultados e consultando a tabela da distribuição t calculamos 24.034.110/17.083.134.110/)10()10( 295.0,9 ±=±=± StX Com este resultado podemos dizer com 90 % de confiança que µ está no intervalo [1.10,1.58]. A cobertura do intervalo de confiança pode ser afetada pelas distribuições dos Xi’s como mostra o experimento a seguir. Exemplo 18: Foram realizados 500 experimentos independentes para cada tamanho de amostra n=5, 10, 20 e 40, com distribuições normal, exponencial, chi-quadrado com 1df (normal ao x f(x) 0 Função distribuição normal padrão Função distribuição t com 4 df
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved