Objetivos gerais Ementa : Experiência aleatória: espaço ...
Transcript of Objetivos gerais Ementa : Experiência aleatória: espaço ...
0
EEL630 – Modelos Probabilísticos em Engenharia Objetivos gerais: Capacitar o aluno para o entendimento dos fundamentos básicos do cálculo de probabilidades e de processos estocásticos com ênfase em aplicações de transmissão e processamento de sinais e na comunicação e desempenho de redes. Ementa: Experiência aleatória: espaço amostral, axiomas de probabilidade. Probabilidades condicionais. Variáveis aleatórias. Função de distribuição. Variáveis aleatórias discretas e contínuas. Função densidade de probabilidade. Função de v. a. Distribuições conjuntas. Valores esperados. Funções características e geradoras de momentos. Seqüência de variáveis aleatórias. Processos estocásticos: definições. Processos estacionários e ergóticos. O processo de Poisson. Densidade espectral de potencia. Resposta de sistemas lineares a sinais aleatórios. Cadeias de Markov.
1
1. Cálculo de Probabilidades
1. Fenômenos - Modelos utilizados
Quando estudamos um fenômeno qualquer procuramos
associá-lo a um modelo matemático para que de alguma
forma possamos prever o comportamento desse fenômeno
em alguma época futura.
Podemos dividir os modelos matemáticos em dois
grandes tipos:
• Determinísticos
Os modelos determinísticos são aqueles que dados os
parâmetros necessários, podemos obter o valor desejado
através de uma equação. Essa equação representará
adequadamente bem o valor desejado tanto quanto o modelo
for mais bem ajustado, incluindo todos os fatores que
possam influenciar no cálculo da variável desejada.
Exemplo: dada a distância inicial e0 (metros), uma
velocidade constante v0 (m/seg), uma aceleração constante
igual a α (m/seg2), podemos obter a distância final em
2
metros de um corpo em movimento como função do tempo
percorrido pela equação seguinte :
20 0
1e = e + v t + α t2
É claro que esse modelo não leva em consideração o atrito
do corpo em movimento com o meio, resistência do ar, etc.
• Probabilísticos ou Aleatórios ou Estocásticos
Nos modelos probabilísticos, não temos a priori o
resultado da experiência, nem equações de cálculo. Temos
algumas possibilidades de resultados e atribui-se a
possibilidade um número que representa a chance dele
acontecer antes da realização da experiência em questão.
Exemplo: vários carros apostando uma corrida, não
sabemos a priori quem será o vencedor.
1.1 Definições:
1.1.1 – Experiência aleatória Є
É uma experiência tal que não se sabe o resultado a
priori antes da sua realização. Para se modelar o fenômeno
3
de uma experiência aleatória qualquer segundo um modelo
probabilístico conhecido, temos que saber todos os possíveis
resultados dessa experiência.
1.1.2 – Espaço Amostra S
É o conjunto de todos os resultados possíveis de uma
experiência aleatória. Os elementos que formam o conjunto
de resultados possíveis são chamados de eventos
elementares
Exemplos:
1- Espaço amostra discreto: S = {s0, s1, ...}. Lança-se um
dado e observa-se a face voltada para cima. Nesse caso o
espaço amostra será: S = {1, 2, 3, 4, 5, 6}
2- Espaço amostra contínuo: S = {x / x ∈ R e x ∈ (a, b)},
onde a e b são dois reais quaisquer e b > a. Escolhe-se um
número real no intervalo de 0 a 10. Nesse caso o espaço
amostral é dado por:
4
S = {x / x ∈ R e x ∈ (0, 10)}
1.1.3 – Evento A
Qualquer conjunto formado do espaço amostra S:
A ⊂ S
1.1.4 – Eventos elementares do espaço amostral S:
São os elementos formadores do conjunto S, desde que
S seja um conjunto formado por elementos discretos, ou
seja, o conjunto é dito discreto. Nesse caso podemos fazer
uma associação biunívoca de cada elemento de S com os
elementos do conjunto dos inteiros.
Exemplo 3:
5
S = {1, 2, 3, 4, 5, 6} Temos seis conjuntos formados por
cada número de 1 a 6 que são chamados de eventos
elementares: {1}, {2}, {3}, {4}, {5} e {6}.
Num espaço amostra discreto e finito, com N eventos
elementares, o número total de eventos distintos que
podemos formar é 0 1 2 N NN N N NC C C ... C 2+ + + + =
0NC 1= - número total de conjuntos não agrupados -
conjunto vazio;
1NC N= - número total de conjuntos agrupados um a um –
são os eventos elementares;
2NC - número total de conjuntos agrupados dois a dois, etc.
No caso do lançamento de um dado, teríamos:
S2 = {(1,2) (1,3) ... (1,6) (2,1) ... (6,6)}
Quando o conjunto S é contínuo, ou seja, o espaço
amostral é infinito não numerável, a noção de eventos
elementares não faz sentido; o que podemos ter é uma união
de conjuntos, não sobrepostos, que reproduz o espaço
amostra S (conjuntos chamados de partição de S).
6
Exemplo 4:
Sendo S dado por S = {x / x ∈ R e 0 ≤ x ≤ 1}
podemos definir, por exemplo, uma seqüência de 4
conjuntos da seguinte forma:
A = { x / 0 ≤ x < 0,25} B = { x / 0,25 ≤ x < 0,5}
C = { x / 0,5 ≤ x < 0,75} D = { x / 0,75 ≤ x ≤ 1}
Nesse caso é como se A, B, C e D fossem os eventos
elementares de S, mas na verdade eles formam uma partição
de S, ou seja, S = A U B U C U D
1.2 Utilização da teoria dos conjuntos:
Notações: S - espaço amostral
A e B - eventos quaisquer pertencentes a S (A e B ∈ S)
φ - conjunto vazio A U B – A união B – evento definido pelo acontecimento somente do evento A ou somente do acontecimento do
7
evento B ou do acontecimento de A e B simultaneamente (concomitantemente). A ∩ B = A B – A interseção B – evento definido pelo acontecimento de A e B simultaneamente (concomitantemente). Não pode acontecer A sozinho ou B sozinho. Ā – evento definido pelo não acontecimento de A
1=ΑU
n
ii
– evento definido pela generalização da união de
vários conjuntos.
n
n 1 i= ΑI – evento definido pela generalização da
interseção de vários conjuntos. A e B são ditos mutuamente exclusivos quando: A ∩ B = φ Nesse caso A ∪ B significa que: ou acontece o evento
A ou acontece o evento B e não pode acontecer A e B simultaneamente (concomitantemente), pois os dois eventos não permitem que isso ocorra já que a interseção dos dois é nula.
8
Relações de Morgan: A B = A B∪ ∩ e A B = A B∩ ∪ 1.3 Freqüência relativa de eventos
Notação: frA frB – frequência relativa de A e de B;
frA U B – frequência relativa da União de A com B ; frA∩ B – frequência relativa da interseção de A com B; fr Ā ∩ B – frequência relativa da interseção de não A com B; etc Deseja-se arrumar um modelo matemático que nos diga a chance de um determinado evento ocorrer. Este modelo é representado pela probabilidade do evento em questão. O modelo matemático é baseado na frequência relativa do evento. Como exemplo no caso anteriormente colocado do
S A U B
A ∩ B
A∩ B Ā ∩ B
Diagrama de Venn
9
Exemplo 1, se quizésemos arranjar números que medissem a chance de cada um dos seis possíveis números das faces do dado, poderíamos jogar este dado 1000 vezes (por exemplo) e calcularmos a frequência relativa de cada um dos seis números. Essas frequências relativas poderiam ser os números do nosso modelo, para esse dado. Poderíamos repetir essa experiência (mais 1000 vezes) e calcularmos novamente a frequência relativa dos seis números. Obviamente os dois resultados seriam diferentes (dificilmente seriam iguais). O fato é que, se repetirmos esse processo com um número cada vez maior vezes, veremos que as frequências relativas encontradas oscilam em torno de números, as quais serão tomados como as probabilidades de cada um dos seis números que aparecem na face do dado. Dessa forma, haverá uma convergência estocástica (estatística) para um determinado valor de frequência relativa (regularidade estatística). Caso não houvesse essa convergência estatística seria impossível atribuir probabilidades aos números, a menos que essas probabilidades variassem regularmente com a jogada (com o tempo) ou variassem de forma regular com a pessoa que lança o dado. Nesses dois últimos casos mencionados acima, a forma de atribuir probabilidades aos números tem que ser tratada de maneira diferente, caso isso seja possível, como por exemplo um processo estocástico ou outra forma diferente. Seja nA o número de vezes (frequência) que o evento A ocorreu em n totais vezes que a experiência aleatória foi repetida. A frequência relativa do evento A é calculada
10
como AA
nfr n= . De forma similar, podemos definir
frequência relativa para outros eventos do espaço amostral. Exemplos de obtenção das frequências relativas: Exemplo 4: Lança-se um dado 1000 vezes e obtém-se a freqüência de aparecimento de cada número do dado (número que aparece na face voltada para cima) e calcula-se a sua freqüência relativa. A seguir mostra-se o histograma obtido.
Número Freqüência Freqüência Relativa
1 168 16,8% 2 165 16,5% 3 172 17,2% 4 166 16,6% 5 170 17,0% 6 159 15,9% Total 1000 100%
1 2 3 4 5 60
2
4
6
8
10
12
14
16
18
11
Exemplo 5: Tem-se um sinal aleatório variando entre –1 e 1 Volt e de duração de 100 milisegundos. O gráfico do sinal aparece na figura abaixo. Fez-se também uma amostragem do sinal, obtendo-se 150 pontos no espaço de tempo (obedecendo-se à taxa de Nyquist). O histograma foi obtido dividindo-se a amplitude (2 Volts) em 20 classes é visto a seguir.
-1.5 -1 -0.5 0 0.5 10
5
10
15
20
25
0 10 20 30 40 50 60 70 80 90 100 -1.5
-1
-0.5
0
0.5
1
12
Sobre o mesmo histograma acima é colocado a curva Normal (Gaussiana), que é uma curva de medida de probabilidade.
-1.5 -1 -0.5 0 0.5 10
5
10
15
20
25
13
1.3.1 Propriedades da freqüência relativa de um evento: Sendo A e B dois eventos quaisquer de um espaço amostral S, temos:
1. 0 ≤ frA ≤ 1 2. frA = 0 se o evento não ocorre em momento algum. 3. frA = 1 se o evento ocorre todas as vezes, ou seja, somente este evento ocorre durante toda a experiência aleatória.
Na verdade, nesse caso não existe experiência aleatória, ou seja, temos um fenômeno determinístico pois, A é um evento certo (100% de certeza do acontecimento de A, desde que a experiência seja realizada).
4. Se A e B são mutuamente exclusivos, isto é, a
ocorrência de A não ocasionar a ocorrência de B e vice versa, então:
frA U B = frA + frB
14
Exemplo 6: Uma caixa contém 2 bolas brancas, 3 bolas azuis e 5 bolas vermelhas. As bolas são aproximadamente do mesmo tamanho e peso, diferindo somente pela cor. Estas bolas foram devidamente misturadas de modo que a pessoa que retirasse uma bola, não pudesse distinguir a sua cor antes da sua retirada.
A experiência consiste em misturar as bolas, retirar uma bola, observar sua cor e repô-la à caixa. Essa experiência foi repetida um grande número de vezes e abaixo vê-se a tabela de retiradas e as frequências de saida das bolas (Tabela 1.1). Tabela 1.1 Frequência de retirada das bolas
Número de repetições da experiência Cor da bola 50 100 200 300 500
Branca 8 18 43 58 103 Azul 19 27 59 91 149 Vermelha 23 55 98 151 248
Tabela 1.2 Frequência relativa de retirada das bolas Número de repetições da experiência Cor da bola
50 100 200 300 500 Branca 0,160 0,180 0,215 0,193 0,206 Azul 0,380 0,270 0,295 0,303 0,298 Vermelha 0,460 0,550 0,490 0,503 0,496
15
As frequências relativas mostradas na Tabela 1.2 mostram a tendência da retirada de uma determinada bola convergir para um número, ou seja, a frBr
(frequência relativa da bola branca) tende para 0,2; a frAzul (frequência relativa da bola azul) tende para 0,3 e a frVer (frequência relativa da bola vermelha) tende para 0,5. Estes números medem então, a chance do aparecimento de uma bola de determinada cor ser sorteada ao acaso.
1.4 – Definição de Probabilidade
É um número representativo da chance do
acontecimento de um dado evento e tem as mesmas
propriedades da freqüência relativa.
p(A) = probabilidade do evento A
1.4.1 – Axiomas da Probabilidade (propriedades da
probabilidade de um evento) São os mesmos da frequência
relativa de um evento:
1. 0 ≤ p(A) ≤ 1
2. p(S) = 1 [Como conseqüência p(φ) = 0]
16
3. Se A e B são mutuamente exclusivos, ou seja,
A ∩ B = φ então ⇒ p(A ∪ B) = p(A) + p(B)
1.4.2 – Teoremas relativos à probabilidade (deduzidos dos
axiomas):
1. Probabilidade do evento impossível
p(φ) = 0
Mostração:
Como se tem as relações: A ∪ φ = A e
A ∩ φ = φ – A e φ são mutuamente exclusivos
Logo utilizando-se os axiomas tem-se:
p(A ) + p(φ) = p(A) então: p(φ) = 0
2. Probabilidade do evento complementar
p(Ā) = 1 – p(A)
Mostração:
Como se tem as relações: A ∪ Ā = S A ∩ Ā = φ
A∩A=φ – A e Ā são mutuamente exclusivos
Logo, p(A) + p(Ā) = p(S) = 1
então: p (Ā) = 1 - p(A)
onde Ā é chamado de complemento de A
17
3. Se A e B são dois conjuntos quaisquer, então:
p(A ∪ B) = p(A) + p(B) - p(A ∩ B)
Mostração:
Como se tem as relações:
A ∪ B = A ∪ (B ∩ Ā)
B = B ∩ S = B ∩ ( A ∪ Ā ) = (B ∩ A) ∪ (B ∩ Ā)
A e (B ∩ Ā) – são mutuamente exclusivos
(B ∩ A) e (B ∩ Ā) – são mutuamente exclusivos
Logo,
p(A ∪ B ) = p(A) + p(B ∩ Ā) e
p(B) = p(B∩A) + p(B∩Ā) ⇒ p(B) = p(AB) + p(ĀB)
ou p(ĀB) = p(B) - p(AB)
então: p(A ∪ B ) = p(A) + p(B) - p(AB)
A B S
A∩B
18
4. Generalizando-se, tem-se para três ou mais eventos: p(A U B U C ) = p(A) + p(B) + p(C) - p(AB) - p(AC) - p(BC) + p(ABC) sendo A B e C eventos quaisquer
( )n n
i i i j i j ki 1 i j i j ki 1
i j i j k
nn-1
ii 1
p A p A - p A A p A A A -
... (-1) p A
==≠ ≠ ≠
=
= +
+
∑ ∑∑ ∑∑∑1442443 1442443
U
I
Demonstração feita a partir da demonstração anterior.
5. A ⊂ B então p(A) ≤ p(B) Mostração: A ⊂ B ⇒ p(A) ≤ p(B) A ⊂ B ⇒ A ∩ B = A B = A ∪ (Ā ∩ B) Porém: A ∩ (Ā ∩ B) = (A∩Ā) ∩ (A∩B) = φ ∩ A = φ, logo são mutuamente exclusivos. Então: p(B) ≥ p(A)
6. p(Ā U B )= p (A B∩ ) = 1 - p(A ∩ B)
7. p(Ā ∩ B ) = p(A B∪ ) = 1 - p(A U B) = 1 - p(A) - p(B) + p(AB) Estas duas últimas relações são obtidas a partir das relações de Morgan
B A
19
Observações:
1- Quando um evento é impossível de acontecer, ele é dito um conjunto vazio φ. Então a probabilidade do evento impossível é zero. Exemplo 6: No lançamento de um dado não tendencioso, qual a probabilidade de sair um número 8? Essa probabilidade é zero.
2- Nem sempre que a probabilidade é zero, significa que
o evento é impossível. Exemplo 7: Na cidade do Rio de Janeiro observou-se que ao longo dos últimos 500 anos, que a temperatura atmosférica da cidade sempre esteve no intervalo (-10, 50) graus centígrados, logo se considera que a Prob[temperatura da cidade do RJ estar entre –10 e 50] = 1. Qual a probabilidade dessa temperatura estar entre –15 e –10 graus centígrados? Segundo os dados dos últimos 500 anos, fica estabelecido que essa probabilidade é zero. Isso não quer dizer que o evento “temperatura entre –15 e –10 graus centígrados” seja um evento impossível. Na verdade o que podemos afirmar é que nunca foi registrada temperatura fora do intervalo (-10,50) oC na cidade do Rio de Janeiro.
3- Viu-se que p(Ā) = 1- p(A). Esta expressão é
importante porque algumas vezes é muito mais trabalhoso se calcular a probabilidade de um evento do que a probabilidade do evento complementar (evento contrário).
20
1.5 – Métodos de Contagem – Análise Combinatória
Nem sempre o espaço amostra pose ser obtido através
da listagem de todos os elementos, dado o grande número
deles ou mesmo pela incoveniência dessa listagem quando se
está interessado num evento em particular. Dessa forma
valemo-nos da análise combinatória para contar, tanto os
elementos do evento A quanto os elementos do espaço
amostra (números de casos favoráveis ao acontecimento de
A e número de casos possíveis).
1.5.1 Método da Multiplicação
Suponha que o procedimento I pode ocorrer de m
maneiras diferentes e um outro procedimento (II) pode
ocorrer de n outras maneiras diferentes. Além disso,
se qualquer uma das m maneiras de chegar a I possa
ser seguida de qualquer uma das n maneiras de se
chegar a II. Então o número de vezes de se
realizar I, seguido de II é igual a m . n maneiras
diferentes.
21
Exemplo:
Suponha que para se ir de Petrópolis para o Rio de
Janeiro se possa de ir de ônibus (empresa) ou de carro
(particular). Para se ir do Rio para São Paulo pode-se ir
de trem, avião, ônibus (empresa) ou de carro
(particular). De quantas maneiras pode-se ir de
Petrópolis para São Paulo, passando-se pelo Rio?
Total: 2 maneiras vezes 4 maneiras = 8 formas
diferentes.
Petrópolis Rio São Paulo
22
1.5.2 Método da Adição
Suponha que o procedimento I pode ocorrer de m
maneiras diferentes e um outro procedimento (II) pode
ocorrer de n outras maneiras diferentes. Além disso,
não se pode realizar os dois procedimentos em
conjunto, isto é, um após o outro. Então o número
de vezes de se realizar I ou de se realizar II é igual a
m + n maneiras diferentes.
Exemplo:
Suponha a seguinte experiência: Lança-se uma moeda.
Se sair cara joga-se um dado e verifica-se o número que
saiu. Se sair coroa, escolhe-se um número inteiro no
conjunto {7, 8, 9}. De quantas maneiras pode-se
escolher um número nessa experiência?
Cara ⇒ lance do dado ⇒ 6 maneiras
Coroa ⇒ escolha de um número ⇒ 3 maneiras no conjunto {7, 8, 9}
Número total de maneiras = 9
23
1.5.3 – Agrupamentos importantes
Baseado nos dois métodos anteriormente descritos,
surgem os agrupamentos mais importantes e suas fórmulas
de contagem.
1.5.3.1 – Permutação de n elementos - Pn
Neste tipo de agrupamento todos os elementos
participam do mesmo, sendo que cada agrupamento
diferirá um do outro somente pela ordem com que os
elementos aparecem.
Exemplo: permutações de três elementos A, B e C
ABC ≠ ACB
Número total de permutações: Pn = 1.2.3. … . n = n !
Restrição: p inteirospositivo
Mostração: Suponha que tenhamos n-1 elementos
no agrupamento e o número de permutações distintas
seja Pn-1. Vamos introduzir o n-ésimo elemento.
24
Este elemento poderá ocupar n posições em cada um
dos agrupamentos de n-1 elementos. Sendo o
agrupamento de n-1 elementos A B C D ... M, ao
introduzir o n-ésimo elemento temos ter n posições
aonde este elemento poderá ocupar (figura abaixo),
com as setas indicando as n possíveis posições
aonde o n-ésimo elemento poderá ser introduzido.
A B C D ... M↓ ↓ ↓ ↓ ↓ ↓ ↓
Pelo método da multiplicação, como cada
agrupamento de n-1 elementos formará n
agrupamentos de n elementos, os Pn-1 agrupamentos
formarão um total de (n . Pn-1) permutações de n
elementos, ou seja,
Pn = n Pn-1
Cálculo de Pn:
P2 = 2 P1
P3 = 3 P2
.
.
Pn = n Pn-1.
Multiplicando-se membro a membro, tem-se:
25
Pn = 2 . 3. 4 . . . . n . P1
Mas P1 = 1, isto é, todos os agrupamentos com 1
elemento. Logo se tem Pn = n !
1.5.3.2 – Arranjos de n elementos tomados p a p = pnA
Este tipo de agrupamento é formado com p
elementos de um conjunto de n elementos.
Os agrupamentos vão diferir pela natureza dos
elementos e pela ordem com que os elementos estão
situados no agrupamento.
Exemplo: Tem-se 5 elementos A, B, C, D e F.
Formemos arranjos de 3 elementos. Temos alguns
arranjos diferentes: ABC ≠ ACB ≠ ADB
Número total de agrupamentos:
pn
n!A n(n 1)(n 2)...(n p 1)
(n p)!= = − − − +
−
Restrições: n, p inteiros positivos e p ≤ n
26
Mostração:
Continuando com o exemplo acima, contemos o
número de arranjos possíveis. Para isso façamos 3
células e preenchamos com os elementos disponíveis.
Na 1a célula podemos colocar qualquer dos 5
elementos disponíveis. Ficamos com 4 elementos
disponíveis. Podemos colocar na 2a célula qualquer
um dos 4 elementos. Para a última célula, a 3a, temos
3 elementos disponíveis e podemos colocar qualquer
um dos três. Pelo método de contagem da
multiplicação teremos um total de 5 x 4 x 3 arranjos
possíveis.
Generalizando, para se calcular os arranjos de n
elementos tomados p a p temos:
1ª célula 2ª célula 3ª célula
1ª célula 2ª célula p-ésima célula
. . . . .
27
Na 1a célula podemos colocar n elementos; na 2a
podemos colocar n-1; e assim sucessivamente até a
p-ésima, onde podemos colocar um dos últimos (n-
p+1) elementos. Dessa forma podemos ter, pela regra
da multiplicação,
n(n 1)(n 2)...(n p 1)− − − +
arranjos distintos.
1.5.3.3 – Combinação de n elementos formados p a p = pnC
Este tipo de agrupamento é formado com p
elemntos de um grupo de n elementos, porém os
agrupamentos vão diferir uns dos outros pela natureza
dos elementos no grupo e não pela sua posição.
28
Exemplo: Tem-se 5 elementos A, B, C, D e F.
Formemos combinações de 3 elementos. Temos
algumas combinações: ABC = ACB ≠ ADB
Número total de combinações:
( )( )( ) ( )p
p nn
p
n n-1 n-2 ... n-p 1A n !C P 1. 2. ... . pn-p ! p !
+= = =
Restrições: n,p inteiros positivos e p ≤ n
Mostração:
O cálculo do número de combinações possíveis se
torna fácil, se notarmos que a única diferença para o
número de arranjos é que cada agrupamento de
combinação gera o mesmo número de arranjos,
multiplicado pelo número de permutações que
podemos fazer com os p elementos do agrupamento
de combinação, ou seja,
p pn p nC P = A
29
Logo, n (n-1) (n-2) ... (n-p+1) p!
pp nn
p
AC = P
=
1.5.3.4 – Permutação com Repetição - 1 2 kn ,n ,...,nnPR
Neste tipo de permutação tem-se n1 elementos
iguais entre si, n2 elementos iguais de outro tipo; ...
etc até nk elementos idênticos, sendo que
n1 + n2 + … + nk = n
Número total de permutações com repetição:
1, 2, kn n ...,nn
1 2 k
n!PRn !n !...n !
=
Restrições: os ni (i=1,2,...k) são inteiros positivos
Exemplo: Tem-se 5 elementos A, A, B, B e C. Na
permutação todos os elementos fazem parte do
agrupamento.
30
Mostração:
O agrupamento A A B B C é diferente do
agrupamento A B A B C. Mas se no agrupamento
A A B B C permutamos os dois primeiros
elementos, o agrupamento não se modifica, ficaremos
com a mesma permutação. Então analogamente ao
raciocínio feito para as combinações, o número de
permutações diferentes com elementos repetidos é
igual ao número de permutações simples de n
objetos, dividido pelo número de permutações que se
pode fazer entre os elementos repetidos, isto é,
1 2 kn ,n ,...,n
n n1 2 kP n! = n !n ! ... n ! PR=
Logo, 1 2 kn ,n ,...,nn
1 2 k
n!PR n !n ! ... n !
=
Caso particular: Somente 2 elementos diferentes: n1 + n2 = n
1 2 1 2n ,n n nn n n= PR C = C
31
1.5.3.5 – Arranjos com Repetição de n elementos tomados
p a p - pnAR
Este tipo de agrupamento é idêntico ao
agrupamento formado pelos arranjos simples com o
adicional que os elementos podem aparecer repetidos
2, 3, … etc. vezes até n vezes.
etc. ACB, AAB ABC AR3
CB,A, ≠≠⇒
p pnAR n=
Restrições: n, p inteiros positivos. O valor de p
pode ser menor ou maior que n (sem restrição).
Mostração:
É facilmente demostrada pela regra da multiplicação.
1ª célula 2ª célula p-ésima célula
. . . . .
32
Conforme mostrado na Figura, em qualquer das p
células podemos colocar n elementos, já que pode
haver repetição. Logo teremos um total de:
p
p vezesn.n...n = n14243
1.5.3.6 – Permutação Circular de n elementos - PCn
Quando os elementos a serem permutados de lugar
só podem ser mudados circularmente. No cálculo de
probabilidades esse tipo de agrupamento não é usado.
Exemplo 8: Sejam os 5 elementos: A, B, C, D e E.
Se ABCDE é um grupamento, então EABCD é outro
agrupamento. Porém ABCED não faz parte desse
agrupamento pois não é agrupamento circular com os
anteriores.
O número de permutações circulares é PCn = n-1
Restrição: n inteiro positivo
1.6 – Atribuição de Probabilidades aos Eventos
33
1.6.1 – Tipos de Espaço Amostral S
• Numerável finito: Exemplo 9: S = {1, 2, 3, 4, 5, 6}
• Numerável infinito: Exemplo 10:
S = {1, 2, 3, 4, 5, 6, 7, ... ∞}
• Infinito não contável: Exemplo 11:
S = {xx ∈ ℜ e x ∈ (-10,10) }
1.6.2 – Atribuição de probabilidades aos espaços numeráveis
finitos:
• Se nada é dito em contrário, supõe-se que todos os
eventos são equiprováveis. Logo, tendo-se o espaço
amostral S, tem-se:
{ } ( )n1 i
1S s , , s ; p s ; i 1, , nn
= = =L L
Como n > 0 vemos que
10 1
n< <
e além disso,
n n
ii=1 i=1
1p(s ) 1n
= =∑ ∑
34
Logo, ( )
i
1p s =
n pode ser usada como uma medida de
probabilidade.
Se n = 0 não faz sentido falar em espaço amostra, ou
seja, definirmos um espaço amostra que não tem elemento
algum não faz sentido pois seria a realização de uma
experiência onde nada vai ser observado.
Quando o número de eventos elementares do espaço
amostra é extenso, ou mesmo quando não queremos fazer
uma listagem (contagem) desses eventos elementares para
atribuição de probabilidades, podemos usar a análise
combinatória. Dessa forma, fazendo-se a suposição de
eqüiprobabilidade dos eventos elementares, podemos usar a
análise combinatória para calcular as probabilidades dos
eventos, da seguinte forma:
Para um evento A ∈ S (espaço amostra), e se A é
formado de r eventos elementares, a probabilidade de A será:
35
qi j k
r eventos elementares
A = { x , x , x , ... , x }1444442444443
⇒ r vezes
1 1 1 1 rp(A) ... n n n n n= + + + =14444244443
Número de casos favoráveis
ao aparecimento do evento Ap(A)
Número de casos possíveis - todos
os possíveis casos do espaço amostra
=
A análise combinatória poderá ser usada para se
calcular tanto o número de casos do numerador como o do
denominador da expressão acima.
Caso os eventos elementares não sejam
equiprováveis, não podemos usar a análise combinatória
para se clacular p(A).
36
Exemplo 12 (Atribuição de Probabilidades num espaço
amostra finito):
Um grupo de pessoas é formado por 6 mulheres e 4
homens. Deseja-se formar comissões de 5 pessoas. Qual a
probabilidade de que estas comissões sejam formadas por
3 mulheres e dois homens? (Independentemente de quem
sejam as pessoas e que ordem elas sejam escolhidas, ou
seja, está se supondo que as comissões só dependam de
quem foram os escolhidos).
Neste exemplo podemos supor que todas as comissões
possíveis de serem formadas são equiprováveis. Logo, como
é muito trabalhoso listar todas estas comissões, e contá-las,
calculamos a probabilidade por:
número de casos favoráveisp número de casos possíveis
= isso só é válido caso
os eventos (todas as possíveis comissões formadas) sejam
equiprováveis.
a) número total de grupos de 3 mulheres: 36C
37
b) número total de grupos de 2 homens: 24C
c) número total de grupos onde apareçam 3 mulheres e 2
homens ( número de casos favoráveis): 24
36 C . C
e) número total de comissões de 5 pessoas (número de
casos possíveis): 510C
3 26 4
510
C CProb =
C
(a distribuição de probabilidades dada pela razão anterior é
chamada de distribuição hipergeométrica, que será vista
mais adiante)
1.6.2 Atribuição de Probabilidades aos espaços amostras
numeráveis infinitos:
38
Nesse caso os eventos elementares não podem ser
equiprováveis, pois se isso pudesse acontecer, os eventos
elementares teriam probabilidades iguais a zero, porque:
número de casos favoráveis 1Prob(evento elementar) 0
número de casos possíveis= = →
∞
Então, nesse caso, atribui-se probabilidades aos eventos
observando-se a característica do espaço amostra que
originou o novo espaço amostra infinito o qual deseja-se
atribuir probabilidades aos eventos.
Exemplo 13:
Seja a Experiência aleatória que consiste no lançamento
de um dado não tendencioso, até que se obtenha o número
2. O espaço amostra é formado pelo número de vezes
que se tem que lançar o dado até que apareça o número 2.
Espaço amostra do lançamento do dado :
S1 = {1, 2, 3, 4, 5, 6}
onde Prob(i) = 1/6 i = 1,..,6
Espaço amostra de interesse:
S2 = {jogar 1 vez, jogar 2 vezes, jogar 3 vezes, ..., ∞).
39
S2 = {1, 2, 3, ... ,∞).
Supondo-se que
Prob (sair qualquer número no dado) = 1/6, tem-se:
PS2(1) = Prob(jogar 1 vez ≡ aparecer o número 2 na 1a vez) =
1/6
PS2(2) = Prob(jogar 2 vezes ≡ não aparecer o 2 na 1a. vez e
aparecer o 2 na 2a. vez) = p(A) p(A) = 5/6 x 1/6
PS2(3) = Prob(jogar 3 vezes ≡ não aparecer o 2 na 1a. nem na
2a. vez, porém vai aparecer o 2 na 3a. vez) = p(A)
p(A) p(A) = 5/6 5/6 1/6 = (5/6 )2 1/6
.
.
.
pS2(n) = 5/6 . 5/6 . … . 5/6 . 1/6 = (5/6)n-1 . 1/6
Logo, 2S
k 11 5p (k)6 6
−
=
S = {1, 2, 3, ... k, ... ∞}
Vemos que, para k ≥ 1 0 p(k) 1< <
Será que k 1
p(k) 1 ?∞
==∑
n-1
40
Somemos então as probabilidades para 1 ≤ k ≤ ∞
k 1 k
k 1 k 1
51 5 1 6 5 1 6 1
56 6 6 5 6 5 16
−∞ ∞
= =
= = =−
∑ ∑
Logo k 1
1 5p(k)6 6
−
=
pode ser usada como uma medida
de probabilidade.
1.6.3 Atribuição de Probabilidades aos Eventos nos espaços
infinitos não contáveis:
Nesse caso, tem-se uma função qualquer que integrada
num intervalo dá a probabilidade do intervalo. Essa
função f(x), como será visto no capítulo de variáveis
aleatórias, é tal que:
f (x) 0 x, x e f (x) dx 1∞
−∞≥ ∀ ∈ =∫�
b
aProb a X b f(x) dx
< ≤ = ∫
1.8 – Probabilidade Condicionada
41
Tem-se um espaço amostra S e dois eventos A e B
desse espaço amostral. A experiência aleatória foi realizada
e tem-se a informação, as vezes não completa, sobre o
resultado da experiência. Deseja-se calcular a probabilidade
do evento A, sabendo-se que o outro evento B ocorreu após
a realização da experiência aleatória. É claro que esses dois
eventos pertencem ao espaço amostra da experiência em
questão, caso contrário não faria o menor sentido querer usar
o acontecimento do evento B para se fazer o cálculo da
probabilidade de A. Deve ficar claro também que o evento
B só vai alterar a probabilidade de A se eles tiverem
elementos comuns, ou seja, A ∩ B ≠ 0.
Notação: p(A|B) – Probabilidade de A dado B ou,
probabilidade de A na certeza de B ou, probabilidade de A
na certeza que B ocorreu.
Quando temos uma probabilidade condicionada, esta
reduz o espaço amostra da experiência aleatória, pois a
ocorrência do evento B dá uma informação adicional a
respeito da ocorrência de A. Dessa forma, temos um novo
espaço amostra reduzido, já que temos uma informação
adicional que é a certeza da ocorrência do evento B.
42
Certeza de qualquer evento traduz-se como
probabilidade igual a 1.
Exemplo 14: Suponha que lancemos um dado não
tendencioso. Os possíveis valores são os eventos elementares
do espaço amostra S = {1, 2, 3, 4, 5, 6}. Nesse caso,
supondo-se a eqüiprobabilidade de cada valor, temos p(k) =
1/6 k=1,..,6. Alguém tem a informação adicional que, o
valor que saiu no lançamento do dado é um número par
mas não se sabe qual é realmente o valor que se obteve. Isso
muda o espaço amostra para S’ = {2, 4, 6}. Da mesma
forma que antes do lançamento do dado, supõe-se a
eqüiprobabilidade de cada valor. Logo temos que:
p(k) = 1/3 k=2, 4, 6.
1.8.1-1 A forma mais comum de se obter a probabilidade
condicionada P(A|B) é deduzida a seguir:
n(A B)
P(A|B) = n(B)
∩
onde n(A∩B) representa o número de elementos comuns
aos conjuntos A e B enquanto n(B) representa o número de
43
elementos de B. Estamos na verdade, normalizando os
valores de n(A∩B) pelos de n(B), pois a probabilidade do
evento B, nesse caso, é igual a 1. Os eventos elementares
que não pertencem a B têm, nesse caso, probabilidade igual
a zero, pois não aconteceram na realização da experiência
aleatória. Caso realizemos novamente a experiência
aleatória, o espaço amostral volta a ser S = {1, 2, 3, 4, 5, 6} e
cada elemento volta a ter probabilidade igual a 1/6.
Continuando-se o exemplo acima, suponha que após o
lançamento do dado, sabe-se que o valor foi par; qual a
probabilidade de ter saido um número menor ou igual a 5?
É claro que nesse caso, a probabilidade do número ser ímpar
é zero. Então temos que:
n(A∩B) = número de elementos de A iguais ou menores
que 5 e que são pares (evento B); são os
números 2 e 4, o que dá um total de 2 valores.
n(B) = número de elementos de B que são pares: que
são os números 2, 4 e 6, que dá um total de 3
valores.
Logo, como temos equiprobabilidade, obtemos:
44
n(A B) 2
P(A|B) = n(B) 3
∩=
Podemos também fazer:
n(A B) n(A B)/n(S) 2 6
P(A|B) = n(B) n(B)/n(S) 3 6
∩ ∩ ÷= =
÷
onde: n(A∩B) = 2; n(B) = 3 e n(S) = 6
Porém n(A B)
P(A B)=P(AB)n(S)
∩= ∩ e
n(B)P(B)
n(S)= ,
onde P(AB) e P(B) são obtidos no espaço amostra
original, isto é, no espaço amostral sem redução.
n(S) é o número de elementos do espaço amostra S, que
nesse caso é igual a 6.
Chega-se então a forma mais comum de se calcular a
probabilidade condicionada, cálculo esse feito através do
espaço amostra original da experiência aleatória:
( ) ( )
( )( )( )BP
B A P
BP
ABP BAP
∩==
No exemplo: 2 3 2/6 2
P(A B) P(B) P(A|B)=6 6 3/6 3
∩ = = =
45
Exemplos 15- Lançam-se dois dados. Seja (x, y) o par
formado. Sejam os seguintes eventos:
A = {x + y = 5) e B = (x é par)
Qual o valor da probabilidade P(A|B) ?
Espaço amostra:
(1,1) (1,2) (1,3) (1,4) (1,5) (1,6)
(2,1) (2,2) (2,3) (2,4) (2,5) (2,6)
(3,1) (3,2) (3,3) (3,4) (3,5) (3,6)S
(4,1) (4,2) (4,3) (4,4) (4,5) (4,6)
(5,1) (5,2) (5,3) (5,4) (5,5) (5,6)
(6,1) (6,2) (6,3) (6,4) (6,5) (6,6)
=
A probabilidade de qualquer um deses pares de valores é
igual a 1/36, pois são todos equiprováveis.
36
2 B) eP(A = devido aos pares (2, 3) e (4, 1)
36
18 P(B) = devido a todos os grupos (x, y) onde x é par
46
18
2
18/36
2/36 )BP(A ==
Exemplo 16- No lançamento de dois dados, qual a
probabilidade da soma ser 10 (evento A) se o primeiro dado
que saiu é o número 8 (evento B)?
P(A|B) não tem sentido pois p(B) = p(8) = 0
1.8.1-2 Outras definições:
• Probabilidade conjunta de dois eventos.
Da definição de probabilidade condicionada,tem-se:
P(A|B) = P(AB) ÷ P(B)
P(B|A) = P(BA) ÷ P(A) = P(AB) ÷ P(A)
Logo, tem-se: P(AB) = P(B) P(A|B) = P(A) P(B|A)
• Extensão para probabilidade conjunta de três eventos:
P(ABC) = P(A) P(B|A) P(C|AB)
Isso pode ser deduzido a partir de P(A|B’), fazendo-se
47
B’ = B∩C
• Extensão para probabilidade conjunta para mais de dois
eventos: Por exemplo, calculo de p(ABCDE)
P(ABCDE) = P(A) P(B|A) P(C|AB) P(D|ABC) P(E|ABCD)
• Se B1 ∩ B2 ≠ φ, então:
P[A∩(B 1∪ B2)] = p(A∩B1) + p(A∩B2)
Essa relação pode ser vista através do diagrama de
Venn
S
A B
C
48
1.8.2 – Teorema de Bayes
Sejam o espaço amostra S, um evento A e os eventos
Bi, tal que:
N3
N
1i21i B B B B B S ∪∪∪==
=LU
e sendo os conjuntos Bi, disjuntos ( )j i 0, B B ji ≠=∩
O evento A tem interseção (pode ter) com os diversos
Bi onde i = 1, ..., N.
Logo, um conjunto A qualquer do espaço amostra S
pode ser colocado como:
49
N21 AB AB AB A ∪∪∪= L
e como, nesse caso, as interseções satisfazem a
ABi ∩ ABj = φ, tem-se:
( ) ( ) ( )N21 ABP ABP ABP P(A) +++= L
como P(ABi) = P(Bi) P(A/Bi), tem-se:
( ) ( ) ( ) ( ) L BAP . BP BAP . BP P(A) 2211 ++=
Tem-se também que
k k k kP(AB ) P(A).P B A P(B ).P(A B
= = )
Logo, tendo-se essas relações de cálculo de probabilidades,
onde os conjuntos Bi i=1,N formam uma partição do
espaço amostral S e A é um conjunto qualquer de S, segue-
se então o teorema de Bayes ou relação de Bayes.
50
Teorema de Bayes:
Dado que os conjuntos Bi i=1,N formam uma partição
do espaço amostral S e A é um conjunto qualquer de S,
segue-se então a seguinte expressão, chamada de teorema de
Bayes ou também chamado de teorema das causas:
k k
k N
i ii 1
P B .P A BP B A
P(A) P B P(A B )
=
== ∑
Exemplo 17: Tem-se três urnas contendo bolas azuis e outras
de diferentes cores, da seguinte forma:
1a. Urna 2a. Urna 3a. Urna
20 bolas sendo
4 azuis
15 bolas sendo
5 azuis
30 bolas sendo
3 azuis
Todas as bolas são colocadas numa única urna. Qual a
probabilidade de sair azul ?
51
1a. maneira: 65 bolas totais, sendo 13 azuis.
Logo, Prob(azul) = 1265
2a. maneira: Define-se os seguintes eventos:
B1 = {bola da urna 1} B2 = {bola da urna 2}
B3 = {bola da urna 3} A = {sair bola azul}
P(A) = P(B1) . P(A|B1) + P(B2) . P(A|B2) + P(B3) . P(A|B3)
( )65
20 BP 1 = ( )
65
15 BP 2 = ( )
65
30 BP 3 =
14P A B
20
= ( )15
5 BAP 2 = ( )
30
3 BAP 3 =
20 4 15 5 30 3 12P(A) . . . 65 20 65 15 65 30 65
= + + =
52
Exemplo 18 (Aplicação do teorema de Bayes):
No exemplo anterior sabendo-se que foi retirada uma
bola, verificou-se ser azul. Qual a probabilidade de ter vindo
da urna 1 ? ( ) ? ABP 1 =
1 1
1
P B P A B 20/65 .(4/20) 4P B A 12P(A) 12/65
= = =
Nesse caso particular, outra maneira de se calcular a
probabilidade sem usar o teorema de Bayes, seria:
Número de bolas azuis de cada urna
1a. Urna 2a. urna 3a. urna
4 5 3
A Tabela mostra as bolas azuis de cada urna, já que a
probabilidade de ter saido bola de outra cor é zero (saiu uma
azul e não se sabe de qual urna). Então a probabilidade
pedida é 14 4P B A
4 5 3 12
= =+ +
53
O problema é que nem sempre é fácil calcular P(Bi |A)
da última forma acima. Então é mais fácil se usar o teorema
de Bayes.
1.8.3 – Eventos Independentes.
Dois eventos A e B de uma experiência aleatória são
ditos estatisticamente independentes quando a ocorrência de
um não afeta a ocorrência do outro e isso leva à seguinte
relação: p(AB) = p(A∩B) = p(A) p(B).
Isto também implica que: p(A|B) = p(A) e p(B|A) = p(B)
Por outro lado sabe-se que se dois eventos são mutuamente
exclusivos, isto é, A∩B = φ, então p(AB) = p(A∩B) = 0.
Logo, numa experiência aleatória simples se A e B são
mutuamente exclusivos, eles não podem ser independentes e
vice-versa.
Não se deve confundir eventos mutuamente exclusivos com
eventos independentes em experiências aleatórias
compostas.
54
Exemplo 19: Lança-se um dado não tendencioso duas vezes
(duas realizações da mesma experiência aleatória).
Dados os eventos:
A = {sair número menor que 3 no 1o lance}
B = {sair um número maior que 4 no 2o lance}.
Calcule p(AB)
É claro que se pensarmos nos conjuntos A e B
desassociados dos lances do dado, vemos que A∩B = φ.
Dessa forma poderíamos pensar que p(AB) = 0. Isso seria
verdade se fosse no mesmo lance. Como são em lances
diferentes, os conjuntos são independentes e p(AB) ≠ 0.
Podemos generalizar a independência para diversos
eventos:
Se A, B, C, ... são independentes, então:
p(ABC...) = p(A) p(B) p(C) ...
ou ainda: p(A|BCD...) = p(A) p(B|ACD...) = p(B), etc.
55
2. Variável Aleatória (v.a.)
2.1 Definição
Nem sempre o espaço amostra S é numérico. Então
associam-se números aos elementos de S por uma relação X
qualquer biunívoca. Logo, tem-se a seguinte definição para
variável aleatória:
É a transformação do espaço amostral não numérico ou
mesmo numérico em um espaço amostral numérico através
de uma transformação qualquer que leva um evento
elementar de S a somente um evento elementar do novo
espaço amostral X. Os eventos de S e os correspondentes
de X (variável aleatória) obtidos pela função biunívoca são
chamados de eventos equivalentes. Eventos equivalentes têm
iguais probabilidades. O espaço amostra da variável
aleatória tem como notação RX. Obtém-se então através
dos eventos equivalentes a probabilidade de cada evento de X
56
e cuja notação é p(X=x) ou P(X=x) ou Prob(X=x),
significando a probabilidade da variável aleatória X ser igual
e um valor numérico específico x.
Exemplo:
Lançamento de uma moeda não tendenciosa:
S = (Cara, Coroa)
S
RX
A
B
Figura 2.1 Transformação do espaço amostra S em um novo espaço amostra da variável X, chamada de variável aleatória. O evento A de S é equivalente ao evento B de X. Nesse caso, Prob(B) = Prob(A).
57
Faz-se, por exemplo, x = 0 para Cara e
x = 1 para Coroa
Logo, temos os seguintes eventos equivalentes:
{sair cara} ≈ {x = 0} {sair coroa} ≈ {x = 1}
e dessa forma, temos:
p(sair cara) = p(X = 0) p(sair coroa) = p(X = 1)
{ }0,1 R x = ( )2
1 0 x p == ( )
2
1 1 x p ==
Quando o espaço S é numérico, a v.a. vem da própria
experiência aleatória original.
Exemplo: Experiência aleatória = lançamento de um
dado não tendencioso. Logo, S = {1, 2, 3, 4, 5, 6}
Fazendo-se os eventos elementares de X equivalentes aos
eventos elementares de S, tem-se:
Rx = {1, 2, 3, 4, 5, 6}
1p(X i) i 1 , 2, , 66
= = = L
No exemplo acima do lançamento de um dado,
poderíamos definir outro relacionamento entre os eventos
elementares de S e os de X como por exemplo, definir os
58
eventos elementares de X como sendo obtidos pela
exponencial dos valores de S. Porém nesse caso,
descaracterizaríamos a experiência aleatória do lançamento
de um dado como sendo a variável aleatória. Ou seja,
teríamos outra v.a.
Neste ponto para ser matematicamente mais preciso
seria necessário definir o espaço de Borel. Essa necessidade
vem do fato que: tendo-se um espaço amostra pertencente aos
reais e a esse conjunto atribuiu-se uma medida de
probabilidade então, todas as operações com conjuntos de
eventos também terão uma medida de probabilidade? O
conjunto de Borel e a medida de Borel (medida associada aos
elementos do conjunto de Borel) mostram que a medida de
probabilidade que satisfaz aos axiomas da probabilidade
definidos anteriormente, garantem a atribuição de
probabilidades aos eventos obtidos por quaisquer operações
com conjuntos.
59
2.2 Variáveis aleatórias discretas:
Tem-se um espaço amostra X discreto, podendo ter um
número finito ou infinito de eventos elementares e com uma
função de probabilidade p(x)
pX(x) = Prob(X=x) = p(x) ( ) i 1, xp i
i ∀=∑
Seguem-se as definições de algumas variáveis aleatórias
discretas com seus espaços amostras e suas respectivas
funções de probabilidade.
p(x0) δ(x- x0)
x0
p(x)
p(x1) δ(x- x1)
p(xk) δ(x-xk)
0 x1 xk
. . .
x
60
2.2.1 Distribuição Uniforme Discreta de parâmetro N
A variável aleatória que após a realização da experiência
aleatória pode assumir um entre N valores é dita uniforme
quando todos os valores são equiprováveis. Nesse caso sua
função de probabilidade é dada por:
1p(X k) k 1,2,...N
N= = = X={1, 2, 3, ... N}
Exemplo: X uniforme para o espaço amostra X={-2, -1,
0, 1, 2}
2.2.2 Distribuição de Bernoulli
Seja um evento A qualquer de uma experiência
aleatória. A variável aleatória assume o valor 1 caso o evento
0,2 δ(x+2) 0,2 δ(x+1) 0,2 δ(x) 0,2 δ(x-1) 0,2 δ(x-2)
-2 -1 0 1 2 x
p(X)
61
ocorra, ou seja, caso haja sucesso; e a variável aleatória
assume o valor 0 caso haja fracasso. A probabilidade do
evento A ocorrer é p e de não ocorrer é 1-p = q. A essa
variável aleatória denomina-se de distribuição de Bernoulli.
X = {0 , 1} p(X=1) = p p(X=0) = q
0 1 x
q δ(x) p δ(x-1)
62
2.2.3 Distribuição Binomial de parâmetros N e p
Seja uma experiência aleatória com espaço amostra S
e um evento A de S. Considere N repetições dessa
experiência onde p(A) = p permanece constante durante as
N repetições. Define-se a v.a. X como o “número (k) de
vezes que A ocorre nas N repetições”. Diz-se que X tem
distribuição Binomial com parâmetros N, p e com função
de probabilidade dada por:
k-NkkN p)-(1 p C k)p(X == para k = 0, 1, 2, ...,N
Espaço amostra: X = {0,1…,N}
A distribuição Binomial é a repetição N vezes da
distribuição de Bernoulli, onde a cada sucesso do evento A,
conta-se 1 ponto e quando houver fracasso, não se conta
ponto (0 pontos).
Exemplo: Tem-se uma moeda viciada de tal forma que
Prob(cara) = 1/3 e Prob(coroa) = 2/3. Lançando-se essa
63
moeda 10 vezes, qual a probabilidade de sair somente 3 caras
nos 10 lançamentos? Resposta: 3 10 3
310
1 2C
3 3
−
Cálculo da probabilidade p(X=k):
Tem-se uma experiência aleatória e um evento A dessa
experiência, com probabilidade p(A) = p. Repete-se N vezes
a experiência e p(A) permanece constante nas N repetições.
Qual a probabilidade de A ocorrer k vezes, sendo 1 ≤ k ≤ N
?
O evento A pode ocorrer nas k primeiras vezes e nas
demais vezes, não ocorrer. Também pode ocorrer na 1a vez,
não ocorrer na 2a vez e ocorrer nas k-1 vezes posteriores e
enfim, por diversas outras possibilidades, desde que o total de
vezes que A ocorra seja igual a k. Temos então a seguir uma
das maneiras de A ocorrer: A...A...A A...A...A−
1424314243k vezes N k vezes
64
A probabilidade desse agrupamento é dada por:
pk (1-p)N-k
As demais maneiras de ocorrência são permutações do
grupamento acima, logo o número total de vezes em que A
ocorre é dado por: k, N-kNPR , que nesse caso particular é dado
por: k N-kN NC C= . Então a probabilidade de A ocorrer k vezes
num total de N vezes (0 ≤ k ≤ N), é dada por:
P(A) p onde p)-(1p C k)P(X k-NkkN ===
A distribuição é chamada de Binomial pois vem do binômio
de Newton: N
N k k N kN
k 0(a b) C a b −
=+ =∑
No caso temos p, a probabilidade do evento A ocorrer e a
probabilidade de A não ocorrer é (1-p). É claro que
65
p + (1-p) = 1 Normalmente faz-se q = (1-p) por
simplificação, isto é, p(Ā) = 1-p = q Então:
N
N k k N kN
k 0(p 1 p) 1 C p (1 p) −
=+ − = = −∑
Gráfico da distribuição Binomial de parâmetros N e p:
p(x) = Prob(X=k) k = 0,1, 2, … N
Exemplos de gráficos da distribuição Binomial:
66
a) N=10 p=0,1
b) N=50 e p=0,5
0 1 2 3 4 5 6 7 8 9 10 0 0.05
0.1 0.15
0.2 0.25
0.3 0.35
0.4
0 5 10 15 20 25 30 35 40 45 50 0
0.02
0.04 0.06
0.08
0.1
0.12
0 5 10 15 20 25 30 35 40 45 50 0
0.02
0.04
0.06
0.08
0.1
0.12 Gráfico idêntico ao anterior colocado como função contínua
67
c) N=50 e p=0,8
d) N=50 e p=0,05
0 5 10 15 20 25 30 35 40 45 50 0 0.05
0.1 0.15
0.2
0.25 0.3
0.35
0 5 10 15 20 25 30 35 40 45 50 0 0.02 0.04 0.06 0.08
0.1 0.12 0.14
68
2.2.4 Distribuição de Poisson de parâmetro λ
A v.a. tem distribuição de Poisson quando sua função de
probabilidade é dada por
k -
p(X k) k
e λλ= =
! k=0,1…∞
Espaço amostra: X = {0,1…∞} = {inteiros ≥ 0 }
O parâmetro λ define o número médio de eventos
que acontecem por unidade de tempo, como por exemplo: o
número médio de partículas elétricas que são emitidas por
uma substância radioativa; o número médio de chamadas
para uma central telefônica, etc. Todos esses fenômenos e
diversos outros, podem ser modelados por uma distribuição
de Poisson.
Exemplos de gráficos da distribuição de Poisson:
69
a) λ = 0,5
b) λ =20
0 5 10 15 20 25 30 35 40 45 50 0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0 5 10 15 20 25 30 35 40 45 50 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7
0 5 10 15 20 25 30 35 40 45 50 0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
70
c) λ =10
2.2.5 Distribuição de Poisson como limite da Binomial:
quando N→∞ e p → 0
Vantagem: é mais fácil calcular os valores de Poisson do que
os da Binomial com N muito grande pois esta envolve o
0 5 10 15 20 25 30 35 40 45 50 0 0.02 0.04 0.06 0.08
0.1 0.12 0.14
0 5 10 15 20 25 30 35 40 45 50 0 0.02 0.04 0.06 0.08
0.1 0.12 0.14
71
cálculo de fatoriais. Em alguns casos, como será visto
adiante, a Binomial pode também ser aproximada por uma
distribuição contínua, chamada de Gaussiana.
Mostração:
Na distribuição Binomial temos:
k k N-kNkp(X k) p = C p (1-p)= =
o termo anterior é: k-1 k-1 N-k+1Nk-1p = C p (1-p)
Dividindo-se um termo pelo outro, tem-se:
k N k
kk 1 N k 1k 1
N! p qp (N k)! k! p N! p q(N k 1)! (k-1)!
−
− − +−
−=
− +
Simplificando-se chega-se a k k-1(N-k+1) pp = pqk
72
Façamos λ = N p e tal que N → ∞ e p → 0
de modo que a indeterminação dada por N. p (∞ . 0 = ∞∞ )
leva a um valor de λ finito.
Substituindo-se N p = λ, obtem-se:
k k-1 k-1
( - k + )(N p - k p+p) N Np = p pk (1-p) k (1 - )
N
λ λλ= λ
k k-1N
( - k + )N Np = lim p
k (1 - )N
→∞
λ λλλ ⇒
k k-1 p = p
k λ
Para o termo k = 0, temos: 0 0 NN0p = C p (1-p)
N N0N N N
-λλlim p = lim (1-p) = lim (1- ) = eN→∞ →∞ →∞
73
Logo, 1 0p = p1
λ
2 1p = p2
λ
3 2p = p3
λ multiplicando-se
. membro a membro
.
. obtém-se:
k k-1p = pk
λ
k
k 0
λp = p
k!
Logo: k
-λk
λp = e
k! que é distribuição de Poisson
Exemplos dos gráficos da Binomial e da Poisson:
74
a) Binomial com N=10000 p= 0.003:
Poisson com λ = N.p = 30:
A seguir, programa em Matlab para cálculo da distribuição
Binomial feito de duas maneiras.
clear all; close all;
x=0.0:1.0:30; y=BINOPDF(x,10000,0.003); soma=0.0;
for i=1:31 soma=soma+y(i); end;
figure plot(x,y); figure stem(x,y);
soma somadireta=0.997^10000; fato=1.;
for k=1:30
0 10 20 30 40 50 60 70 80 90 1000
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0 10 20 30 40 50 60 70 80 90 100 0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08
75
fato=fato*(10000-k+1)/k;
termo=(fato*0.003^k)*0.997^(10000-k);
somadireta=somadireta+termo;
end;
somadireta
Gráfico obtido do Matlab:
Valores obtidos: soma = 0,5484 somadireta = 0,5484
2.2.6 Distribuição Geométrica com parâmetro p
0 5 10 15 20 25 30 0
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
76
Seja uma experiência aleatória com espaço amostra S e um
evento A de S. Considere N repetições dessa experiência
onde p(A) = p permanece constante durante as N repetições.
Define-se a v.a. X como o “número de repetições necessárias
até que o evento A ocorra”. Diz-se que X tem distribuição
Geométrica com parâmetro p e com função de
probabilidade dada por: P(X=k) = p (1-p)k-1 = p qk-1 onde
q = 1- p Espaço amostra: X = {1,2,…∞} = {inteiros ≥ 1}
Exemplo p = 0,1
A distribuição geométrica é chamada de distribuição sem
memória, pois
Prob(X > s+t / X > s) = Prob(X > t)
0 10 20 30 40 50 60 70 80 90 100 0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.1
77
onde s e t são inteiros
Mostração:
P{X > s+t e X > s} P{X > s+t }P{X > s+t / X > s} =
P{X > s} P{X > s}=
s+tk-1
tk=s+t+1s
k-1
k=s+1
qp q
1-q = = q
qp q
1-q
∞
∞=∑
∑
Porém t
k-1 t
k=t+1
qp q p = q = p{X > t}
1-q
∞
=∑
Logo P{X > s+t / X > s} = P{X > t}
2.2.7 Distribuição de Pascal com parâmetros p, r e k
Seja uma experiência aleatória com espaço amostra S e um
evento A de S. Considere repetições dessa experiência
78
onde p(A) = p permanece constante durante essas repetições.
Define-se a v.a. X como o “número k de repetições
necessárias até que o evento A ocorra r vezes”. Diz-se que
X tem distribuição de Pascal com parâmetros p, r, e k
sendo sua função de probabilidade dada por:
r-kr1-r1-k p)-(1 p C k)P(X == k ≥ r
Essa distribuição é uma de generalização da distribuição
geométrica. Exemplos de possibilidade de acontecer o
evento A ocorrer em r vezes:
Espaço amostra: X = {r, r+1, r+2,…∞}
++...+ , -++...+, +-++...+, ... ++-++...+, ... etc r vezes r vezes r-1 vezes r-2 vezes k = r k = r + 1 k = r + 1 k = r + 2
79
Exemplos de gráficos da distribuição de Pascal: p = 0,2 ; 0,5
e com r = 10.
80
2.2.8 Distribuição Hipergeométrica com parâmetros r, N e
n.
Tem-se um espaço amostra com N elementos e um
conjunto A desse espaço amostra com r elementos sendo
então, N-r elementos de característica A . A variável
aleatória tem distribuição hipergeométrica quando
escolhemos k elementos do conjunto A e n-k elementos
do conjunto A , perfazendo um total de n elementos
retirados. Desejamos obter a probabilidade desse evento. A
distribuição hipergeométrica tem como função de
probabilidade a seguinte expressão:
nN
k-nr-N
kr
C
C.C k)P(X ==
Espaço amostra: X = {0,1,2,…t}
81
t = r se n ronde
t = n se n r
≥ ≤
Exemplo de aplicação da distribuição hipergeométrica:
Um grupo de pessoas é formado por 6 mulheres e 4
homens. Deseja-se formar comissões de 5 pessoas. Qual a
probabilidade de que estas comissões sejam formadas por 3
mulheres e dois homens ? (Independentemente de quem
sejam as pessoas e que ordem elas sejam escolhidas, ou seja,
está se supondo que as comissões só dependam de quem
foram os escolhidos).
Neste exemplo vamos supor que todas as comissões
possíveis de serem formadas são equiprováveis. Temos que:
82
r = 6 N = 10 n = 5 Dessa forma, k pode variar de k =
0 até k = 5. No caso queremos k = 3, logo calculamos a
probabilidade por:
3 26 4
510
C CProb =
C
2.2.9 Distribuição Binomial como limite da
Hipergeométrica:
quando N→∞ e r → ∞
Da hipergeométrica temos: k n-k
r N-rnkN
C C p(X k) p =
C= =
Dividindo-se dois termos consecutivos, obtemos:
83
k
k-1
p = = p
k n-kr N-r
n k n-krN N-r
k-1 n-k+1 k-1 n-k+1r rN-r N-r
nN
C C C C C
C C C C
C
=
(N r)!r!
k! r k ! (n k)! N r n k !
(N r)!r! (k 1)! r k 1 ! (n k 1)! N r n k 1 !
−− − − − +
−− − + − + − − + −
=
ou seja k
k-1
p r-k+1 n-k+1 p k (N-r-n+k) =
Façamos p = r / N, onde N→∞ e r → ∞ de modo que a
indeterminação r / N leva a um valor de p finito. Então,
k
k-1N
p N p - k + 1 n - k + 1
p k (N - N p - n + k)lim →∞
=
Obtemos então a seguinte expressão após o cálculo do limite:
84
k
k-1
p p n-k+1
p (1-p)k =
ou seja, k k-1
p n-k+1p p
(1-p) k =
Coloquemos os termos pk em função dos pk-1 desde k = 1
até k = k, e a seguir multipliquemos membro a membro as k
equações obtidas.
Logo, 1 0
n pp = p
1 q
2 1
n-1 pp = p
2 q multiplicando-se
3 2
n-2 pp = p
3 q membro a membro
. obtém-se:
85
. k
k 0k
n(n-1)...(n-k+1) pp = p
k! q
k k-1
n-k+1 pp = p
k q
Cálculo de p0 : O valor de p0 ocorre quando escolhemos
todos os n elementos com característica Ā . Como r → ∞ e
N→∞, N-r também tende para infinito tornando o espaço
amostra N-r infinito e contável, pois estamos retirando
valores discretos. Dessa forma, para um valor n finito, o
valor de p praticamente não se altera à medida que vamos
retirando n eventos do tipo Ā. Dessa forma, com p
constante, a probabilidade de não se obter nenhum evento do
tipo A, ou seja, todos eventos do tipo Ā, em n realizações
será :
86
p0 = (1-p)n = qn
Então finalmente obtemos:
kn
k k
n(n-1)...(n-k+1) pp = (1-p)
k! q ou ainda
kn k k n-k
k nk
n! pp = (1-p) = C p (1-p)
(n-k)! k! q
que é a expressão da distribuição Binomial.
Exemplo: Cálculo da Hipergeométrica com
r = 5000, N = 10050 e n=100:
O cálculo direto usando a função HYGEPDF do Matlab
resulta no seguinte gráfico:
87
O cálculo usando a função BINOPDF do Matlab resulta no
seguinte gráfico:
2.2.9 Distribuição Multinomial
Seja uma experiência onde o espaço amostra X é constituído
dos eventos X1, X2, X3, ... , Xk. Todos esses eventos são
disjuntos e formam uma partição do espaço amostra.
Suponha que a experiência aleatória é repetida N vezes.
A distribuição da variável aleatória “número de vezes que X1
ocorreu nas N repetições conjuntamente com o número de
88
vezes que X2 ocorreu nas N repetições e o número de vezes
que X3 ocorreu nas N repetições e etc, até o número de vezes
que Xk ocorreu nas N repetições” tem distribuição
multinomial.
A variável aleatória X multinomial tem função de
probabilidade dada por:
1 2 kn n n1 1 2 2 k k 1 2 k
1 2 k
N!p(X n , X n ,...X n ) p p ...p
n !n !...n != = = =
Um possível agrupamento seria como mostrado na figura
abaixo:
onde k k
i ii 1 i 1
n N e p 1= =
= =∑ ∑
pi = Prob{X = xi} = constante nas N repetições da
experiência aleatória. Essa variável aleatória pode ser vista
como uma v.a. k - dimensional.
X1 X1 ... X1 X2 X2 ... X2 . . . Xk Xk ...Xk n1 vezes n2 vezes nk vezes
89
2.2.10 Distribuição Binomial Negativa de parâmetros
k, r e p
Seja uma experiência aleatória com espaço amostra S
e um evento A de S. Considere N repetições dessa
experiência onde p(A) = p permanece constante durante as
N repetições. Define-se a v.a. X como o “número de vezes k
que A ocorre (número de sucessos de A) nas N repetições,
antes de ocorrer r falhas de A”. Diz-se que X tem
distribuição Binomial Negativa com parâmetros k, r e
p (onde N = k + r) e com função de probabilidade
dada por: k k rk+r-1p(X k) C p (1-p)= =
para k = 1, 2, ... N-r r = 1, 2, 3, ... e com N = k+r >
0
Espaço amostra: X = {1, 2, 3, … }
Cálculo da probabilidade p(X=k):
90
Tem-se uma experiência aleatória e um evento A dessa
experiência, com probabilidade p(A) = p. Repete-se N vezes
a experiência e p(A) permanece constante nas N repetições.
Qual a probabilidade de ocorrerem k sucessos de A, antes
da ocorrerência r falhas de A ?
O evento A pode ocorrer nas k primeiras vezes e não
ocorrer nas r demais vezes . Também pode ocorrer na 1a
vez, não ocorrer na 2a vez e ocorrer nas k-1 vezes posteriores
seguido de r-1 falhas e enfim, por diversas outras
possibilidades, desde que o total de vezes seja igual a k + r.
Temos então algumas maneiras de ocorrência:
1
A...A...A A...A...A A...A...A AAA...A...A
A...A...AAAA...A...AAA
−
+
1424314243 142431442443
14444244443
k vezes r vezes k vezes r vezes A
k r vezes
ou ou
91
Pode ocorrer qualquer agrupamento contendo o
aparecimento de A em k posições e A aparecendo r vezes,
sendo necessariamente que na última posição de qualquer
agrupamento tem que aparecer A , pois seria a última falha
após os k sucessos de A.
A probabilidade de qualquer desses agrupamentos é dada
por: pk (1-p)r
As ocorrências são permutações de qualquer
agrupamento acima, sendo que o último não pode ser
permutado, ou seja, tem que permanecer A . Logo o número
total de vezes em que isso ocorre é dado por: k, r-1k+r-1PR , que
nesse caso particular é dado por: k k r-1 r-1k+r-1 N-1 k+r-1 N-1C C C C= = = .
Então a probabilidade de A ocorrer k vezes, A ocorrer r-1
vezes e de A ocorrer na última posição, é dada por:
k k rk+r-1P(X k) C p (1-p) onde p P(A)= = =
ou pode ser escrita semelhante a distribuição binomial:
k k N-kN-1P(X k) C p (1-p) onde N k r= = = +
92
Exemplo: Façamos k variar de 0 a 100, com r = 3 e p = 0.9
Usando o Matlab podemos fazer os gráficos da função densidade de probabilidade e da função acumulada dessa distribuição. Para tal usamos o seguinte programa:
x=(0:100); y=nbinpdf(x,3,0.1); figure; stem(x,y); figure; z=nbincdf(x,3,0.1); stem(x,z) Note que no matlab usamos como parâmetro, o valor de q = 0,1 = 1 – p
93
2.3 Variáveis aleatórias contínuas:
Neste caso não tem sentido em se falar em probabilidade
de um único valor, pois,
número de casos favoráveis 1P(X um valor qualquer ) 0
número de casos possíveis= = = →
∞
Existe então uma função fX(x) chamada de função
densidade de probabilidade tal que:
b
Xa
P(a X b) f (x) dx< ≤ = ∫
Restrição sobre fX(x):
fX(x) negativa em (a,b)
94
fX(x) não pode ter valores negativos, pois senão aconteceria
XP(a X b) f (x)dx
b
a< ≤ = ∫ < 0 o que não faz sentido.
Além disso, essa função deve satisfazer a seguinte relação:
Xf (x) dx 1 100%∞
−∞= =∫
A função densidade de probabilidade dá a medida de
chance de um determinado evento por unidade do que se está
avaliando. Como exemplo, suponhamos que temos um sinal
de tensão elétrica, o qual não podemos expressar a sua forma
de onda através de uma fórmula fechada. Por exemplo, no
f(x)
0 x
f(x) ≥ 0 x ε IR
95
gráfico a seguir temos uma forma de onda que não tem uma
expressão fechada de sua variação ao londo do tempo, é um
sinal aleatório.
Podemos expressar a sua função “chance de eventos por
unidade de Volts”, ou seja, a probabilidade da tensão em
qualquer instante de tempo estar entre dois níveis quaisquer
de voltagem especificados. A sua função densidade de
96
probabilidade, a qual está desenhada sobre o histograma do
sinal, é mostrada a seguir.
Seguem-se as definições de algumas variáveis aleatórias
contínuas com seus espaços amostras e as respectivas
funções densidade de probabilidade:
97
2.3.1 Distribuição Uniforme com parâmetros a, b
A v.a. tem distribuição de Uniforme quando sua função
densidade de probabilidade é constante no intervalo onde é
definida essa variável aleatória e é dada por
fX(x) = c onde c = 1 / (b-a) b > a e
c é a constante que vale o inverso do “tamanho” do
intervalo.
Diz-se que X é uniformemente distribuída no intervalo (a,b).
X
1 X (a,b)
(b-a)f (x) =
0 X (a,b)
∈ ∉
f(x) c x 0 a b
98
É uma distribuição similar a: No. casos favoraveisNo. casos possíveis
pois a Prob(c < X < d) =
d
c
(d-c)1 Tamanho do intervalo de c até d dx =(b-a)b-a Tamanho total do intervalo = b-a
=∫
Aplicações da distribuição uniforme:
• Seja a experiência que consiste na escolha aleatória de
um número num dado intervalo (a,b). A distribuição de
probabilidade da variável aleatória X = {número
escolhido no intervalo dado} tem distribuição uniforme
nesse intervalo.
• Constantemente processamos sinais que são analógicos,
como sinais digitais. Para isso necessitamos converter o
sinal analógico em digital passando-o através de um
conversor analógico digital (conversor A/D). O período
de amostragem deve satisfazer à taxa de Nyquist do
99
sinal. Caso o número de níveis significativos (número
de níveis quantizados da amplitude) em que esse sinal é
transformado for maior que um dado valor
(normalmente 64 níveis, ou seja, 6 bits), então a
variação do sinal analógico entre dois níveis de
quantização consecutivos obedece a uma distribuição
uniforme, conforme mostrado na figura a seguir.
Volts
n∆ (n+1)∆
Prob./ Volts
1/∆
Figura da Prob da variação da tensão entre dois intervalos consecutivos; n=0, 1, 2, etc.
100
2.3.2 Distribuição Gaussiana ou Normal
com parâmetros m e σ2
A v.a. tem distribuição de Gaussiana ou Normal quando sua
função densidade de probabilidade é dada por:
22
(x-m)-2σ
X1f (x) = e
σ 2π x ε IR onde 2σ= σ
A distribuição Normal tem uma importância fundamental em diversas áreas da ciência, ou seja, muitos fenômenos físicos são modelados como distribuição Normal. Isso se deve na maioria dos casos à propriedade da normalidade da soma de um número grande de variáveis aleatórias independentes, conforme será visto mais adiante através do teorema do limite central.
101
Exemplos a) m = 50 σ2 = 9
b) m = 50 σ2 = 100
c) m = 50 σ2 = 225
102
Observações:
1. A distribuição Normal é comumente utilizada entre os
limites da variável X de m - 3σ a m + 3σ onde a
probabilidade entre esses dois limites é de 99,74%.
2. Em alguns casos a variação de X pode exceder esses
limites como é o caso do cálculo da probabilidade de
êrro na transmissão digital de símbolos. No caso
transmissão digital, como a probabilidade de êrro
assume valores da ordem de 10-3 ou inferior, usa-se uma
função específica para se obter a probabilidade desses
valores que é a função erro (erf ) ou então usa-se a
função erro complementar (erfc).
Exercícios de cálculo de probabilidade usando a distribuição
Normal:
A v.a. X1 é normal de média 0 e variância 1, isto é,
N(m = 0, σ2 = 1), calcule:
Prob(0< X1 <1); Prob(0< X1 <2); Prob(0< X1 <3) ;
103
Prob(0< X1 <4) ; Prob(0< X1 <5) ; Prob(-1 < X1 < 0)
;
Prob(-2< X1 <0); Prob(-1< X1 <0); Prob(-2 < X1 < 0) ;
Prob(-2 < X1 < 2) ; Prob(-1 < X1 < 2) ;
2) A v.a. X2 é N(m = 5, σ2 = 16), calcule:
Prob(1 < X2 < 9) ; Prob(1 < X2 < 13) ;
104
2.3.3 Distribuição Normal como limite da Binomial
Na distribuição Binomial (N,p) é possível aproximá-la
pela distribuição Normal quando N → ∞ e p tem um valor
qualquer finito. Nesse caso uma distribuição discreta é
aproximada por uma contínua, ou seja, a distribuição
Binomial fica muito densa e a probabilidade da variável
Binomial estar entre dois inteiros é aproximadamente igual a
105
probabilidade da Normal ficar no intervalo contínuo desses
mesmos inteiros.
O procedimento é fazer a média e a variância da distribuição
Normal iguais à média e variância da distribuição Binomial,
106
ou seja, a média e a variância da Binomial é obtida da
seguinte maneira:
m = N.p σ2 = N.p.(1-p) = N.p.q
Exemplo: A v.a. X é Binomial (N=1000, p=0,2) calcule a
probabilidade 0 ≤ X ≤ 188.
Cáculo direto :
188k k 1000 k1000
k=0Prob(0 X 188) = C 0,2 0,8 −≤ ≤ =∑ 0,1820
Cálculo pela Normal: X2 ≈ X1 X2 = N(m=200, σ2=160)
Prob(-0,5 ≤ X1 ≤ 188,5) = Prob(-15,85≤ X2 ≤ - 0,909155)
onde X2 é N(0,1) → Prob(X2 ≤ - 0,90) = 0,1841 e
Prob(X2 ≤ - 0,91) = 0,1814 logo
Prob(-15,81≤X2≤-0,909155) ≈ Prob(X2≤-0,909155) = 0,1816 (valor obtido pela interpolação entre 0,1841 e 0,1816
Erro encontrado usando a Normal = 0.0004 ou seja, de 0.22%
107
A seguir são mostrados os gráficos das distribuições
Binomial e Normal do exemplo.
108
109
A seguir o programa em Matlab para fazer estes cálculos
assim como o gráfico da Binomial.
clear all;
close all;
% Cálculo usando a distribuição de probabilidade do Matlab
x=0.0:1.0:188;
y=BINOPDF(x,1000,0.2);
soma=0.0;
for i=1:189
soma=soma+y(i);
end;
figure
plot(x,y);
figure
stem(x,y);
soma
% Cálculo da prob. usando fatoriais
somadireta=0.0;
110
fatorial=1.
for k=1:188
fatorial=fatorial*(1000-k+1)/k;
termo=(fatorial*0.2^k)*0.8^(1000-k);
somadireta=somadireta+termo;
end;
somadireta
Resultado: soma = somadireta = 0,1820
0 20 40 60 80 100 120 140 160 180 2000
0.005
0.01
0.015
0.02
0.025
111
2.3.4 Distribuição Exponencial com parâmetro a
A v.a. tem distribuição de Exponencial quando sua
função densidade de probabilidade é dada por
X-axf (x)=a com x >0 e a >0e
ou como aparece em alguns livros:
xb
Xef (x) com x 0 e b 0b
−= > >
A distribuição Exponencial é chamada distribuição contínua
sem memória, pois
Prob(X> s+t | X> s) = Prob(X> t)
onde s e t são reais quaisquer
112
2.3.5 Distribuição Gama com parâmetros a, p
Função Gama:
A integral p p 1 a.x p 1 x
0 0(p) a x e dx x e dx
∞ ∞− − − −Γ = =∫ ∫
é conhecida como função Gama. O gráfico de Γ(p) é mostrado a seguir:
Propriedades de Γ(p): 1. Γ(p) converge para p > 0. 2. Γ(1) =1 3. Γ(p+1) = p Γ(p) 4. Se p é inteiro, então: Γ(p) = (p-1)!
-5 -4 -3 -2 -1 0 1 2 3 4 5 -15
-10
-5
0
5
10
15
20
25
Γ(p)
p
113
5. Da relação Γ(p) = Γ(p+1) / p , extende-se o conceito para p < 0 e obtém-se o gráfico acima para p < 0.
6. 1
( )2
Γ = π
7. Se n é inteiro: n1.3.5...(2n 1)1(n )
2 2−Γ + = π
8. Se n é inteiro e par: n / 2
1.3.5...(n 1)n 1( )2 2
−+Γ = π
A variável aleatória X tem distribuição Gama (a,p) se sua função densidade de probabilidade é dada por:
pp 1 a.x
Xaf (x) x e x > 0(p)
− −=Γ
onde a e p são parâmetros da distribuição e Γ(p) é a função Gama.
114
2.3.6 Distribuição Qui-quadrado - χ2 com parâmetro n
É um caso particular da distribuição Gama quando a = 1 / 2 e p = n/2, sendo n um inteiro. A função densidade é dada por
n x12 2
X n2
1f (x) x e x > 0n2 ( )2
− −=
Γ
O índice n da χ2 é conhecido como grau de liberdade.
Gráfico da χ2:
0 1 2 3 4 5 6 7 8 9 100
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
0 1 2 3 4 5 6 7 8 9 10 0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
n=2
n=3
n=4
n=5 n=10
n ? ? : Normal n →∞ χ2 →Normal
115
Mais geral ainda, a distribuição χ2 tem a seguinte
função densidade de probabilidade:
2xn 1
22X n
n2
1f (x) x e x 0 e 0n2 ( )2
−− σ= > σ >Γ σ
onde n é inteiro. Observações:
1. Quando σ = 1, obtém-se a distribuição anterior que é conhecida realmente como distribuição χ2.
2. Se Y tem distribuição Normal (m=0; σ2 ) e, sendo X = Y2 então, a variável aleatória X terá distribuição χ2 com 1 grau de liberdade, isto é, n = 1.
3. A distribuição χ2 é usada em estatística quando se deseja obter intervalos de confiança para a razão entre a variância verdadeira amostral S2 de tamanho n e a variância da população σ2, ou seja,
2
2(n 1)S 2
n 1− →σ −χ (qui-quadrado com n-1 graus de
liberdade)
116
2.3.7 Distribuição Qui - χ com parâmetros σ, n Se uma variável aleatória X tem distribuição χ2 e se
fizermos X
Yn
= então a variável aleatória Y terá
distribuição χ A função densidade de probabilidade da distribuição χ é dada por:
2
2
n
2n y
n 1 2Y
n
n2
2f (y) y e y 0 e 0
n( )2
−− σ
= > σ >Γ σ
onde n é inteiro. 2.3.8 Distribuição de Student com parâmetro n (n graus de liberdade)
A variável aleatória X tem distribuição T de Student com n graus de liberdade, quando sua função densidade de probabilidade é dada por:
117
n 12 2
X
n 11 x2
f (x) 1 xn 2n2
+ −
+ Γ = + ∈ π Γ
�
Quando n → ∞ a distribuição de Student tende para a Normal(0;1). O gráfico da distribuição de Student é: Observações:
1. Essa distribuição de probabilidade foi descoberta por William Sealey Gosset usando o pseudônimo de “ Student of Statistics”.
-4 -3 -2 -1 0 1 2 3 4 0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
n = 1
n = 2
n = 100 Normal(0;1)
118
2. A distribuição T de Student é usada em estatística quando se deseja obter intervalos de confiança para a razão entre a média amostral de uma variável aleatória e sua variância verdadeira amostral.
2.3.9 Distribuição F de Snedecor com parâmetros m, n
A variável aleatória X tem distribuição F de Snedecor com m graus de liberdade no numerador e n graus de liberdade no denominador, quando sua função densidade de probabilidade é dada por:
mm 1
22
X m n
2
m nm x2
f (x) x 0m n n
m2 2 1 xn
−
+
+ Γ = > Γ Γ +
Obs.: A distribuição F de Snedecor é muito usada em estatística quando se deseja obter intervalos de confiança para a razão entre as variâncias amostrais de duas amostras independentes de uma mesma variável aleatória.
119
2.3.10 Distribuição de Cauchy ou distribuição de
Lorentzian com parâmetros α, β
A variável aleatória X tem distribuição de Cauchy com parâmetros α, β se sua função densidade de probabilidade é dada por:
120
X 2
1f (x) x 0 x1
= ∈ β > α∈−απ β +β
� �
A distribuição T de Student coincide com a distribuição de Cauchy, quando se coloca n = 1 na de Student e se coloca α = 0 com β = 1, na distribuição de Cauchy. 2.3.11 Distribuição de Rayleigh com parâmetro α
A variável aleatória X tem distribuição de Rayleigh se sua função densidade de probabilidade é dada por:
2
2
x
2X 2
xf (x) e x 0 e 0
−α= > α >
α
Na distribuição χ quando n = 2 e σ = α 2 , temos a distribuição de Rayleigh. A figura a seguir mostra o gráfico da distribuição de Rayleigh com α = 0,5
121
A distribuição de Rayleigh é muito aplicada em propagação de sinais eletromagnéticos.
Quando um sinal se propaga ele pode produzir um sinal principal, que normalmente é o que se deseja obter, e pode também produzir outros diversos sinais atrasados devido ao fenômeno de multipercurso. Dessa forma, tem-se a soma de um sinal principal e de componentes de multipercurso. A relação entre a potência do sinal principal e a potência devido a multipercursos é chamada de fator de Rician K.
A função densidade de probabilidade da envoltória da combinação dos sinais é conhecida como distribuição de Nakagami-Rice ou por distribuição de Rician e é dada por:
2(1 K)x KX 0f (x) 2 (1 K) x e J 2 x K(K 1) x 0
− + − = + + >
onde cos(u)0
1J ( ) e du
2
+πβ
−π
β =π ∫ é função de Bessel de 1a
espécie de ordem zero.
0 0.5 1 1.5 2 2.5 0
0.2
0.4
0.6
0.8
1
1.2
1.4
122
Quando a componente principal é zero, temos a distribuição de Rayleigh. 2.3.12 Distribuição Beta com parâmetros m, n Função Beta:
A integral 1 m 1 n 10
(m,n) x (1 x) dx− −β = −∫ é conhecida
como função Beta. • É simétrica em relação aos argumentos m e n:
ß(m,n) = ß(n,m) • Fazendo-se a transformação 2x sen ( )= θ tem-se a
integral /2 2m 1 2n 1
0(m,n) 2 (sen ) (cos ) d
π − −β = θ θ θ∫
que é outra definição da função beta • Fazendo-se a transformação 1
1 yx
+= tem-se a integral
n 1
m n0y
(1 y)(m,n) dy
−+
∞
+β = ∫ que é outra definição da
função beta
• Pode-se mostrar que (m) (n)(m,n)(m n)
Γ Γβ =Γ +
onde Γ(r) é
a função gama no ponto r.
123
A variável aleatória X tem distribuição Beta com parâmetros m e n se sua função densidade de probabilidade é dada por:
a 1 b 11f (x) x (1 x) 0 x 1(a,b)
− −= − < <β
a e b são
inteiros positivos Seguem-se alguns gráficos da distribuição beta com: a = 10 e b = 10; a = 10 e b = 5; a = 5 e b = 10.
124
125
2.3.13 Distribuição Log-Normal com parâmetros m, σ2
Se a variável aleatória X tem distribuição N(m,σ2) então a v.a. Y = eX tem distribuição log-normal, ou seja, Ln(Y) tem distribuição N(m,σ2). A função densidade de probabilidade de Y será:
2
2(Ln(y) m)
2 01f (y) e y (0, ) m
y 2+
−−σ σ >= ∈ ∞ ∈
π σ�
A distribuiçaõ lognormal tem aplicabilidade onde existe um fenômeno aleatório o qual é resultante da multiplicação de um grande número de variáveis aleatórias independentes. Nesse caso, conforme será visto mais adiante através do teorema do limite central, a soma dos logaritmos das variáveis tendem a se tornar uma variável aleatória normal. 2.3.14 Distribuição Dupla Exponencial ou Laplace com parâmetros α, β
A variável aleatória X tem distribuição de Laplace com parâmetros α, β se sua função densidade de probabilidade é dada por:
x1f (x) e 0
2
−α−
β= α∈ β>β
�
126
2.3.15 Distribuição Logística com parâmetros α, β
A variável aleatória X tem distribuição de Logística com parâmetros α, β se sua função densidade de probabilidade é dada por:
1f(x) x 0x1 exp
= ∈ α∈ β>−α+ −β
� �
Obs.: A distribuição logistica foi descoberta por Pierre Verhulst para caracterizar o aumento de populações (humanas ou não humanas). 2.3.16 Distribuição de Pareto com parâmetros θ, x0
A variável aleatória X tem distribuição de Pareto com parâmetros θ, x0 se sua função densidade de probabilidade é dada por:
10
0 00
xf (x) x (x , ) 0 x 0x x
θ+θ= ∈ ∞ θ> >
127
2.3.17 Distribuição de Erlang com parâmetros λ e n. A variável aleatória X tem distribuição de Erlang com
parâmetros λ e n se sua função densidade de probabilidade é dada por:
n 1
x 0 e n Nx( x)f (x)(n 1)!
e−≥ ∈−λλ λ=
−
onde N é o conjunto dos números naturais 1, 2, 3 ... Obs.: A distribuição de Erlang é usada em telefonia e define o tempo de espera de n eventos com distribuição de Poisson de parâmetro λ. A distribuição de Erlang é um caso particular da distribuição Gama quando se faz p igual a n, inteiro. 2.3.18 Distribuição de Weibull
A variável aleatória X tem distribuição de Weibull com parâmetros a e b se sua função densidade de probabilidade é dada por:
bb-1 - a x f(x) = a b x e x > 0 a,b > 0
Obs.: A distribuição de Weibull foi estabelecida por Waloddi Weibull, para modelar o tempo de duração de
128
componentes ou máquinas. Com b = 1, essa distribuição se torna a distribuição exponencial. 2.4 Variáveis aleatórias mistas: São aquelas que têm parte discreta e parte contínua como mostrado na figura a seguir. Exemplo de variável aleatória mista: Um sinal aleatório X tem como distribuição de probabilidade da sua excursão de tensão, uma Normal de parâmetros m = 0 e σ = 30 mVolt. Esse sinal passa por um limitador de tensão tal que a saida é
dada por: 1 x 1
y x 1 x 1
1 x 1
− < −= − < < >
f(x)
0 x
x0 x1
p(x0) δ(x-x0) p(x1) δ(x-x1)
a b
1 dx f(x) )p(x )p(x 10 ∫ =++b
a
x y
129
Qual a distribuição da variável aleatória Y ?
2
2
y32
Y1
f (y) e y ( 1 ,1) e onde 30.102
−−σ= ∈ − σ =
π σ
p(Y= - 1) = p(Y= 1) = 0,0039
2.5 Distribuição truncada
A distribuição de uma variável aleatória é dita truncada quando a variável tem uma distribuição de probabilidade expressa por uma dada função densidade de probabilidade, de forma geral, uma distribuição conhecida, porém a variável aleatória só assume a dada distribuição num intervalo. Fora desse intervalo, a variável aleatória é, por exemplo, nula. Exemplo: Para uma disciplina lecionada por um professor ao longo de anos, verificou-se que as notas dos alunos seguem uma distribuição Normal de parâmetros m e σ2
y
-1 0 1
fY(y)
p(Y=1) δ(y-1) p(Y=-1) δ(y+1)
130
iguais respectivamente a 5,0 e 3,0. Escreva a expressão da função densidade de probabilidade dessas notas. Resposta: Obviamente neste caso, a variável aleatória “nota na disciplina” não pode ser maior que 10 e nem menor que zero. Então, seja X a variável aleatória cuja função de distribuição é Normal (m=5; σ2 =3), então da tabela da Normal vemos que a P( 0 ≤ X ≤ 10) ≈ 0,996135 Logo a função densidade da variável aleatória Y Normal (m=5; σ2
=3) válida somente para y ∈ [0 , 10] é igual a de X, normalizada nesse intervalo e é dada por:
2
2
(y 5)
2
Y1 e
f (y) y [0 , 10]0,9961352
−−
σ= ∈
π σ
Gráfico resultante:
0 1 2 3 4 5 6 7 8 9 1 0 0 .02
0 .04
0 .06
0 .08
0 .1
0 .12
0 .14
131
2.6 Variável aleatória de duas ou mais dimensões
2.6.1 Definição:
Seja uma experiência aleatória e S seu espaço amostra.
Sejam as funções X=X(s) e Y=Y(s), cada uma associando
um número real ao resultado s (s ε S). Denomina-se ao
par (X,Y) de uma v.a. bidimensional. Caso tenhamos várias
funções de s, X1(s), X2(s), ... Xn(s), teremos uma v.a. n-
dimensional (X1, X2,...,Xn)
2.6.2 Definição de função de probabilidade bidimensional
discreta (v.a. 2-D discreta):
Sendo (X,Y) uma v.a. discreta, associa-se a cada resultado
(xi,yj) i=1,... j=1,... um número p(xi,yj) para representar a
Prob{X=xi,Y=yj} e satisfazendo a:
1) p(xi, yj) ≥ 0 ∀ (xi,yj)
2)
i j
i j i j
x y
p(x , y ) 1 (x , y )= ∀∑∑
Esta função p(xi,yj) é chamada de função de probabilidade
conjunta de X e Y.
132
Obs.: É comum usar-se pXY(x,y) para se fazer a distinção
entre as respectivas distribuições marginais pX(x) e pY(y).
Exemplo:
pX,Y(x,y) Y\ X 3 4 5
0 1 / 45 2 / 45 3 / 45 1 4 / 45 5 / 45 6 / 45 2 7 / 45 8 / 45 9 / 45
Dada a função de probabilidade conjunta (X,Y) acima,
calcule a) Prob{X≥4 e Y≤1} b) Prob{X>Y+3}
Respostas: a) (2+3+5+6) / 45 b) (2+3+6) / 45
2.6.3 Definição de função densidade de probabilidade
contínua (v.a. 2-D contínua):
Sendo (X,Y) uma v.a. contínua, associa-se uma função f(x,y)
satisfazendo a:
133
1) f(x,y) ≥ 0
2) ∫ ∫ =∞+
∞−
∞+
∞−1 dy dx y)f(x,
Esta função f(x,y) é denominada de função densidade de
probabilidade conjunta de X e Y.
Obs.: É comum usar-se fXY(x,y) para se fazer a distinção
entre as respectivas distribuições marginais fX(x) e fY(y).
Seguem algumas variáveis bidimensionais contínuas:
2.6.4 Variável aleatória uniformemente distribuida em R
f(x,y) = constante = c
f(x,y)
y
x R
c
c = ____1_____ “área de R”
134
2.6.5 Variável aleatória com distribuição Normal
bidimensional (X,Y) sendo X e Y independentes:
onde m1 e m2 são as médias respectivamente de X e de
Y; e sendo 21σ a variância de X e 2
2σ e a de Y.
Mais genericamente uma variável aleatória Normal
bidimensional (X1,X2) com X1 tendo média zero e variância
21σ e X2 também de média zero e variância 2
2σ e com
coeficiente de correlação ρ, tem uma função densidade de
probabilidade conjunta dada pela seguinte expressão:
f(x,y)
y
x
22
212
2)2m-(y21
2)1m-(x22-
21
e2
1y)f(x,
σσ
σσ
σπσ
+
=
135
2 2 2 21 2 2 1 1 2 1 2
1 22 2 22 2 21 21 2
1 2X X 1 2x x 2 x x1 1
exp x , x2 2 (1 )(1 )
0 1 1
f (x ,x )
σ + σ − ρ σ σ− ∈
π σ σ − ρσ σ − ρ
< ρ < ρ ≠ ±
= �
2.6.5.1 Diferentes gráficos das curvas de nível de
1 2X X 1 2f (x ,x ) , isto é, 1 2X X 1 2f (x ,x ) = constante
Exemplo: A função densidade de probabilidade conjunta
(X,Y) é dada pela seguinte espressão:
ρ ≠ 0 x2 inversamente proporcional a x1 ρ ≠ 0 x2 diretamente proporcional a x1
x1
x2
x1
x2
x1
x2
ρ = 0 ; σ1 < σ2
x1
x2
x1
x2
ρ = 0 ; σ1 > σ2 ρ = 0 ; σ1 = σ2
136
2
XY
x.y 1 3 2 2f (x,y) c0 outros valores
x y
≤ ≤ − ≤ ≤=
onde c é uma constante
Calcule Prob{ / 2X Y X X− ≤ ≤ < }
Resposta: Valor de c: 2x y
1c
dx dy ∞ ∞
−∞ −∞=∫ ∫ ∴
64c =
3
2)
Prob( e 2)Prob( / 2) =
Prob(X <
X Y X XX Y X X
− ≤ ≤ <− ≤ ≤ <
y
x
2 0 -2
Y=√X
Y= -√X
137
2
2 2
2
12
1 2
x y
c =
x y
c
dy dx
dy dx
x
x−
−
∫ ∫
∫ ∫
2.7 Variável aleatória de três dimensões
2.7.1 Definição de função de probabilidade tridimensional
discreta (v.a. 3-D discreta):
Sendo (X,Y,Z) uma v.a. discreta, associa-se a cada resultado
(xi,yj,zk) i=1,... j=1,... k=1,... um número positivo p(xi,yj,zk)
para representar a Prob{X=xi,Y=yj,Y=yk} e satisfazendo a:
1) p(xi, yj,zk) ≥ 0 ∀ (xi,yj,yk)
2)
i j k
i j k i j k
x y z
p(x , y , z ) 1 (x , y , z )= ∀∑∑∑
Esta função p(xi, yj,zk) é chamada de função de
probabilidade conjunta de X, Y e Z.
138
Exemplos: Seja (X,Y,Z) uma v.a. tridimensional discreta com função de probabilidade pXYZ(x,y,z): Z=1 Z=2
Y\ X 3 4 5 0 1h 2h 3h 1 4h 5h 6h 2 7h 8h 9h
Z=3
onde h é uma constante e seu valor é: h = 1 / 378
Exemplos. Calcule as probabilidades abaixo para a v.a. acima: Prob( 3 ≤ X ≤ 4 e Y ≥ 1) = (4+5+7+8+13+14+16+17+22+23+25+26) h
Y\ X 3 4 5 0 10h 11h 12h 1 13h 14h 15h 2 16h 17h 18h
Y\ X 3 4 5 0 19h 20h 21h 1 22h 23h 24h 2 25h 26h 27h
139
Prob( 3 ≤ X ≤ 4 , Y ≥ 1 , Z ≤ 2) = (4+5+7+8+13+14+16+17)h
2.7.2 Definição de função densidade de probabilidade
contínua de três dimensões (v.a. 3-D contínua):
Sendo (X,Y,Z) uma v.a. contínua, associa-se uma função
f(x,y,z) satisfazendo a:
1. f(x,y,z) ≥ 0
2. +
- f(x,y,z) dx dy dz 1
+∞ +∞ ∞
−∞ −∞ ∞=∫ ∫ ∫
Esta função f(x,y,z) é denominada de função densidade de
probabilidade conjunta de X , Y e Z.
140
2.8 Distribuições marginais
2.8.1 Definição para a v.a. discreta:
j
X i i jy
p (x ) p(x ,y )=∑
i
Y j i jx
p (y ) p(x ,y )=∑
Exemplo: Dada a distribuição conjunta (X,Y), obter a
distribuição marginal de X e de Y.
pX,Y(x,y) Y\ X 3 4 5
0 1 / 45 2 / 45 3 / 45 1 4 / 45 5 / 45 6 / 45 2 7 / 45 8 / 45 9 / 45
p(X=3) = p(X=3,Y=0) + p(X=3,Y=1)+p(X=3,Y=2) = 12/45
p(X=4) = p(X=4,Y=0) + p(X=4,Y=1)+p(X=4,Y=2) = 15/45
p(X=5) = p(X=5,Y=0) + p(X=5,Y=1)+p(X=5,Y=2) = 18/45
p(Y=0) = p(X=3,Y=0) + p(X=4,Y=0)+p(X=5,Y=0) = 6/45
p(Y=1) = p(X=3,Y=1) + p(X=4,Y=1)+p(X=5,Y=1) = 15/45
p(Y=2) = p(X=3,Y=2) + p(X=4,Y=2)+p(X=5,Y=2) = 24/45
141
É comum se colocar essas probabilidades à margem
(distribuição marginal) da tabela da distribuição conjunta,
resultando a seguinte tabela:
pX,Y(x,y) Y\ X 3 4 5
pY(y)
0 1 / 45 2 / 45 3 / 45 6 / 45 1 4 / 45 5 / 45 6 / 45 15 / 45 2 7 / 45 8 / 45 9 / 45 24 / 45
pX(x) 12 / 45 15 / 45 18 / 45 1
2.8.2 Definição para v.a. contínua:
X XYf (x) f (x,y) dy +∞
−∞
= ∫
Y XYf (y) f (x,y) dx +∞
−∞
= ∫
Exemplo: Dada a função densidade de probabilidade
conjunta de X e Y, obter a densidade de X e a de Y.
142
(2x 3y)XY
f (x,y) 6e x 0 y 0− += > >
Logo, temos:
(2x 3y)X 0
2xf (x) 6e dy 2 e−∞ − += =∫
(2x 3y) 3yY 0
f (y) 6e dx 3e∞ − + −= =∫
2.8.3 Distribuições marginais da variável aleatória de três
dimensões
Nesse caso podemos ter as funções densidades
marginais de X, de Y, de Z, de XY, de XZ e de YZ:
Exemplo: marginal de X
j k
X i i j ky z
,p (x ) p(x y ,z )=∑∑
marginal de XY
k
XY i j i j kz
p (x ,y ) p(x ,y ,z )=∑
143
2.9 Variáveis aleatórias independentes
Duas ou mais variáveis aleatórias são chamadas de
independentes quando a distribuição conjunta é igual ao
produto das distribuições marginais das variáveis aleatórias.
2.9.1 Sendo (X,Y) uma variável aleatória bidimensional
discreta com função de probabilidade conjunta igual a
p(x,y), então teremos:
pXY(x,y) = p(x) p(y)
onde pX(x) e pY(y) são respectivamente as distribuições
marginais de X e de Y.
2.9.2 Sendo (X,Y) uma variável aleatória bidimensional
contínua com função densidade de probabilidade conjunta
igual a f(x,y), então teremos:
fXY(x,y) = fX(x) fY(y)
onde fX(x) e fY(y) são respectivamente as distribuições
marginais de X e de Y.
144
2.9.3 Esses conceitos são extensivos às variáveis de três ou
mais dimensões. Por exemplo, sendo (X,Y,Z,W) é uma
variável aleatória contínua de quatro dimensões, se (X,Y) for
independente de (Z,W), teremos fXYZW(x,y,z,w) = fXY(x,y)
fZW(z,w); caso a variável X seja independente de (Y,Z,W)
teremos que a fXYZW(x,y,z,w) = fX(x) fYZW(y,z,w) e assim
para quaisquer outro agrupamento das variáveis. No
exemplo acima, se (X,Y) for independente de (Z,W) não
implica que X seja independente de (Y,Z,W) ou vice-versa.
2.10 Distribuição Condicionada
Tendo-se uma distribuição conjunta (X,Y) podemos
obter a distribuição condicionada a uma região do plano XY
ou a um intervalo de uma das variáveis ou a um ponto
específico do plano XY.
145
2.10.1 Condicionamento a uma região do plano XY
No caso de variável aleatória discreta tem-se:
XYXY
XYx y
(x,y) Região R
p (x,y) p (x,y / (x,y) Região R) = (x,y) R
p (x,y)
∈
∈ ∈∑∑1442443
2.10.2 Condicionamento a um intervalo de X ou de Y
No caso de variável aleatória discreta tem-se:
XYx Q
YXY
x Q y
p (x,y)
p (y / X Q) = p (x,y)
∈
∈
∈∑∑∑
onde Q = (x1,x2)
2.10.3 Condicionamento a ponto de X ou de Y
No caso de variável aleatória discreta tem-se:
XY 0Y 0
XY 0
f (x ,y) f (y / X = x ) =
f (x ,y) dy∫
desde que XY 0f (x ,y) dy > 0∫ caso contrário, não faz
sentido o condicionamento.
146
3. Função de Distribuição ou Função Acumulada
A função de distribuição de uma variável aleatória de uma dimensão é definida como: F(x) = Pr( X ≤ x ) Da definição temos:
i
ix x
x
X
quando X é umap(x )
variável aleatória discreta
F(x)quando X é uma
f (u) duvariável aleatória contínua
≤
−∞
=
∑
∫
A função de distribuição de uma variável aleatória tem duas assíntotas: uma quando x → -∞ e nesse caso, F(x) = 0 e outra quando x → +∞ e nesse caso, F(x) = 1. 3.1 Função de distribuição (acumulada) de variáveis
discretas
3.1.1 Função de distribuição da variável aleatória discreta equiprovável, assumindo valores do conjunto X = {1, 2, 3, 4, 5, 6} Nesse caso, p(xi) = 1/6 i=1,...,6
147
A função de distribuição é mostrada na figura a seguir. Nota-se que a função é constante para valores diferentes dos eventos elementares; a função tem uma discontinuidade (salto) para os valores dos eventos elementares. Então, a funçao acumulada dá saltos toda vez que tivermos um valor de probabilidade positivo, não nulo e essa probabilidade é igual ao valor da descontinuidade da função. 3.1.2 Função de distribuição da variável aleatória discreta Binomial (N;p)
k k N kN
k x
F(x) C p (1 p) −
≤
= −∑
1 2 3 4 5 6
6/6 5/6 4/6 3/6 2/6 1/6
x
F(x) F(x) = 1
F(x) = 0
148
Gráfico resultante da função acumulada da Binomial (20; 0,2):
Gráfico da distribuição de probabilidade da Binomial (20;0,2):
149
3.2 Função de distribuição (acumulada) de variável aleatória contínua 3.2.1 Seja X uma v.a. uniformemente distribuída em (2 , 10):
Então a função acumulada é dada por:
x
X
2
0 para x 2
1 x 2F (x) du para 2 x 10
8 8
1 para x 10
≤ −= = < ≤
>
∫
Gráfico resultante da função de distribuição da variável aleatória uniforme em (2 , 10):
2 10
x F(x) = 0
F(x) F(x) = 1,0
2 10
c
x
fX(x)
c = 1/ 8
150
3.2.2 Seja X um variável aleatória Normal (0;1) Sendo X Normal, sua função densidade de probabilidade é dada por:
2x
2X
1f (x) e x
2
−= ∈
π�
A função acumulada é obtida por: x
X-F(x) = f (u) du
∞∫ e
tem o formato mostrado na figura a seguir.
-4 -3 -2 -1 0 1 2 3 4 0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Gráfico da função de distribuição da Normal (0;1)
151
3.3 Propriedades de F(x):
1) F(x) é definida à direita do ponto x.
2) 0
lim∈→
F(x-e) = Pr( X < x) = Pr(X ≤ x) - Pr(X=x)
3) F(x) é uma função não decrescente em x.
4) Se X é v.a. contínua em (a,b)
então F(x) dx
d f(x) = para x ε (a,b)
5) A função F(x) é limitada: 0 ≤ F(x) ≤ 1 x ε IR
6) Assíntota inferior: F(-∞) = 0. assíntota em y=0, sendo y = F(x)
7) Assíntota superior: F(+∞) = 1. assíntota em y=1, sendo y = F(x)
152
3.4 Função de distribuição (acumulada) da variável
aleatória bidimensional
F(x,y) = P{X≤x, Y≤y}
Propriedades:
1) F(x,y) ε [0,1]
2) F(x,y) é uma função não decrescente em x e
não decrescente em y.
3) F(+∞ , +∞ ) = 1,0
4) F(- ∞ , - ∞ ) = F(-∞ , y) = F(x, - ∞ ) = 0
5) F( x, + ∞ ) = F(x)
6) F(+ ∞ , y) = F(y)
y
x
x1
y1
F(x1,y1) = P{X≤x1, Y≤y1}
153
Exemplo 3.1
1) Dada a função de probabilidade bidimensional (X,Y)
pX,Y(x,y) Y\ X 3 4 5
0 1 / 45 2 / 45 3 / 45 1 4 / 45 5 / 45 6 / 45 2 7 / 45 8 / 45 9 / 45
A sua função de distribuição (acumulada) é:
FX,Y(x,y) Y\ X 3 4 5
0 1 / 45 3 / 45 6 / 45 1 5 / 45 12 / 45 21 / 45 2 12 / 45 27 / 45 45 / 45
2) Dada a variável aleatória bidimensional Uniforme na
região 0 < x < 4 e 0 < y < 4, a função acumulada é dada
por:
XY
y x
0 0
0 x 0 e y 0
1F (x,y) = du dv 0<x 4 0<y 4
161 x 4 e y 4
≤ ≤
≤ ≤
> >
∫ ∫
Os gráficos da fXY(x,y) e da FXY(X,Y ) são mostrados a
seguir.
154
00.5
11.5
22.5
33.5
4
0
1
2
3
4
0
0.2
0.4
0.6
0.8
1
Distribuição Acumulada da Uniforme 2D em 0<x<4 0<y<4
00.5
11.5
22.5
33.5
4
0
1
2
3
4
0
0.02
0.04
0.06
0.08
0.1
Distribuição Uniforme 2D em 0<x<4 0<y<4
155
Exemplo 3.2: A função densidade de probabilidade conjunta
(X,Y) é dada pela seguinte espressão:
2
XY
x.y 1 3 2 2f (x,y) c0 outros valores
x y
≤ ≤ − ≤ ≤=
onde c é uma constante
Calcule FXY(2,2) = 2 2
XY f (x,y) dx dy −∞ −∞∫ ∫
Resposta: Valor de c: 22 3
2 1
x y1
c dx dy
−
=∫ ∫ ∴ 64
c = 3
FXY(2,2) = 2 2
XY2 1
f (x,y) dx dy −∫ ∫ = 3/4
156
4 Função (transformação) de variável aleatória
A transformação da variável aleatória vem da
necessidade de se obter a distribuição de probabilidade de
uma nova variável que é função de uma dada distribuição
conhecida. É o caso por exemplo de uma variável aleatória
conhecida que entra num dispositivo eletrônico e, deseja-se
saber como a medida de probabilidade dessa variável foi
modificada ( a distribuição de probabilidade da saída). A
distribuição da nova variável Y é obtida pelos eventos
equivalentes de Y com os de X.
RX RY
A
B
Figura 4.1 Transformação de X em Y. O evento A de X é equivalente ao evento B de Y. Nesse caso, Prob(B) = Prob(A).
H(X)
157
Notação:
X – variável conhecida que tem uma função de
probabilidade (variável discreta) pX(x) ou tem uma função
densidade de probabilidade (variável contínua) fX(x), num
dado intervalo de variação de X;
Y – variável aleatória desconhecida, a qual deseja-se obter
sua distribuição de probabilidades;
H(X) – é a transformação, ou seja, H é a função (ou
transformação) que leva X em Y, ou seja, Y = H(X);
Fx(x) – função de distribuição (acumulada) da variável
aleatória X;
Fy(y) – função de distribuição (acumulada) da variável
aleatória Y.
Podemos classificar de três maneiras a obtenção da
distribuição de probabilidade de Y, conforme se segue.
158
4.1 X é uma v.a. discreta levando a Y que é discreta
Nesse caso a variável aleatória X tem uma função de
probabilidade conhecida, pX(X = xk) k = 1, 2, ...
A função de probabilidade de Y é obtida através dos
eventos equivalentes, ou seja,
a. Se um único valor xk de X levar a um valor yj de Y,
então, Prob(Y=yj) = Prob(X=xk);
b. Se dois ou mais valores xk, xk+1, xk+2, ... , xk+r de X
levarem a um único valor yj de Y, então,
Prob(Y=yj) = Prob(X=xk) + Prob(X=xk+1) + ... +
Prob(X=xk+r)
Exemplo 4.1: Seja a variável aleatória X cujo espaço
amostra é RX = {-1, 0, 1, 2, 3} sendo p(xk) = 1/5
(equiprováveis) com k = -1, ... , 3
159
Sendo Y = H(X) = 3 X + 1, calcule a distribuição de
probabilidades de Y, ou seja, Prob( Y = yj).
Resposta: O espaço amostra de Y é: RY = {-2, 1, 4, 7, 10} ,
obtido de H(X), onde os eventos equivalentes são:
{Y = -2} ≈ {X = -1}; {Y = 1} ≈ {X = 0};
{Y = 4} ≈ {X = 1}; {Y = 7} ≈ {X = 2};
{Y = 10} ≈ {X = 3}
Logo, temos:
Prob[Y = -2] = Prob[X = -1] = 1/5;
Prob[Y = 1] = Prob[X = 0] = 1/5;
Prob[Y = 4] = Prob[X = 1] = 1/5;
Prob[Y = 7] = Prob[X = 2] = 1/5;
Prob[Y = 10] = Prob[X = 3] = 1/5
160
Exemplo 4.2: Seja a variável aleatória X cujo espaço
amostra é RX = {-1, 0, 1, 2, 3} sendo p(xk) = 1/5
(equiprováveis) com k = -1, ... , 3
Sendo Y = H(X) = X2 + 1, calcule a distribuição de
probabilidades de Y, ou seja, Prob( Y = yj).
Resposta: O espaço amostra de Y é: RY = {1, 2, 5, 10},
obtido de H(X), onde os eventos equivalentes são:
{Y = 1} ≈ {X = 0}; {Y = 2} ≈ {X = -1} ∩ {X = 1};
{Y = 5} ≈ {X = 2}; {Y = 10} ≈ {X = 3}
Logo, temos:
Prob[Y = 1] = Prob[X = 0] = 1/5;
Prob[Y = 2] = Prob[X = -1] + Prob[X = 1] = 1/5 + 1/5 = 2/5;
Prob[Y = 5] = Prob[X = 2] = 1/5;
Prob[Y = 10] = Prob[X = 3] = 1/5;
161
4.2 X é uma v.a. contínua levando a Y que é discreta
Nesse caso a variável aleatória X tem uma função
densidade de probabilidade conhecida, fX(x).
Da mesma forma que a anterior, a função de
probabilidade de Y é obtida através dos eventos
equivalentes, ou seja,
a. Se um único valor xk de X levar a um valor yj de Y,
então, Prob(Y=yj) = Prob(X=xk)
b. Se dois ou mais valores xk, xk+1, xk+2, ... , xk+r de X
levarem a um único valor yj de Y, então, Prob(Y=yj)
= Prob(X=xk) + Prob(X=xk+1) + ... + Prob(X=xk+r)
c. Se uma infinidade de valores de X no intervalo (a, b)
levarem a um valor yj de Y, então,
b
j XaProb(Y=y ) = f (x) dx∫
162
Exemplo 4.3: Seja a variável aleatória X cujo espaço
amostra é RX = {X / x ∈ (3, 8) } sendo f(x) = 1/5
(distribuição uniforme no intervalo (3, 8) ). Sendo Y dada
conforme figura 4.2 a seguir. Calcule a distribuição de
probabilidades de Y, ou seja, fY(y).
Resposta: O espaço amostra de Y é: RY = {-2, -1, 1, 2},
obtido do mapeamento de X em Y, através da Figura 4.2,
onde os eventos equivalentes são:
{Y = -2} ≈ {3 < X < 4}; {Y = -1} ≈ {4 < X < 6};
{Y = 1} ≈ {6 < X < 7}; {Y = 2} ≈ {7 < X < 8}.
3 4 5 6 7 8 X
Y
2 1 0 -1 -2
Figura 4.2 Transformação de X em Y
163
Logo, temos:
Prob[Y = -2] = Prob[3 < X < 4] = 4
15
3 dx∫ = 1/5;
Prob[Y = -1] = Prob[4 < X < 6] = 6
15
4 dx∫ = 2/5;
Prob[Y = 1] = Prob[6 < X < 7] = 7
15
6 dx∫ = 1/5;
Prob[Y = 2] = Prob[7 < X < 8] = 8
15
7 dx∫ = 1/5.
4.3 X é uma v.a. contínua levando a Y que é contínua
Nesse caso a variável aleatória X tem uma função
densidade de probabilidade conhecida, fX(x). A função
densidade de probabilidade de Y é obtida através dos
eventos equivalentes, ou seja,
a. Se uma infinidade de valores de X no intervalo (a, b)
levarem a um único valor yj de Y, então,
b
j XaProb(Y=y ) = f (x) dx∫
164
b. Se uma infinidade de valores da variável aleatória X
no intervalo (a < X < b) levarem a uma infinidade de
valores da variável aleatória Y no intervalo (c < Y <
d), então, b
XaProb(c < Y < d) = f (x) dx∫
De modo geral nesse caso, a distribuição de
probabilidades de Y é obtida da forma a seguir, supondo-
se que os eventos equivalentes são:
{y1 < Y < y2} ≈ {x1 < X < x2}
{y3 < Y < y4} ≈ {x3 < X < x4}
.
.
.
{yk-1 < Y < yk} ≈ {xk-1 < X < xk}
Assim, podemos obter fY(y) da seguinte maneira:
165
Derivando-se a função acumulada de Y em relação a y, afim
de se obter a função densidade de Y, tem-se:
Podemos escrever também da seguinte forma:
Equ. 1
Fy(y) = Prob{Y≤y}= Prob{H(X)≤y}= =Prob{X≤H-1(y)}+ Prob{X≤H-1(y)}+ ...+Prob{X≤H-1(y)} para x1<X<x2 para x3<X<x4 para xk-1<X<xk
y1<Y<y2 y3<Y<y4 yk-1<Y<<xk
fY(y) = d FY(y) = d FY(H-1(y)) + …+ d FY(H-1(y)) dy dy dy para x1<X<x2 ... para xk-1<X<xk
y1<Y<y2 … yk-1<Y<yk
fY(y) = fX(H-1(y)) dx + …+ fx(H-1(y)) dx
dy dy para x1<X<x2 ... para xk-1<X<xk
y1<Y<y2 … yk-1<Y<yk
166
Quando Y = H(X) é uma função biunívoca de
X, podemos genericamente utilizar a seguinte fórmula para
o cálculo da fY(y):
-1
XY
x H (y)
f (x)f (y)
dydx =
= Equ. 2
onde o módulo de dy/dx vem do fato que a derivada pode
ser negativa (função H(X) decrescente), mas a função
densidade de probabilidade de Y tem que ser positiva.
Exemplo 4.4: Seja a variável aleatória X cujo espaço
amostra é RX = {X / x ∈ (3, 8) } com f(x) = 1/5
(distribuição uniforme no intervalo (3, 8) ). Sendo Y =
H(X) = 3 X + 1, calcule a distribuição de probabilidades de
Y, ou seja, fY(y). Y
X
3 8
25 10
Y = 3 X + 1
167
Resposta: O espaço amostra de Y é: RY = {Y / y ∈ (10, 25)
}, obtido de H(X), onde os eventos equivalentes são:
{Y / y ∈ (10, 25)} ≈ {X / x ∈ (3, 8)}
1a maneira: FY(y) = Prob(Y≤y) = Prob(3X+1≤y) =
Prob(X≤(y-1)/3) = FX((y-1)/3) então: FY(y) = FX((y-1)/3)
X
Y Y X
d F ((y-1)/3)d d dx dxf (y) = F (y) = F ((y-1)/3) =
dydy dx dydx
= Xf (y-1)/3) 1/5 1 = = y-1
3 3 15x=3
∀ y y ∈ (10, 25)
2a maneira: Aplicando-se diretamente a Equação 2 acima.
XY
f (x) 1/5 1f (y) = = = y-1dy 3 15x=
3dx
∀ y y ∈ (10, 25)
168
Exemplo 4.5 Seja o mesmo exemplo anterior, ou seja, a
variável aleatória X tem como espaço amostra o conjunto
RX = {X / x ∈ (3, 8) } e sua função densidade de
probabilidade é igual a f(x) = 1/5 (distribuição uniforme no
intervalo (3, 8) ). Sendo agora Y = H(X) = - 3 X + 1,
calcule a função densidade de probabilidades fY(y).
Resposta: O espaço amostra de Y é:
RY = {Y / y ∈ (-23, -8) }, obtido de H(X), onde os eventos
equivalentes são:
{Y / y ∈ (-23, -8)} ≈ {X / x ∈ (3, 8)}
10 25 Figura 4.3 Gráfico da função densidade de Y
y
fY(y)
169
1a maneira: FY(y) = Prob(Y≤y) = Prob(-3X+1≤y) =
Prob(X ≥ (1-y)/3) = 1 - Prob(X ≤ (1-y)/3) = 1- FX((1-y)/3)
então: FY(y) = 1 - FX((1-y)/3)
X
Y Y X
d F ((1-y)/3)d d dx dxf (y) = F (y) = - F ((1-y)/3) = -
dydy dx dydx
= Xf (1-y)/3) 1/5 1
- = = 1-y- 3 3 15x=
3
∀ y y ∈ (-23, -8)
2a maneira: Aplicando-se diretamente a Equação 2 acima.
XY
f (x) 1/5 1f (y) = = = 1-ydy 3 15x=
3dx
∀ y y ∈ (-23, -8)
170
Também pode-se utilizar a mesma Equação 2 acima
quando a função H(X) não for biunívoca, separando-a em
funções biunívocas para aplicá-la por partes e fazendo-se a
soma das partes em comum de Y (espaço amostral).
Exemplo 4.6 Seja a variável aleatória X cujo espaço
amostra é RX = {X / x ∈ (-2, 4) } com f(x) = 1/6
(distribuição uniforme no intervalo (-2, 4) ).
Sendo Y = H(X) = X2 , obtenha fY(y).
-23 -8 Figura 4.4 Gráfico da função densidade de Y
y
fY(y)
171
Resposta: O espaço amostra de Y é:
RY = {Y / y ∈ (0, 16) }, obtido de H(X), onde os eventos
equivalentes são:
{Y / y ∈ (0, 4)} ≈ {X / x ∈ (-2, 0)} ∩ {X / x ∈ (0, 2)} e
{Y / y ∈ (4, 16)} ≈ {X / x ∈ (2, 4)}
4
16
-2 0 4
Y = X2
X
Y
172
X
Y
X
-2<x<0f (x)0<y<4dy
dxx = - y
f (y) =
0<x<4f (x)0<y<16dy
dxx = y
Y
1/6 0<y<42 x
x = - yf (y) =
1/6 0<y<162 x
x = y
Y
1/6
0<y<42 yf (y) =
1/6
0<y<162 y
Y
1
0<y<412 yf (y) =
1
0<y<1612 y
Resposta final: Y
2
0<y<412 yf (y) =
1
4<y<1612 y
y
fY(y)
0 4
Gráfico resultante da transformação Y = X2, onde X é v.a. uniforme em (-2, 4)
173
Exemplo 4.7: Seja a variável aleatória X cujo espaço
amostra é RX = {X / x ∈ (-2, 8) } com f(x) = 1/10
(distribuição uniforme no intervalo (-2, 8) ). Sendo Y
dado pelo gráfico, calcule a distribuição de probabilidades
de Y, ou seja, fY(y).
3 X + 1 x > 0Y =
1 x < 0
Resposta: O espaço amostra de Y é: RY = {Y / y ∈ (1, 25)
}, obtido de H(X), onde os eventos equivalentes são:
{Y / y ∈ (1, 25)} ≈ {X / x ∈ (0, 8)} e
{Y = 1} ≈ {X / x ∈ (-2, 0)}
Logo teremos: p(Y=1) = 2/10 fY(y) = 1/30 y ∈ (1, 25)
Y
X
-2 0 8
25 1
Y = 3 X + 1
174
Gráfico da distribuição mista de Y:
4.4 Função de variável aleatória bidimensional
Supõe-se que é conhecida a distribuição da variável
aleatória bidimensional (X,Y). Deseja-se obter a
distribuição da variável aleatória unidimensional Z ou de
uma variável bidimensional (Z,W), onde Z = H1 (X,Y) e
W = H2 (X,Y).
4.4.1 Quando temos uma variável aleatória Z que é
função de duas outras variáveis conjuntamente distribuídas,
podemos ter, por simplificação, os seguintes casos:
y
fY(y) 0,2 δ(y-1)
1/30
Uniforme em (1, 25)
0 1 25
175
I. (X,Y) é uma v.a. bidimensional discreta levando a Z
que é uma outra v.a. unidimensional discreta.
II. (X,Y) é uma v.a. bidimensional contínua levando a Z
que é uma outra v.a. unidimensional contínua.
Da mesma forma que no caso unidimensional, atribui-
se probabilidade nos espaço amostral transformado através
dos eventos equivalentes do espaço amostral (X,Y) e o de Z.
No caso discreto I, a obtenção da distribuição da
variável unidimensional transformada Z é feita diretamente,
como mostrado no exemplo que se segue.
Exemplo 4.8: Dada a distribuição conjunta de (X,Y)
através da tabela abaixo, obter a distruibuição de Z, onde
Z = X+Y.
176
pX,Y(x,y) Y\ X 0 1 2
2 1 / 21 2 / 21 3 / 21 3 4 / 21 5 / 21 6 / 21
Resposta: Através dos eventos equivalentes, obtém-se:
Z 2 3 4 5
p(z) 1 / 21 6 / 21 8 / 21 6 / 21
Exemplo 4.9: Dada a distribuição conjunta de (X,Y)
através da tabela abaixo, obter a distruibuição de Z, onde
Z = X Y.
Resposta: Através dos eventos equivalentes, obtém-se:
Z 0 2 3 4 6
p(z) 5 / 21 2 / 21 5 / 21 3 / 21 6 / 21
pX,Y(x,y) Y\ X 0 1 2
2 1 / 21 2 / 21 3 / 21 3 4 / 21 5 / 21 6 / 21
177
No caso II acima de transformação de variáveis
aleatórias contínuas obtém-se a função densidade de Z
diretamente da função acumulada FZ(z) que é obtida a partir
da integral da função densidade conjunta de X e de Y
fXY(x,y) na região de definição de Z. Em seguida, obtém-se
a função densidade de Z pela derivada em relação a z de
FZ(z). Seguem-se alguns exemplos.
Exemplo 4.10: X e Y são variáveis aleatórias
independentes uniformemente distribuídas em (0, 1). Obter
a função densidade de Z = X + Y.
y
fY(y)
1
0 1
x
fX(x)
1
0 1
x
y
0 z z-1 1
1 z-1
z
y = z-x 1≤z≤2
y = z-x 0≤z≤1
178
Z = X + Y F(z) = Prob(Z≤z) = Prob(X+Y≤z)
Do gráfico acima obtemos F(z) para duas situações, ou
seja, para Z ε (0, 1) e para Z ε (1, 2). Logo, a função
acumulada F(z) é obtida da seguinte forma:
0 0
1 1-x 1 1 1 z-x
0 0 0 1 z-1 1
dy dx 0 z 1F(z) =
dy dx dy dx + dy dx 1 z 2
−
−
− −
≤ ≤ + ≤ ≤
∫ ∫∫ ∫ ∫ ∫ ∫ ∫
z z x
z
x x
2
22
z 0 z 12F(z) =
(z-1)33 z - - z + 1 z 22 2
≤ ≤ ≤ ≤
Logo, derivando-se F(z) em relação a z, obtém-se:
z 0 z 1f(z) =
2 - z 1 z 2
≤ ≤ ≤ ≤
z
0 1 2
fZ(z)
179
Mais genericamente, se X e Y são independentes, ou
seja, fXY(x,y) = fX(x) fY(y) e Z = X + Y, teremos:
Podemos escrever os eventos equivalentes:
{Z ≤ z} = {H1(X,Y) ≤ z} = {(x,y) ∈ DZ - Região de
definição de Z < X + Y}
Logo teremos: Z
Z
D
F (z) = Prob(Z ) = f(x,y) dx dy z≤ ∫∫
Sendo ∆DZ, a região do plano entre as duas retas x + y = z
e x + y = z + dz , teremos:
Prob(z<Z<z+dz) = Prob( (x,y) ∈ ∆DZ) = fZ(z) dz ou seja,
x
y x+y= z+dz
x +y=z
DZ - Região de definição
de Z ≤ X+Y
Região de definição da variável X,Y
dz
180
Z XY- -x=z-yXYf (z) dz = dy dz = f (z-y,y) dy dzf (x,y)
∞ ∞
∞ ∞∫ ∫
E como fXY(x,y) = fX(x) fY(y) teremos que
Z X Y-f (z) = f (z-y) f (y) dy
∞
∞∫ que é a integral de
convolução entre a função densidade de X e a de Y.
Pode-se obter o mesmo resultado através de:
z-y z-y
Z XY Y X- - - -F (z) = f (x,y) dx dy = f (y) f (x) dx dy
∞ ∞
∞ ∞ ∞ ∞
∫ ∫ ∫ ∫
Derivando-se FZ(z) em relação a z, obtém-se:
Z X Y-f (z) = f (z-y) f (y) dy
∞
∞∫
181
Exemplo 4.11 X e Y são variáveis aleatórias
independentes uniformemente distribuídas em (0, 1). Obter
a função densidade de Z = X Y
Como 0 < X < 1 e 0 < Y < 1 a variação de Z é: 0 < Z <
1
F(z) = Prob(Z ≤ z) = Prob(X Y ≤ z)
1 1 z/x
0 0 z 0F(z) = dy dx + dy dx z - z Ln (z)
z
=∫ ∫ ∫ ∫
Derivando-se FZ(z) em relação a z, obtém-se fZ(z):
fZ(z) = Ln (1/z) 0 < z < 1.
x
y
0 x=z 1
1 0
x y = z = 0,5
x y = z = 0,3
x y = z = 0,1
182
Exemplo 4.12 X e Y são variáveis aleatórias
independentes uniformemente distribuídas em (0, 1). Obter
a função densidade de Z = Y / X
Como 0 < X < 1 e 0 < Y < 1 a variação de Z é: 0< Z
<∞
1
0 0
1/ x 1 1
0 0 1/z 0
dy dx 0 z 1F(z) =
dy dx + dy dx 1 z
z x
z z
≤ ≤ ≤ ≤ ∞
∫ ∫∫ ∫ ∫ ∫
( )Z
z 0 z 12F (z) =
11 - 1 z 2 z
≤ ≤
≤ ≤ ∞
x
y
0 x=1/z 1
1 0
y = z x com z >1
y = z x com z <1
Região de Z = Y/X< z
183
Z
2
1 0 z 12f (z) =
1 1 z 2 z
≤ ≤
≤ ≤ ∞
Exemplo 4.13 X e Y são variáveis aleatórias
independentes uniformemente distribuídas em (0, 1). Obter
a função densidade de Z = Max(X,Y)
Como 0 < X < 1 e 0 < Y < 1 a variação de Z é:
0< Z <1
x
y
0 z 1
1 z
Max(X,Y)≤z
184
2Z 0 0
F (z) = Prob(Z z) = Prob[max(X,Y) z] = dy dx = zz z
≤ ≤ ∫ ∫ 0 ≤ z ≤ 1
fZ(z) = 2z 0 ≤ z ≤ 1
Exemplo 4.14 X e Y são variáveis aleatórias
independentes uniformemente distribuídas em (0, 1). Obter
a função densidade de Z = Min(X,Y)
Como 0 < X < 1 e 0 < Y < 1 a variação de Z é:
0< Z <1
ZF (z) = Prob(Z z) = Prob[ max(X,Y) z ] = ≤ ≤
x
y
0 z 1
1 z
Min(X,Y)≤z
185
z 1 1 z 2z 0 0 z 0
F (z) = dy dx + dy dx = 2z - z 0 z 1≤ ≤∫ ∫ ∫ ∫
fZ(z) = 2 - 2z 0 ≤ z ≤ 1
Exemplo 4.15 Sendo (X,Y) uma variável aleatória com
distribuição Normal bidimensional sendo X e Y
independentes de médias zero e variâncias iguais a σ2,
obtenha a função densidade de probabilidade de
2 2Z = X Y+ .
Resposta: sendo a função densidade conjunta dada por:
2 2
2
XY
x y- 2
2
1f (x,y) e
2 σ
π σ
+
= o espaço amostral
será 0 < X < ∞ e 0 < Y < ∞, logo a variação de Z é:
0< Z <∞.
186
2 2ZF (z) = Prob(Z z) = Prob( X Y z)≤ + ≤
2 2 2ZF (z) = Prob( X Y z )+ ≤
2
Z XY- -
2 2x y- 2
2- -F (z) = f (x,y) dx dy dx dy
1 e2
σπ σ
∞ ∞
∞ ∞
+∞ ∞
∞ ∞=∫ ∫ ∫ ∫
Fazendo-se uma mudança de variáveis para se efetuar a
integração: x = r cos(θ) e y = r sen(θ), temos
que x2 + y2 = r2 e que o incremental de área dx dy no
plano XY é igual a r dr dθ. Logo a integral se torna:
2
2
z- 2
2Z 0
2
2r
-2
2
2
0 0
1F (z) = (1- e ) d
2 r dr d
1 e
2
z πσσ
πθ
πθ
π σ= ∫∫ ∫
2
2
z-
2ZF (z) = (1- e ) z 0σ ≥ Logo, temos que
x
y Curva de nível
Área de integração Z ≤ z
Raio z
187
2
2-
Z 2
z2z
f (z) = e z 0σσ
≥ que é a função
densidade da variável aleatória χ mencionada
anteriormente.
4.4.2 No caso de transformação da variável (X,Y) para
outra variável bidimensional (Z,W), de forma a levarmos em
conta somente os casos de variáveis somente discreta ou
somente contínuas, podemos ter as seguintes
transformações:
III. (X,Y) é uma v.a. bidimensional discreta levando a
(Z,W) que é um outro par de v.a. bidimensional discreta.
IV. (X,Y) é uma v.a. bidimensional contínua levando a
(Z,W) que é um outro par de v.a. bidimensional contínua.
Da mesma forma que no caso unidimensional, atribui-
se probabilidade nos espaços amostras transformados através
188
dos eventos equivalentes entre os pares de (X,Y) e os de
(Z,W).
No caso III discreto, a obtenção da distribuição da
variável bidimensional transformada (Z,W) é feita
diretamente, como mostrado no exemplo que se segue.
Exemplo 15: Seja a variável aleatória bidimensional
(X,Y) cuja função de probabilidade é dada abaixo e seja a
seguinte transformação:
Z = H1 (X,Y) = X + Y e W = H1 (X,Y) = X Y
Obter a distribuição conjunta (Z,W).
y
x Região de definição da variável aleatória bidimensional (X,Y)
y
x Região de definição da variável aleatória bidimensional (Z,W)
Evento A
Evento B transformado de A
189
pX,Y(x,y) Y\ X 3 4 5
0 1 / 45 2 / 45 3 / 45 1 4 / 45 5 / 45 6 / 45 2 7 / 45 8 / 45 9 / 45
Resposta: Os valores possíveis de Y e W (espaço amostra)
são: Z = {3, 4, 5, 6, 7} W = {0, 3, 4, 5, 6, 8, 10}
Através dos eventos equivalentes obtém-se pZ,W(z,w):
pZ,W(z,w) Z\ W 0 3 4 5 6 8 10
3 1 / 45 0,0 0,0 0,0 0,0 0,0 0,0 4 2 / 45 4 / 45 0,0 0,0 0,0 0,0 0,0 5 3 / 45 0,0 5 / 45 0,0 7 / 45 0,0 0,0 6 0,0 0,0 0,0 6 / 45 0,0 0,0 0,0 7 0,0 0,0 0,0 0,0 8 / 45 0,0 9 / 45
190
No caso IV de variáveis aleatórias contínuas, supõe-se que
seja conhecida a função densidade de probabilidade conjunta
fXY(x,y) e que:
1. Z = H1 (X,Y) e W = H2 (X,Y) são funções
inversíveis em relação a X e Y, isto é, é possível
colocar X e Y como funções de Z e W, X = G1
(Z,W) e Y = G2 (Z,W);
2. As derivadas parciais de H1 (X,Y) e de H2 (X,Y) em
relação a x e y existem e são contínuas no espaço
amostral (X,Y).
Então a função densidade de probabilidade conjunta (Z,W)
é calculada de forma similar a Equação 2 e é obtida da
seguinte forma:
( )12
x = G (z,w)y = G (z,w)
XYZW Z,W
JX,Y
f (x,y)f (z,w) =
Equ. 3
191
onde Z,W
JX,Y
é o jacobiano da transformação de
variáveis, que necessariamente tem que ser diferente de zero
para que H1 e H2 sejam inversíveis em (x0,y0). Temos que:
( )Z,W 1
J X,YX,Y
JZ,W
=
Z Z Z W
x y x xZ,WJ
X,Y Z WW W
y yx y
=
∂ ∂ ∂ ∂
∂ ∂ ∂ ∂=
∂ ∂∂ ∂
∂ ∂∂ ∂
X X
X,Y z wJ
Z,W Y Y
z w
∂ ∂
∂ ∂=
∂ ∂
∂ ∂
192
Exemplo 16 Seja (X,Y) uma variável aleatória
bidimensional cuja função densidade de probabilidade é:
XY
1 x (0, 1) e y (0, 1)f (x,y) =
0 x (0, 1) ou y (0, 1)
∈ ∈ ∉ ∉
Qual a função densidade da variável aleatória Z = X + Y?
Observação: X e Y neste caso são variáveis aleatórias
independentes e ambas uniformemente distribuídas em
(0, 1).
Resposta: Arbitra-se uma outra variável aleatória W, cuja
expressão em função de X e Y não seja muito complicada.
Por exemplo, seja W = X – Y. Obtém-se a função
densidade de probabilidade conjunta de Z,W e depois acha-
se a distribuição marginal de Z. Então temos as seguintes
expressões e transformações: Z = X + Y W = X – Y
Donde se obtém: X = (Z + W) / 2 Y = (Z - W) / 2
193
Variação no Plano XY:
Retas X = 0 e X = 1 e Retas Y = 0 e Y = 1
Variação no Plano ZW:
X=Z+W
= 0 W = -Z 2
⇒
Y = Z-W
= 0 Z = W 2
⇒
X = Z+W
= 1 W = 2 - Z 2
⇒
Y = Z-W
= 1 W = Z - 2 2
⇒
x
y
0 1
1 0
w
z
w= 2-z w = z
w = z-2
w = -z
2
1 0 -1
1
194
= -2
Z Z 1 = 1
x yZ,WJ
X,Y W W = 1 = -1
x y
∂ ∂=
∂ ∂=
∂ ∂
∂ ∂
12
x = (z+w)/2y = (z-w)/2
x = G (z,w)y = G (z,w)
1 1XY = ZW -2 2
f (x,y)f (z,w) =
Z,WJ
X,Y
=
Como o Jacobiano da transformação é igual a 2, significando
que a área transformada duplicou, a função densidade
conjunta de (Z,W), que também é uniforme, vale a metade
da de (X,Y).
195
ZW
0 < z < 1 e -z < w < z1/2
f (z,w) = ou 1 < z < 2 e z-2 < w < 2-z
0 outros intervalos
z
-zZ 2-z
z-2
z 0 < z < 1 1 2 dw 0 < z < 1f (z) = =
1 2 dw 1 < z < 2 2-z 1 < z < 2
∫∫
0 1 2 Gráfico da função densidade de probabilidade de Z
fZ(z) 1 0 z