Departamento de Estatisticaulisses/disciplinas/livro-calculodasprobabilida.pdf · Observação 1.6....
Transcript of Departamento de Estatisticaulisses/disciplinas/livro-calculodasprobabilida.pdf · Observação 1.6....
Capítulo 1
Introdução a Probabilidade
Objetivo: O objetivo da teoria da Probabilidade é criar modelos teóricos que reproduzam demaneira razoável a distribuição de freqüências de fenômenos(experimentos) aleatórios de inte-resse. Tais modelos são chamados modelos probabilísticos.
Definição 1.1 (Experimento aleatório). Um experimento que pode fornecer diferentes resultados,muito embora seja repetido toda vez da mesma maneira, é chamado experimento aleatório.
Características de um experimento aleatório:
• Imprevisibilidade: o resultado do experimento não pode ser conhecido a priori;
• É conhecido o conjunto de todos os resultados possíveis do experimento;
Exemplos de experimentos aleatórios
(E1) Lançar uma moeda uma vez. Anota-se o resultado;
(E2) Lançar uma moeda duas vezes. Anota-se a seqüência obtida;
(E3) Lançar uma moeda duas vezes. Anota-se o número de caras obtido;
(E4) Numa linha de produção conta-se o número de peças defeituosas num dia de trabalho;
(E5) Uma urna contém duas bolas brancas e três bolas vermelhas. Retira-se uma bola ao acaso daurna. Se for branca, lança-se uma moeda; se for vermelha, ela é devolvida à urna e retira-seoutra bola. Anota-se o resultado obtido.
Definição 1.2 (Espaço amostral). É o conjunto de todos os resultados possíveis de um experimentoaleatório. Notação: Ω
Cada resultado possível é denominado ponto ou elemento deΩ e denotado genericamente porω. Assim, escrevemosω∈Ω para indicar que o elementoω está em Ω.
Exemplos de espaço amostral:
(E1) Ω=
c , r
, em que c=cara e r=coroa;
1
(E2) Ω=
(c , c ), (c , r ), (r, c ), (r, r )
;
(E3) Ω=
0, 1, 2
;
(E4) Ω=
0, 1, 2, . . .
;
(E5) Ω=
(B , c ), (B , r ), (V, B ), (V, V )
, em que B=bola branca, V=bola vermelha;
Definição 1.3. Sejam A e B dois conjuntos. Então diz-se que A é um subconjunto de B se, e somenteseω∈ A implicarω∈ B. Notação: A ⊂ B.
Observação 1.1. Da Definição ?? segue que A ⊂ A, poisω∈ A implicarω∈ A.
Observação 1.2. Se A não é um subconjunto de B, então existe pelo menos umω∈ A tal queω /∈ B.Notação: A * B.
Definição 1.4 (Igualdade de conjuntos). Sejam A e B dois conjuntos. Então diz-se que A = B se, esomente se, A ⊂ B e B ⊂ A, isto é,ω∈ A implicarω∈ B eω∈ B implicarω∈ A.
Observação 1.3. Se A não é igual a B, então existe pelo menos umω∈ A tal queω /∈ B ou umω∈ Btal queω /∈ A.
Definição 1.5 (Evento). É um subconjunto do espaço amostral Ω.
Os subconjuntos de Ω serão denotados por letras latinas maiúsculas (A,B,C,. . . ). Se A é umsubconjunto de Ω então denotamos A ⊂Ω.
Exemplo 1.1. Considere o experimento aleatório (E2). Seja A=Obtenção de faces iguais. Portanto,A =
(c , c ), (r, r )
;
Observação 1.4. Diz-se que "‘ocorre o evento A"’ quando o resultado do experimento aleatório forum elemento de A.
Observação 1.5. O espaço amostralΩ e o conjunto vazio∅ também são eventos, em queΩ é o eventocerto e ∅ é o evento impossível.
Operações básicas entre conjuntosSejam A ⊂Ω e B ⊂Ω, então:
• Complementar: Ac =
ω∈Ω :ω /∈ A
;
• Interseção: A ∩ B =
ω∈Ω :ω∈ A eω∈ B
;
• União: A ∪ B =
ω∈Ω :ω∈ A ouω∈ B
=
ω∈Ω :ω a pelo menos um dos eventos
;
• Diferença: A − B =
ω∈Ω :ω∈ A eω /∈ B
, deste modo segue que A − B = A ∩ B c ;
• Diferença simétrica: A∆B =
ω ∈ Ω : ω ∈ A eω /∈ B ouω /∈ A eω ∈ B
, deste modo segueque A∆B = (A ∩ B c )∪ (Ac ∩ B ).
Definição 1.6 (Eventos disjuntos). Dois eventos são disjuntos se e somente se A ∩ B =∅.
Observação 1.6. Da Definição ?? segue que o conjunto vazio é disjunto de qualquer outro evento,pois para todo evento A tem-se que A ∩∅=∅.
Definição 1.7 (Partição de um evento). Seja A um subconjunto deΩ. Então A1, . . . , An formam umapartição de A se e somente se A i ∩A j =∅ para todo i 6= j e ∪n
i=1A i = A.
Deste modo, se A = Ω então A1, . . . , An formam uma partição de Ω se e somente se A i ∩A j =∅para todo i 6= j e ∪n
i=1A i =Ω.
Definição 1.8 (Espaço Produto). Sejam Ω1 e Ω2 dois espaços amostrais. Então o espaço produtoΩ=Ω1×Ω2 é dado por,
Ω1×Ω2 =n
(ω1,ω2) :ω1 ∈Ω1 eω2 ∈Ω2
o
Observação 1.7. Se Ω1 =Ω2 =Ω então o espaço produto Ω1×Ω2 é denotado por Ω2.
Definição 1.9 (Produto entre eventos). Sejam A ⊂ Ω1 e B ⊂ Ω2. Então o evento produto, denotadopor A × B é dado por,
A × B =n
(ω1,ω2)∈Ω :ω1 ∈ A eω2 ∈ Bo
1.1 Propriedades das operações entre conjuntos(eventos)
Sejam A, B ,C subconjuntos de Ω, então:
1. A ⊂ A ∪ B e B ⊂ A ∪ B ;
2. A ∩ B ⊂ A e A ∩ B ⊂ A;
3. A ⊂ B ⇔ A ∪ B = B ;
4. A ⊂C e B ⊂C ⇔ A ∪ B ⊂C ;
5. Idempotente: A ∪A = A e A ∩A = A;
6. Distributiva:
• A ∪ (B ∩C ) = (A ∪ B )∩ (A ∪C );
• A ∩ (B ∪C ) = (A ∩ B )∪ (A ∩C );
• A ∪ (B −C ) = (A ∪ B )− (C −A) 6= (A ∪ B )− (A ∪C );
• A ∩ (B −C ) = (A ∩ B )− (A ∩C );
• (A − B )−C = A − (B ∪C ) 6= A − (B −C );
• A − (B ∪C ) = (A − B )∩ (A −C ) 6= (A − B )∪ (A −C );
• A − (B ∩C ) = (A − B )∪ (A −C ) 6= (A − B )∩ (A −C );
• A ∩ (B∆C ) = (A ∩ B )∆(A ∩C );
• A ∪ (B∆C ) = (A ∪ B ∪C )− (Ac ∩ B ∩C ) 6= (A ∪ B )∆(A ∪C );
7. Comutativa:
• A ∪ B = B ∪A;
• A ∩ B = B ∩A;
• A∆B = (A − B )∪ (B −A) = (B −A)∪ (A − B ) = B∆A = A ∪ B −A ∩ B ;
• A − B 6= B −A, pois A − B = A ∩ B c e B −A = Ac ∩ B ;
8. Associativa:
• (A ∪ B )∪C = A ∪ (B ∪C );
• (A ∩ B )∩C = A ∩ (B ∩C );
• (A∆B )∆C = A∆(B∆C );
• (A − B )−C 6= A − (B −C ), pois
(A − B )−C = (A ∩ B c )∩C c = A ∩ (B c ∩C c ) = A ∩ (B ∪C )c = A − B ∪C
e
A − (B −C ) = A ∩ (B ∩C c )c = A ∩ (B c ∪C ) = (A ∩ B c )∪ (A ∩C ) = (A − B )∪ (A ∩C ).
9. Identidade: A ∪∅= A, A ∩Ω= A e A ∪Ω=Ω, A ∩∅=∅;
10. Complemento: A ∪Ac =Ω, A ∩Ac =∅ e (Ac )c = A, Ωc =∅ e ∅c =Ω.
Proposição 1.1 (Leis de De Morgan). Sejam A1, . . . , An tal que A i ⊂Ω para todo i, então:
(i)
∪ni=1A i
c= ∩n
i=1Aci Imterpretação: o complementar da ocorrência de pelo menos um dos even-
tos é a não ocorrência de todos os eventos;
(ii)
∩ni=1A i
c= ∪n
i=1Aci . Imterpretação: o complementar da ocorrência de todos os eventos é a não
ocorrência de pelo menos um dos eventos.
Demonstração. Para (i) tem-se que:Para todo ω ∈
∪ni=1A i
ctem-se que ω /∈ ∪n
i=1A i , logo ω /∈ A i para todo i, pois se ω ∈ A i paraalgum i entãoω∈∪n
i=1A i . Conseqüentementeω∈ Aci para todo i, portantoω∈∩n
i=1Aci . Logo,
∪ni=1A i
c⊂∩n
i=1Aci . (1.1)
Por outro lado tem-se que, para todo, ω ∈ ∩ni=1Ac
i implica queω ∈ Aci para todo i. Logoω /∈ A i
para todo i. Conseqüentemente,ω /∈ ∪ni=1A i . Deste modo,ω ∈
∪ni=1A i
c. Nestas condições segue
que,∩n
i=1 Aci ⊂
∪ni=1A i
c(1.2)
Logo, de (??) e (??) segue a igualdade (i). Para (ii) tem-se que:Para todo ω ∈
∩ni=1A i
cimplica que ω /∈ ∩n
i=1A i . Logo, ω /∈ A i para pelo menos um i, con-seqüentementeω∈ Ac
i para pelo menos um i. Portanto,ω∈∪ni=1Ac
i . Assim,
∩ni=1A i
c⊂∪n
i=1Aci . (1.3)
Por outro lado tem-se que, para todo,ω ∈ ∪ni=1Ac
i implica queω ∈ Aci para pelo menos um i. Con-
seqüentemente,ω /∈ A i para pelo menos um i, portantoω /∈∩ni=1A i , logo,
∩ni=1A i
c. Assim,
∪ni=1 Ac
i ⊂
∩ni=1A i
c. (1.4)
De (??) e (??) segue a igualdade (ii).
1.2 Função indicadora
Definição 1.10 (Função indicadora). Seja A ⊂Ω, então
IA(ω) =
(
1 seω∈ A
0 seω /∈ A
Propriedades da função indicadoraSejam A ⊂Ω e B ⊂Ω, então:
(i) IAc (ω) = 1− IA(ω);
(ii) IA∪B (ω) = IA(ω)+ I B (ω)− IA(ω)I B (ω) =min
IA(ω), I B (ω)
;
(iii) IA∩B (ω) = IA(ω)I B (ω) =max
IA(ω), I B (ω)
;
(iv) IA−B (ω) = IA(ω)I B c (ω) e I B−A(ω) = IAc (ω)I B (ω);
(v) IA∆B (ω) = IA(ω)I B c (ω)+ IAc (ω)I B (ω).
(vi) IA(ω) = I B (ω) se e somente se A = B ;
(vii) IA(ω)≤ I B (ω) se e somente se A ⊆ B ;
Demonstração. Para (i) tem-se que: tome ω ∈ Ac então IAc (ω) = 1 e IA(ω) = 0 pois ω /∈ A logo1−IA(ω) = 1. Do mesmo, modo seω /∈ Ac então IAc (ω) = 0 e IA(ω) = 1 poisω∈ A logo 1−IA(ω) = 0.
Por outro lado, se ω ∈ A então IA(ω) = 1 e IAc (ω) = 0 pois ω /∈ Ac . Do mesmo, modo se ω /∈ Aentão IA(ω) = 0 e IAc (ω) = 1 poisω∈ Ac . Logo, IAc (ω) = 1− IA(ω).
1.3 Álgebra e Sigma álgebra
Definição 1.11 (Álgebra). Seja Ω um conjunto não vazio. Uma classe A de subconjuntos de Ω,satisfazendo:
(A1) Ω∈A ;
(A2) Se A ∈A então Ac ∈A ;
(A3) Se A ∈A e B ∈A então A ∪ B ∈A ;
é denominada uma álgebra de subconjuntos de Ω.
Proposição 1.2. SejaA uma álgebra de subconjuntos de Ω. Então, valem as seguintes proprieda-des:
(A4) ∅∈A ;
(A5) A é fechada para uniões e intersecções finitas, isto é, se A1 ∈A , . . . , An ∈A então ∪ni=1A i ∈A
e ∩ni=1A i ∈A .
Demonstração. (A4) é direto visto que o complementar de Ω é ∅.Para (A5) tem-se por indução que, A1 ∪ A2 ∈ A . Agora suponha que ∪k
i=1A i ∈ A , assim,∪k+1
i=1 A i =
∪ki=1A i
⋃
Ak+1. Deste modo, como ∪ki=1A i ∈ A e Ak+1 ∈ A segue que ∪k+1
i=1 A i ∈ A .Logo, vale a relação para todo n finito.
Para a segunda parte de (A5) tem-se que: como A1 ∈ A , . . . , An ∈ A segue por (A2) que Ac1 ∈
A , . . . , Acn ∈A , portanto da primeira parte de (A5) segue que ∪n
i=1Aci ∈A . Agora de (A2) segue que
∪ni=1Ac
i
c∈A . Mas da lei de Morgan sabe-se que
∪ni=1Ac
i
c=∩n
i=1A i .
Exemplo 1.2. Exemplos de álgebras:
1. A = ∅,Ω, esta é a álgebra trivial;
2. A = A, Ac ,∅,Ω, para Ω= A ∪Ac ;
3. Seja Ω = ω1,ω2,ω3 entãoA = ω1,ω2,ω3,ω1,ω2,ω1,ω3,ω2,ω3,∅,Ω é uma álgebrade subconjuntos de Ω. Neste caso,A é chamado de álgebra das partes de Ω e é denotado porP .
Exemplo 1.3. SejaΩ infinito, enumerável ou não, e sejaC uma classe de subconjuntos deΩ que sãofinitos ou cujos complementos são finitos, isto é, C = A ⊂ Ω : A ou Ac é finito. Prove que C é umaálgebra.
Demonstração. De fato, pois:
1. Ωc =∅ que é finito, portanto, Ω∈C ;
2. Seja A ∈C , logo A ou Ac é finito. Se A é finito segue que Ac ∈C pois
Acc = A é finito. Se Ac
é finito, então Ac ∈C ;
3. Seja A ∈C e B ∈C ,logo A ou Ac é finito e B ou B c é finito, assim:
• Se A e B forem finitos segue que A ∪ B é finito, portanto A ∪ B ∈C ;
• Se A ou B ou ambos forem infinitos então
A ∪ Bc = Ac ∩ B c é finito pois Ac ou B c ou
ambos são finitos. Logo A ∪ B ∈C .
Definição 1.12 (σ-Álgebra). Uma classeF de subconjuntos de Ω é denominada uma σ-álgebra seela satisfaz:
(F1) Ω∈F ;
(F2) Se A ∈F então Ac ∈A ;
(F3) Se A i ∈F para todo i ≥ 1 então⋃∞
i=1 A i ∈F ;
Observação 1.8. Da Definição ?? segue que:
1. Todaσ-álgebra é uma álgebra;
2. Nem toda álgebra é umaσ-álgebra.
Observação 1.9. O par (Ω,F ) é chamado de espaço mensurável.
1.4 Medida de Probabilidade
Definição 1.13 (Definição Clássica). Seja (Ω,F ) um espaço finito de eventos equiprováveis. Assim,para todo A ∈F tem-se que,
P(A) =#A
#Ωem que # é o número de elementos do conjunto.
Exemplo 1.4. Considere o experimento aleatório (E2). Seja A=Obtenção de faces iguais. Portanto,A =
(c , c ), (r, r )
. Deste modo,
P(A) =2
4= 0, 5.
1.4.1 Alguns conceitos básicos de Contagem
Nesta seção vamos apresentar os princípios aditivo e multiplicativo e mostrar como a aplica-ção destes princípios podem ser feitas para obter as fórmulas de permutação, arranjo e combina-ção.
Definição 1.14 (Princípio Aditivo). Sejam A1, . . . , An uma partição, então # ∪ni=1 A i =
∑ni=1 a i . Se
A1, . . . , An for uma partição de Ω então #∪ni=1 A i = #Ω= n, em que n é número de elementos de Ω.
Da Definição ?? segue que, se A =∪ni=1A i então,
P(A) =
∑ni=1 a i
n.
Exemplo 1.5. Numa confeitaria há 5 sabores de picolés e 3 sabores de salgados. Suponha que Mariasó tenha permissão para tomar um picolé ou comer um salgado. Quantos são os possíveis pedidosde Maria?
Solução: Tem-se os seguintes eventos: Ω= P1, . . . , P5,S1,S2,S3,
A1 = ω∈Ω :ω= p i col e A2 = ω∈Ω :ω= s a l g a do
Assim, o evento A ="‘tomar um picolé ou comer um salgado"’ é A = A1∪A2. Logo, tem-se que Mariapode escolher entre #A1 ∪A2 = 5+3= 8 pedidos possíveis.
Exemplo 1.6. Uma caixa contém quatro lâmpadas de 40 W , cinco de 60 W e seis de 75 W . Umalâmpada é sorteada ao acaso, qual a probabilidade que seja uma lâmpada de 40 W ou 75 W ?
Solução: Tem-se os seguintes eventos: Ω= L401, . . . , L404, L601, . . . , L605, L751, . . . , L756,
A1 = ω∈Ω :ω= L40i , i = 1, . . . , 4 e A2 = ω∈Ω : L75j , j = 1, . . . , 6
Portanto,
P(A1 ∪A2) =4+6
15=
2
3.
Definição 1.15 (Princípio Multiplicativo). Sejam A1, . . . , An n eventos em que A i ∈Ωi . Se cada eventoA i pode ocorrer de m i maneiras diferentes. Então esses n eventos podem ocorrer em sucessão dem1×· · ·×mn maneiras diferentes, isto é, o evento produto A1×· · ·×An tem cardinalidade m1×· · ·×mn .
Exemplo 1.7. Suponha mo exemplo anterior que Maria tenha permissão para tomar um picolé ecomer um salgado. Quantos são os possíveis pedidos de Maria, neste caso?
Solução: Tem-se os seguintes eventos: Ω= P1, . . . , P5,S1,S2,S3,
A1 = ω∈Ω :ω= p i col e A2 = ω∈Ω :ω= s a l g a do
Assim, o evento A ="‘tomar um picolé e comer um salgado"’ é A = A1×A2. Logo, tem-se que Mariapode escolher entre #A1×A2 = 5×3= 15 pedidos possíveis.
Vamos agora mostrar como combinar os dois princípios.
Exemplo 1.8. Um amigo mostrou-me 5 livros diferentes de Matemática, 7 livros diferentes de Físicae 10 livros diferentes de Química e pediu-me para escolher 2 livros com a condição de que eles nãofossem da mesma matéria. De quantas maneiras eu posso escolhê-los?
Solução: Tem-se os seguintes eventos: A1 = M 1, . . . , M 5, A2 = F1, . . . , F7 e A3 = Q1, . . . ,Q10.Agora note que posso fazer as seguintes escolhas: A1×A2 ou A1×A3 ou A2×A3. Logo,
#(A1×A2)∪ (A1×A3)∪ (A2×A3) = #(A1×A2)+#(A1×A3)+#(A2×A3)
= 5×7+5×10+7×10= 155.
Exemplo 1.9. No Exemplo ??, suponha que duas lâmpadas sejam selecionadas ao acaso, qual aprobabilidade que:
(a) Exatamente duas sejam de 75 W ?
Solução: Seja,Ω1 = L401, . . . , L404, L601, . . . , L605, L751, . . . , L756
eΩ2 = L401, . . . , L404, L601, . . . , L605, L751, . . . , L755,
com A1 = L75, # A1 = 6 e A2 = L75 e # A2 = 5.. Assim, tem-se que # A1×A2 = 6 ∗ 5 = 30 e# Ω1×Ω2 = 15 ∗14= 210,
P(A1×A2) =30
210=
1
7.
(b) Sair uma de 40 W e uma de 60 W ? (combinando os dois princípios)
Solução: Seja,Ω1 = L401, . . . , L404, L601, . . . , L605, L751, . . . , L756,
# Ω1 = 15,Ω2 = L401, . . . , L403, L601, . . . , L605, L751, . . . , L756,
# Ω2 = 14 ouΩ3 = L401, . . . , L404, L601, . . . , L604, L751, . . . , L756,
# Ω3 = 14, com A1 = L401, . . . , L404 e # A1 = 4, A2 = L601, . . . , L605 e # A2 = 5. Assim,
”Sair uma de 40 W e uma de 60 W ”= A1×A2 ou A2×A1,
logo,
P((A1×A2)∪ (A2×A1)) = P(A1×A2)+P(A2×A1) =4×5
15×14+
5×4
15×14
Permutação Simples
Uma permutação de n elementos distintos é qualquer agrupamento ordenado desses objetos.Assim, seja A i o conjunto de elementos quando da escolha do i-ésimo elemento sem reposição.Assim, se inicialmente tivermos n elementos, então #A i = n − i + 1. Deste modo, o número deelementos em uma permutação simples será dada por,
#(A1× · · ·×An ) = n × (n −1)× · · ·×1= n !
Notação: Pn = n !.
Exemplo 1.10. Considere uma urna com 5 bolas numeradas de 1 a 5 e seja o seguinte experimento:retirar 3 bolas sem reposição. Qual a probabilidade dos três números sorteados serem o 1,2 e o 3, nãonecessariamente nessa da ordem? Qual a a probabilidade dos três números sorteados serem o 1,2 eo 3, nessa da ordem?
Solução: Tem-se que A ="’os três números sorteados são o 1,2 e o 3"’. Como a ordem não importatem-se que #A = P3 = 3! = 6, que são as permutações simples dos 3 números. Vamos agora calcu-lar o número de elementos de Ω. Utilizando o princípio multiplicativo tem-se que: seja A1 =as 5bolas numeradas, A2 =as 4 bolas numeradas restantes depois da primeira retirada e A3 =as 3 bolasnumeradas restantes depois da segunda retirada. Assim,
#Ω= #(A1×A2×A3) = 5×4×3= 60.
Note que nesse cálculo foi considerado as permutações simples de cada elemento. Assim,
P(A) =#A
#Ω=
6
60= 0, 1.
Para o segundo caso, tem-se que: #A = 1 assim,
P(A) =#A
#Ω=
1
60.
Arranjos Simples
Arranjos simples de n elementos distintos tomados r a r, r ≤ n , são todos os grupos distin-tos(ordenados), que diferem pela ordem e pela natureza dos r elementos que compõe cada grupo.Note que o arranjo simples é semelhante é o caso geral e a permutação simples é o caso particularquando r = n . Assim, seja A i o conjunto de elementos quando da escolha do i-ésimo elementosem reposição. Assim, se inicialmente tivermos n elementos, então #A i = n − i +1. Deste modo, onúmero de elementos em um arranjo simples será dada por,
#(A1× · · ·×Ar ) = n × (n −1)× · · ·× (n − r +1)
multiplicando em cima e em baixo por (n − r )! obtém-se,
#(A1× · · ·×Ar ) =n × (n −1)× · · ·× (n − r +1)× (n − r )!
(n − r )!=
n !
(n − r )!.
Notação: Arn =
n !(n−r )! .
Combinações Simples
Combinações simples de n elementos distintos tomados r a r, r ≤ n , são todos os grupos nãoordenados de p elementos que diferem entre si apenas pela natureza dos elementos e não pelaordem. Deste modo, basta dividir o número de arranjos simples tomados r a r pelo número depermutações r a r. Assim,
Arn
Pr=
n !
r !(n − r )!=
n
r
Notação: C rn =
n
r
.
Observação 1.10. Note que
C rn =
n
r
=
n
n − r
=C n−rn .
Os valores C rn são chamados de coeficientes binomiais, por causa do fato que,
(a +b )n =n∑
r=0
C rn a r b n−r .
Definição 1.16. Seja (Ω,F ) um espaço não enumerável, comΩ⊂Rn , n ≥ 1. Então, para todo A ∈Fsegue que a probabilidade de A é dada por,
P(A) =|A ||Ω|
em que || poderá ser: um comprimento, uma área, um volume, etc. Esse é o conceito geométrico deprobabilidade.
Exemplo 1.11. Um ponto (a ,b ) é escolhido aleatóriamente no quadrado definido por −1≤ x ≤ 1 e−1≤ y ≤ 1. Qual a probabilidade que a equação a z +b = 0 tenha solução positiva.
Solução: Note que,
z =−b
a≥ 0
se e somente se (a ,b ) ∈ [−1, 0)× [0, 1] ou (a ,b ) ∈ (0, 1]× [−1, 0]. Assim, |Ω|= 2× 2= 4 e |A |= 1× 1+1×1= 2. Portanto,
P(A) =2
4= 0, 5.
Definição 1.17. Seja Ω um espaço amostral de um experimento aleatório. Seja n repetições inde-pendentes de um experimento aleatório e n A o número de ocorrências do evento A ⊂ Ω. Então, aprobabilidade de A é dada por,
P(A) = limn→∞
n A
nEsse é o conceito frequencista de probabilidade.
Definição 1.18. Seja (Ω,F ) um espaço mensurável. Então uma função P :F → [0, 1] é uma proba-bilidade se,
(P1) P(Ω) = 1;
(P2) Para todo A ∈F tem-se P(A)≥ 0;
(P3) P éσ-aditiva, isto é, se A1, A2, . . . , são dois a dois disjuntos então,
P
∞⋃
n=1
An
!
=∞∑
n=1
P(An ).
Esta é a definição axiomática devida a Kolmogorov. A trinca (Ω,F , P) é chamada de espaço deprobabilidade.
Observação 1.11. Note que de um modo geral a medida de probabilidade P não precisa assinalaruma probabilidade para todo evento, isto é, não precisa ter uma probabilidade associada a todoponto amostral de Ω, mas apenas para os eventos emF .
Exemplo 1.12. Seja Ω=n
1, 2, 3o
e considere aσ-álgebra das partes,
P =n
∅,Ω,1,2,3,1, 2,1, 3,2, 3o
e uma outra σ-álgebra F =n
∅,Ω,3,1, 2o
. Seja P1 a medida de probabilidade em (Ω,P ) dadapor
P1(1) = P1(2) = P1(3) =1
3e P1(1, 2) = P1(1, 3) = P1(2, 3) =
2
3.
Seja P2 a medida de probabilidade em (Ω,F ) dada por P2(3) = 13
e P2(1, 2) = 23
. Consideremosagora dois eventos, A = 1, 2 e B = 2, 3, então P1(A) = P2(A) = 2
3e P1(B ) = 1
3entretanto P2(B ) não
está definido. Neste caso diz-se que o evento B éP -mensurável mas não éF -mensurável.
Observação 1.12. Observe que para o espaço mensurável (Ω,P ) foi definido uma probabilidadepara todoω∈Ω. Note que nestes casos a probabilidade de qualquer outro evento A ∈P é dada por,
P(A) =∑
n
ω∈Ω:ω∈A
o
P(ω).
Deste modo, se P for definida para todo ω ∈ Ω então estará bem definida para qualquer σ-álgebraF .
Propriedades de uma medida de probabilidadeSeja (Ω,F , P), então para todo A ∈F e B ∈F , tem-se que:
(P4) P(Ac ) = 1−P(A).
Demonstração. De fato, como Ω= A ∪Ac e A ∩Ac =∅ segue que,
P(Ω) = 1= P(A ∪Ac ) = P(A)+P(Ac ) ⇒ P(Ac ) = 1−P(A)≥ 0;
(P5) P(∅) = 0, pois Ω=∅c logo por (C1)
P(∅) = 1−P(Ω) = 1−1= 0;
(P6) P é uma função não decrescente, isto é, para todo A, B ∈F tal que A ⊆ B tem-se que P(A)≤P(B ).
Demonstração. De fato, como B = (A ∩ B )∪ (Ac ∩ B ) e A ∩ B = A pois A ⊆ B , segue que
P(B ) = P(A ∩ B )+P(Ac ∩ B ) = P(A)+P(Ac ∩ B )︸ ︷︷ ︸
≥0
≥ P(A);
(P7) Para todo A, B ∈ F tal que A ⊆ B tem-se que P(B −A) = P(B )−P(A); Este resultado seguediretamente do anterior;
(P8) Para todo A, B ∈F arbitrários tem-se que:
P(A − B ) = P(A)−P(A ∩ B ) e P(B −A) = P(B )−P(A ∩ B ).
Demonstração. De fato, como A = (A∩B )∪(A∩B c ) = (A∩B )∪(A−B ) e B = (A∩B )∪(Ac ∩B ) =(A ∩ B )∪ (B −A) segue que,
P(A) = P(A ∩ B )+P(A − B ) e P(B ) = P(A ∩ B )+P(B −A)
Logo,P(A − B ) = P(A)−P(A ∩ B ) e P(B −A) = P(B )−P(A ∩ B ).
(P9) Para todo A ∈F tem-se que 0≤ P(A)≤ 1. Este resultado segue de (P1), (P2) e (C3) e do fatoque A ⊆Ω;
(P10) Para todo A, B ∈F arbitrários tem-se que:
P(A ∪ B ) = P(A)+P(B )−P(A ∩ B ).
Demonstração. De fato, como A = (A ∩ B )∪ (A ∩ B c ) e B = (A ∩ B )∪ (Ac ∩ B ) tem-se que,
A ∪ B =
(A ∩ B )∪ (A ∩ B c )
∪
(A ∩ B )∪ (Ac ∩ B )
= (A ∩ B )∪ (A ∩ B c )∪ (Ac ∩ B ) = (A ∩ B )∪ (A − B )∪ (B −A)
Perceba que A ∩ B , A − B e B −A são disjuntos. Assim, por (P3) e (P8) segue que,
P(A ∪ B ) = P(A ∩ B )+P(A − B )+P(B −A)
= P(A ∩ B )+ [P(A)−P(A ∩ B )]+ [P(B )−P(A ∩ B )] = P(A)+P(B )−P(A ∩ B ).
1.5 Probabilidade Condicional
Seja (Ω,F , P) o espaço de probabilidade para um determinado experimento aleatório. Supo-nha que tenhamos a priori alguma informação a respeito do resultado do experimento aleatório.Por exemplo, suponha que saibamos que um determinado evento B ∈ F ocorreu. Isto eliminaqualquer incerteza que tínhamos a respeito da ocorrência ou não do evento B. Além do mais, estanova informação a respeito do experimento aleatório pode mudar as incertezas a respeito de ou-tros eventos emF e portanto uma nova medida de probabilidade deve ser considerada. Esta novamedida de probabilidade é também uma medida no espaço mensurável (Ω,F ), será chamada deProbabilidade condicional.
Exemplo 1.13. SejaΩ=
1, 2, 3, 4, 5, 6
um espaço de eventos equiprováveis. SejaF =P aσ-álgebradas partes de Ω e P a medida de probabilidade definida em (Ω,F ) assim,
P(A) =#A
#Ω
para todo A ∈F . Considere os seguintes eventos,
A = 1, 2, 6 e B = 2, 3, 5.
Deste modo, tem-se que
P(A) =3
6=
1
2e P(B ) =
3
6=
1
2.
Suponha agora que tenhamos a informação que o evento B ocorreu. Essa informação poderá alterara probabilidade atribuída aos eventos em F . A nova medida de probabilidade será denotada porP(.|B ). Observe que podemos considerar que temos um novo espaço amostral ΩB = B e uma novaσ-álgebra
FB =
C ⊂ B : C = A ∩ B , para algum A ∈F
.
Desta maneira, tem-se queFB ⊂F , por este motivoFB é denominada uma restrição deF ao eventoB. Assim, o novo espaço de probabilidade seria
B ,FB , P(.|B )
. Para o exemplo acima, dado que oevento B ocorreu, então o evento A só irá ocorrer se o evento C = 1= A ∩ B ocorrer, assim
P(A |B ) =#(A ∩ B )
#(B )=
1
3.
Entretanto, não é necessária a construção deste novo espaço de probabilidade, pois pode-se conside-rar apenas uma nova medida de probabilidade para o mesmo espaço mensurável (Ω,F ). Para fazerisso, basta que a nova medida de probabilidade P(.|B ) seja válida para todo A ∈ F e não apenaspara A ∈FB . Deste modo, para um dado evento B ∈F tem-se
P(A) =P(A)P(Ω)
=P
A ∩ (B ∪ B c )
P(B ∪ B c )
=P(A ∩ B )+P(A ∩ B c )
P(B )+P(B c )
Nestas condições segue que, dado que o evento B ocorreu, tem-se que
P(B c ) = 0 e P(A ∩ B c ) = 0
logo pode-se definir P(.|B ) para todo A ∈F , com segue,
P(A |B ) =P(A ∩ B )
P(B ).
Para o exemplo assim tem-se que,
P(A |B ) =1
3.
Definição 1.19 (Probabilidade Condicional). Seja (Ω,F , P) um espaço de probabilidade. Seja B ∈F um evento tal que P(B )> 0. Então a probabilidade condicional, dado o evento B, é uma funçãodenotada por P(.|B ) e definida para todo A ∈F como segue,
P(A |B ) =P(A ∩ B )
P(B ). (1.5)
em que P(A |B ) é chamada a probabilidade condicional de A dado B.
Suponhamos agora que tenhamos
Ω1,F1, P1
e
Ω2,F2, P2
dois espaços de probabilidade e
Ω,F , P
o espaço produto associado. Considere A1 ∈ Ω1 e A2Ω2, então quem seria P1(A1|A2) eP2(A2|A1) ? Para poder utilizar a Definição ?? temos que colocar os eventos A1 e A2 no mesmoespaço. Para fazer isso, vamos verificar quem seria os eventos associados no espaço produto
Ω,F , P
. Note que, o evento associcado a A1 em F é A = A1 × Ω2 pois se ω1 ∈ A1 então ω =(ω1,ω2) ∈ A, do mesmo modo se ω = (ω1,ω2) ∈ A então ω1 ∈ A1, logo P(A) = P1(A1). De maneiraanáloga segue que para B =Ω1×A2, tem-se P(B ) = P2(A2). Note ainda que,
A ∩ B = (A1×Ω2)∩ (Ω1×A2) = A1×A2.
Portanto, da Definição ?? tem-se que,
P1(A1|A2) = P(A |B ) =P(A ∩ B )
P(B )=
P(A1×A2)P2(A2)
e P1(A2|A1) = P(B |A) =P(A ∩ B )
P(A)=
P(A1×A2)P1(A1)
.
Lema 1.1. A função P(.|B ) é uma medida de probabilidade em (Ω,F ).
Demonstração. De fato,
1. P(Ω|B ) = 1, pois
P(Ω|B ) =P(Ω∩ B )
P(B )=
P(B )P(B )
= 1;
2. Para todo A ∈F segue que,
P(A |B ) =P(A ∩ B )
P(B )≥ 0
pois P(B )> 0 e P(A ∩ B )≥ 0;
3. Seja A1, A2, . . .∈F tal que A i ∩A j =∅ para i 6= j então,
P
∞⋃
n=1
An
B
!
=P⋃∞
n=1 An
∩ B
P(B )=
P⋃∞
n=1(An ∩ B )
P(B )
=
∑∞n=1 P(An ∩ B )
P(B )=
∞∑
n=1
P(An ∩ B )P(B )
=∞∑
n=1
P(An |B ).
Teorema 1.1 (Regra do Produto). Seja A1, A2, . . . , An ∈F eventos tais que,
P
n−1⋂
i=1
An
!
> 0
então,
P
n⋂
i=1
An
!
= P(A1)P(A2|A1)P(A3|A1 ∩A2) · · ·P(An |A1 ∩A2 ∩· · · ∩An−1).
Se A i ∈Fi para i = 1, . . . , n então,
P
n⋂
i=1
An
!
= P1(A1)P2(A2|A1)P3(A3|A1 ∩A2) · · ·Pn (An |A1 ∩A2 ∩· · · ∩An−1).
Demonstração. Fazer por indução. Tem-se que P(A1 ∩ A2) = P(A1)P(A2|A1) pela Definição ?? deprobabilidade condicional. Suponha que é valido para k , isto é,
P(A1 ∩· · · ∩Ak ) = P(A1)P(A2|A1)× · · ·×P
Ak
∩k−1i=1 A i
e então mostrar que vale para n = k +1. Assim, seja Bk =∩ki=1A i , logo
P(Bk ∩Ak+1) = P(Bk )P(Ak+1|Bk ).
Exemplo 1.14. Uma urna contém 2 bolas brancas, 3 pretas e 4 verdes. Duas bolas são retiradas aoacaso sem reposição. Qual a probabilidade de que:
(a) Ambas sejam verdes?
(b) Ambas sejam da mesma cor?
Solução: Seja (Ω1,F1, P1) o espaço de probabilidade na primeira retirada comΩ1 = b , v, p, (Ω1,F1, P1)o espaço de probabilidade na segunda retirada com Ω2 = b , v, p, e Ω = Ω1×Ω2 o espaço amostraldo experimento, assim
(a) sejam os seguintes eventos: A1 = v =”retirar verde na primeira retirada” e A2 = v =”retirarverde na segunda retirada” e no espaço produto, A = A1 ×Ω2 = (v,b ), (v, v ), (v, p ) =”retirarverde na primeira retirada” e B = Ω1 × A2 = (b , v ), (v, v ), (p , v ) =”retirar verde na segundaretirada”. Assim,
P(A1×A2) = P(A)P(B |A) = P1(A1)P2(A2|A1) =4
9×
3
8=
1
6.
(b) sejam os seguintes eventos: Bi = b =”retirar branca na i-ésima retirada” e C i = p =”retirarpreta na i-ésima retirada”. O evento desejado é (A1×A2)∪ (B1× B2)∪ (C1×C2), portanto,
P
(A1×A2)∪ (B1× B2)∪ (C1×C2)
= P(A1×A2)+P(B1× B2)+P(C1×C2)
= P1(A1)P2(A2|A1)+P1(B1)P2(B2|B1)+P1(C1)P2(C2|C1)
=2
9×
1
8+
3
9×
2
8+
4
9×
3
8
=20
72=
5
18
Exemplo 1.15. Um carcereiro informa a três prisioneiros que um deles foi sorteado para ser exe-cutado no dia seguinte, enquanto que os outros dois serão libertados. O prisioneiro João Espeto seaproxima do carcereiro e cochicha no seu ouvido, solicitando que ele lhe conte qual dos outros doisprisioneiros será solto. O prisioneiro argumenta que isso não altera em nada a situação, visto quepelo menos um desses prisioneiros será solto. Entretanto, o carceiro não atende seu pedido, acre-ditando que isto poderia dar ao João Espeto alteração nas suas expectativas de ser libertado. Vocêacha que o carcereiro tem razão?Solução: Note que neste problema temos dois espaços amostrais: o espaço amostral de quem serásorteado para ser executado,
Ω1 =
A, B ,C
em que, A = o prisioneiro João Espeto será executado, e o espaço amostral sobre a informação que ocarcereiro poderá fornecer,
Ω2 =
b , c
em que b = o segundo prisioneiro será solto e c = o terceiro prisioneiro será solto. Assim, o espaçoamostral do nosso problema será o espaço produto,
Ω=Ω1×Ω2 =
(A,b ), (A, c ), (B ,b ), (B , c ), (C ,b ), (C , c )
.
Agora note que,
P
(A,b )
= P
A
P
b
A
=1
3×
1
2=
1
6
Do mesmo modo,
P
(A, c )
=1
6,
P
(B ,b )
= P
B
P
b
B
=1
3×0= 0= P
(C , c )
e
P
(B , c )
= P
B
P
c
B
=1
3×1=
1
3= P
(C ,b )
.
Nestas condições segue que, se por exemplo o carcereiro disser que o segundo prisioneiro será soltoentão
P
A
b
=P
(A,b )
P
b =
1612
=1
3= P
A
.
Teorema 1.2 (Probabilidade Total). Seja A i , i = 1, . . . , n uma partição de Ω com P(A i ) > 0 paratodo i = 1, . . . , n. Então, para todo B ∈F tem-se que,
P(B ) =n∑
i=1
P(A i )P(B |A i ).
Demonstração. De fato, poisB = B ∩Ω= B ∩
∪ni=1A i
,
assim,
P(B ) = P
B ∩
∪ni=1A i
= P
∪ni=1(A i ∩ B )
=n∑
i=1
P(A i ∩ B ) =n∑
i=1
P(A i )P(B |A i ).
Exemplo 1.16. No curso de Engenharia Mecânica 5% dos homens e 2% das mulheres estão acimados pesos ideais. Um aluno é escolhido aleatoriamente. Sabendo-se que 60% dos alunos são homenscalcule a probabilidade que:
a) O estudante esteja acima do peso;
Solução: Seja Ω1 = h, m o espaço amostral relacionado ao sexo dos alunos e Ω2 = l , f oespaço amostral relacionado ao peso dos alunos. Assim, o espaço amostral do experimento édado por Ω=Ω1×Ω2. Seja A1 = h o evento o aluno é do sexo masculino e A2 = f o eventoo aluno está acima do peso ideal. Assim,
P2(A2|A1) = 0, 05, P2(A2|Ac1) = 0, 02, P1(A1) = 0, 60 e P1(Ac
1) = 0, 40
No espaço produto, o evento o aluno está acima do peso ideal é
A =Ω1×A2 = (A1 ∪Ac1)×A2 = (A1×A2)∪ (Ac
1×A2)
assim, a probabilidade do aluno está acima do peso ideal é dada por,
P2(A2) = P(A) = P
(A1×A2)∪ (Ac1×A2)
= P
A1×A2
+P
Ac1×A2
= P1(A1)P2(A2|A1)+P1(Ac1)P2(A2|Ac
1) = 0, 6×0, 05+0, 4×0, 02= 0, 038.
b) Seja mulher sabendo que o estudante está acima do peso.
Solução: temos que
P1(Ac1|A2) =
P(Ac1×A2)
P2(A2)=
P1(Ac1)P2(A2|Ac
1)P2(A2)
=0, 4×0, 02
0, 038= 0, 21.
Exemplo 1.17. Seja U1 e U2 duas urnas. A urna U1 contém 3 bolas pretas e 2 vermelhas e a urna U2
contém 4 bolas pretas e 2 vermelhas. Escolhe-se ao acaso uma urna e dela retira-se ao acaso umabola. Qual a probabilidade de que a bola seja preta?
Solução: Tem-se que: Ω = Ω1×Ω2 =n
(u 1, p ), (u 1, v ), (u 2, p ), (u 2, v )o
, em que u 1 =“bola da urna 1”,
u 2 =“bola da urna 2”, p =“bola preta” e v =“bola vermelha”. Sejam os eventos: A1 = u 1“bola daurna 1” e A2 = p“bola preta”. Do problema tem-se que: P1(A1) = P1(Ac
1) = 0, 5, P2
O evento de interesse é (U1 ∩P)∪ (U2 ∩P), assim:
P
(U1 ∩P)∪ (U2 ∩P)
= P(U1 ∩P)+P(U2 ∩P), pois os eventos são disjuntos
= P(U1)P(P |U1)+P(P |U2) =1
2×
3
5+
1
2×
4
6
=3
10+
1
3=
19
30
Teorema 1.3 (Fórmula de Bayes). Seja A i , i = 1, . . . , n uma partição de Ω com P(A i )> 0 para todoi = 1, . . . , n. Então, para todo B ∈F para o qual P(B )> 0 tem-se que,
P(A j |B ) =P(A j )P(B |A j )
∑ni=1 P(A i )P(B |A i )
Exemplo 1.18. Do exemplo anterior, calcule a probabilidade de que dado uma bola preta tenhasido sorteada, ela seja da urna U1?Solução: Primeiro note que U1 e U2 são uma partição de Ω. Assim,
P(U1|P) =P(U1)P(P |U1)
P(U1)P(P |U1)+P(U2)P(P |U2)
=12× 3
512× 3
5+ 1
2× 4
6
=3
101930
=9
19
Definição 1.20. Sejam A, B ∈ F e ((Ω,F ), P) um espaço de probabilidade. Então A e B são inde-pendentes se
P(A |B ) = P(A) ou se P(B |A) = P(B ).
Isto é, o fato de um dos eventos ocorrer não altera a probabilidade do outro ocorrer, assim da Defi-nição ?? de probabilidade condicional segue que,
P(A ∩ B ) = P(A)P(A |B ) = P(A |B )P(B ) = P(A)P(B ).
Exemplo 1.19. Sejam dois eventos A e B tal que P(A) = 12
, P(A |B ) = 12
e P(B |A) = 14
. Esses eventossão independes?Solução: Os eventos A e B são independentes, pois,
P(A ∩ B ) = P(A)P(B |A) =1
2×
1
4=
1
8
P(A ∩ B ) = P(B )P(A |B )⇒ P(B ) =P(A ∩ B )P(A |B )
=1812
=1
4
P(A)P(B ) =1
2×
1
4=
1
8= P(A ∩ B )
Definição 1.21. Seja ((Ω,F ), P) um espaço de probabilidade e A1, . . . , An eventos em F . Então oseventos são independentes(ou completamente independentes) se,
P(A i 1 ∩ · · · ∩A i k ) = P(A i 1)× . . .×P(A i k )
para k = 2, . . . , n e i 1, . . . , i k = 1, . . . , n tal que 1≤ i 1 < . . .< i k ≤ n. Diz-se também que estes eventossão dois a dois independentes se,
P(A i ∩A j ) = P(A i )P(A j ), para todo i 6= j .
1.6 Problemas
1. Na copa do mundo de futebol em 2006, os jogos das semi-finais foram Alemanha versusItália e França versus Portugal. Supondo que não sabemos os resultados destes jogos, res-ponda:
a) Qual o espaço amostral da classificação final dos quatro times?
b) Seja A o evento em que a Itália é a campeã da copa do mundo. Descreva o evento A;
c) Seja B o evento em que Portugal seja um dos finalistas. Descreva o evento B ;
d) Descreva os eventos A ∪ B e A ∩ B .
2. Considere os veículos que passam pela BR-230 na altura da UFPB, no ponto em que podemcontinuar na BR-230(f), seguir em direção à UFPB(d) ou seguir em direção ao centro pelaPedro II(e). Considerando a direção tomada por três veículos quaisquer que passam suces-sivamente, descreva os seguintes eventos:
a) Ω;
b) A = os três veículos seguem na mesma direção;
c) B = cada veículo toma uma direção diferente;
d) C = exatamente dois seguem em direção à UFPB;
e) D = exatamente dois seguem na mesma direção;
f) A∩B , A∩C , A∩D, B ∩C , B ∩D e C ∩D. Quais desses eventos formam uma partição deΩ?
3. Uma empresa de construção civil está construindo três prédios(1,2,3) em João Pessoa. SejaA i o evento em que a empresa entrega o prédio i no prazo previsto. Descreva os eventos aseguir em termos dos eventos dados A1, A2, A3 e desenhe o diagrama de Venn sombreando aregião correspondente ao evento descrito.
a) B1 = ao menos um prédio é entregue no prazo previsto;
b) B2 = todos os prédios são entregues no prazo previsto;
c) B3 = apenas o prédio 1 é entregue no prazo previsto;
d) B4 = Exatamente um prédio é entregue no prazo previsto;
e) B5 = nenhum prédio é entregue no prazo previsto;
4. Dois dados são lançados. Sejam os eventos:
A: o primeiro número é maior que o segundo;
B: o primeiro número é igual ao dobro do segundo;
C: a soma dos dois números é maior ou igual a 8.
a) Descreva o espaço amostral e os eventos A, B e C ;
b) Calcule a probabilidade dos eventos A, B e C ;
c) Calcule P(A ∩C ), P(B ∩C c ) e P(A |C c ).
5. Uma caixa contém fichas de duas cores sendo 4 vermelhas(v) e 3 pretas(p). Uma segundacaixa contém 2 vermelhas(v) e 4 pretas(p). Uma ficha é selecionada aleatoriamente da pri-meira caixa e colocada na segunda. Em seguida uma ficha é retirada da segunda caixa.
a) Descreva o espaço amostral do experimento. Obs.: Este experimento é composto poissão observadas duas variáveis: a cor da ficha retirada da 1a. caixa e a cor da ficharetirada da segunda caixa.
b) Seja A o evento a segunda ficha é vermelha. Descreva o evento A e calcule a sua proba-bilidade.
6. Um sistema de alarme que indica quando a temperatura de uma máquina está elevada aponto de provocar um incêndio utiliza três sensores(1,2,3) que agem independentementeum do outro. A probabilidade de cada sensor não funcionar é de 0,1 quando a temperaturaultrapassa 80oC . O alarme é ativado se pelo menos um dos sensores entrar em funciona-mento.
a) Descreva o espaço amostral do experimento. Obs.: o experimento é a observação dofuncionamento ou não dos sensores;
b) Seja A o evento o alarme dispara quando a temperatura ultrapassar 80oC . Descreva oevento Ac e calcule P(A) utilizando a relação entre P(A) e P(Ac ).
7. Uma máquina pode parar por defeito mecânico ou elétrico. Se há defeito elétrico a proba-bilidade da máquina parar é de 0,3 e se há defeito mecânico a máquina para na proporçãode 1 para 4. Em 80% das vezes que a máquina é ligada não há defeito mecânico, em 10% dasvezes que a máquina é ligada há defeito elétrico. Considere que não pode ocorrer mais deum defeito quando a máquina é ligada.
a) Descreva o espaço amostral do experimento. Obs.: Este experimento é composto poissão observadas duas variáveis: estado da máquina e defeito. Deste modo, o espaçoamostral é o resultado de um produto de dois espaços amostrais. Um espaço amostralé o da variável estado da máquina(parada ou em funcionamento) e o outro espaçoamostral é o da variável defeito(nenhum defeito, defeito elétrico, defeito mecânico).
b) Se a máquina parar, qual a probabilidade de ser por defeito mecânico?
c) Qual a probabilidade da máquina parar?
8. Para verificar o perfil de seus empregados o gerente de uma indústria coletou as seguintesinformações:
Menor que 25 anos(l) Entre 25 e 40 anos(b) Maior que 40 anos(u)Homens(h) 20 45 18Mulheres(m) 8 25 42
Um empregado é selecionado ao acaso:
a) Descreva o espaço amostral desse experimento;
b) Qual a probabilidade que ele seja homem ou tenha entre 25 e 40 anos de idade;
c) Qual a probabilidade que tenha mais de 40 anos e seja homem;
d) Qual a probabilidade que tenha menos de 25 anos sabendo que é mulher;
Considere agora que dois empregados são selecionados ao acaso e sem reposição:
e) Descreva o espaço amostral desse experimento;
f) Ambos tenham menos de 25 anos;
g) Exatamente 1 tenha mais de 40 anos;
h) A idade dos funcionários independe do sexo?
9. No curso de Engenharia Mecânica 5% dos homens e 2% das mulheres estão acima dos pesosideais. Um estudante é escolhido aleatoriamente. Sabendo-se que 60% dos estudantes sãohomens calcule a probabilidade de que:
a) O estudante esteja acima do peso;
b) Seja mulher sabendo que o estudante está acima do peso.
10. Na disciplina de Cálculo das Probabilidades e Estatística I, apenas dois alunos, Paulo e João,ficaram para fazer o exame final. A probabilidade de Paulo resolver a prova em mais de 1hora é 0,6 e a probabilidade de que João resolva a prova em menos de 1 hora é de 0,7. Qual aprobabilidade da prova ser resolvida em menos de 1 hora?
11. A probabilidade de uma mulher estar viva daqui a 30 anos é de 3/4 e de seu marido é de 3/5.Calcule a probabilidade de que:
a) Apenas o homem estar vivo;
b) Apenas a mulher estar viva;
c) Pelo menos um estar vivo;
d) Ambos estarem vivos.
12. Três empresa, 1,2 e 3, de informática disputam a obtenção de um contrato para a produçãode um software. O diretor do departamento de vendas da empresa 1 estima que sua com-panhia tem probabilidade igual à da empresa 2 de obter o contrato que por sua vez é iguala duas vezes a probabilidade da empresa 3 obter o mesmo contrato. Determine a probabili-dade da empresa 1 ou 3 obter o contrato.
13. Suponha que temos dois lotes nas seguintes condições: O primeiro lote(l 1) contendo 200peças das quais 10 tem defeito(d) de fabricação, e o segundo lote(l 2) contendo 300 peçasdas quais 12 tem defeito(d) de fabricação. Se uma peça for retirada de cada lote, qual é aprobabilidade de que:
a) Pelo menos uma das peças escolhidas seja perfeita;
b) Ambas tenham defeito de fabricação?
c) Nenhuma delas tenha defeito de fabricação?
d) Apenas a peça do primeiro lote tenha defeito de fabricação?
e) Somente uma delas tenha defeito de fabricação?
14. Numa cidade 20% dos carros são da marca K, 30% dos carros são táxis e 40% dos táxis são damarca K. Se um carro é escolhido, ao acaso, determinar a probabilidade de que:
a) Ser táxi e ser da marca K;
b) Ser táxi e não ser da marca K;
c) Não ser táxi, sabendo-se que é da marca K;
d) Não ser táxi e não ser da marca K;
e) Não ser táxi e ser da marca K.
15. Em uma empresa a probabilidade de que uma nova política de mercado tenha sucesso(A)foi estimada em 0,6. A probabilidade de que a despesa para o desenvolvimento da estratégiaseja mantida dentro dos limites do orçamento previsto(B) é de 0,5. Admitindo que ambosos eventos A e B sejam independentes, determine a probabilidade de que:
a) Pelo menos um dos objetivos seja atingido;
b) Somente A seja atingido;
c) Somente B seja atingido.
16. Em uma universidade, 40% dos estudantes praticam vôlei e 30% praticam natação. Dentreos que praticam vôlei, 20% praticam também natação. Que porcentagem de estudantes nãopraticam nenhum dos dois esportes?
17. Sejam A e B dois eventos tais que P(A) = 0, 4 e P(A ∪ B ) = 0, 7. Seja P(B ) = p . Para que valorde p , A e B serão mutuamente exclusivos? Para que valor de p A e B serão independentes?
18. Uma caixa contém 5 bolas brancas e três bolas pretas. Duas bolas são retiradas simulta-neamente ao acaso e substituídas por três bolas azuis. Em seguida duas novas bolas sãoretiradas da caixa.
a) Descreva o espaço amostral deste experimento;
b) Calcule a probabilidade de as duas últimas bolas retiradas sejam da mesma cor;
c) Se as duas últimas bolas retiradas forem uma branca e uma preta, calcular a probabili-dade de que, na primeira extração, tenham saído duas bolas brancas.
19. Dois jogadores jogam alternadamente uma moeda, ganhando o jogo aquele que primeiroobtiver uma cara.
a) Descreva o espaço amostral deste experimento;
b) Qual a probabilidade do primeiro jogador ganhar o jogo?
c) Qual a probabilidade do segundo jogador ganhar o jogo?
20. Em um lote de 12 lâmpadas, duas são defeituosas. Considere o experimento: três lâmpadassão escolhidas aleatoriamente.
a) Descreva o espaço amostral deste experimento;
b) Qual a probabilidade de que nenhuma seja defeituosa;
c) Qual a probabilidade de que exatamente uma seja defeituosa;
d) Qual a probabilidade de que pelo menos uma seja defeituosa;
e) Qual a probabilidade de que exatamente duas sejam defeituosas.
21. Em uma festa beneficente serão sorteados um DVD(a) e uma máquina fotográfica digital(b).São vendidos 400 bilhetes para o primeiro prêmio e 200 para o segundo. Uma mulher com-pra 4 bilhetes para concorrer a cada prêmio. Encontre a probabilidade de que:
a) Descreva o espaço amostral deste experimento;
b) Ela ganhe exatamente um prêmio;
c) Ela ganhe alguma coisa.
Capítulo 2
Variáveis aleatórias
Neste capítulo serão estudados o conceito de variável aleatória, sua classificação: discreta econtínua; os tipos de distribuição de probabilidade: função de probabilidade, função de distribui-ção e densidade de probabilidade; e os conceitos de esperança, variância e função geradora demomentos.
2.1 Conceitos e definições
Definição 2.1 (Variável aleatória). Seja (Ω,F , P)um espaço de probabilidade associado. Então umafunção X : Ω→ R, que associa a cada elemento de ω ∈ Ω um número real é uma variável aleatóriase a imagem inversa de todo boreliano da reta B for um elemento deF , isto é,
X−1(B ) =n
ω∈Ω : X (ω)∈ Bo
∈F
Os borelinos da reta é a classe de todos os tipos de intervalos da reta
n
(−∞,x ), (−∞,x ], (x ,∞), [x ,∞), (x , y ), [x , y ), (x , y ], [x , y ]o
Observação 2.1. A função X deve ser unívoca, isto é, para cadaω ∈ Ω deve haver apenas um X (ω)associado. Entretanto, diferentes valores deω podem levar a um mesmo valor de X .
Observação 2.2. Uma função X satisfazendo as condições da Definição ?? é chamada de variávelaleatóriaF−mensurável.
Exemplo 2.1. Considere o seguinte experimento: selecionar uma peça em uma linha de produção eobservar se a peça é boa ou ruim. Nestas condições, segue que Ω = b , r em que b=boa e r=ruim.Consideremos a seguinte variável aleatória,
X (ω) =
(
0 seω=b ,
1 seω= r,
Assim, considerando a σ−álgebra das partes de Ω, isto é, F =n
∅,Ω,b , ro
tem-se que para todo
boreliano B ⊂R tal que:
25
• 0, 1 /∈ B, por exemplo B = (−5, 0), assim X−1(B ) =∅∈F ;
• 0∈ B e 1 /∈ B, por exemplo B =
0, 12
, assim
X−1(B ) =X−1(0) = b ∈F ;
• 0 /∈ B e 1∈ B, por exemplo B = [1, 2], assim
X−1(B ) =X−1(1) = r = r ∈F ;
• 0, 1 ∈ B, por exemplo B = [0, 1], assim
X−1(B ) =X−1(0, 1) = b , r =Ω∈F ;
Portanto X como definido é uma variável aleatória.
Observação 2.3. Note que para todo boreliano B da reta tal que B ∩ Im(X ) =∅ tem-se X−1(B ) =∅∈F , em que Im(X ) é o conjunto imagem de X . Logo, é suficiente fazer a verificação apenas para oconjunto imagem de X que denotaremos de ΩX .
Definição 2.2. Seja (Ω,F , P) um espaço de probabilidade e X uma variável aleatória. Então PX será
a medida de probabilidade induzida por X no espaço
R,B
R
, tal que para todo A =X−1(B )∈Ftem-se que
PX (B ) = P
X−1(B )
= P(A).
Portanto
R,B
R
, PX
será o espaço de probabilidade induzido pela variável aleatória X .
Observação 2.4. Visto que PX (B ) = 0 para todo B ∩ ΩX = ∅, ao invés de utilizarmos o espaço
(R,B
R
, PX ) utilizaremos (ΩX ,FX , PX ), em queFX é aσ-álgebra gerada por ΩX .
Observação 2.5. De um modo geral, sempre que estamos trabalhando com a medida de probabili-dade induzida por uma variável aleatória X utilizamos a notação PX , entretanto para que a notaçãonão fique muito carregada e desde que não possa haver confusão não utilizaremos o subescrito.
Definição 2.3 (Função de Distribuição). Seja X uma variável aleatória, então sua função de distri-buição é definida como,
F (x ) = P(X ≤ x ) = P
X (ω)∈ (−∞,x ]
= P
X−1
−∞,x
,
para todo x ∈R. F é também conhecida como função de distribuição acumulada de X .
Propriedades: As condições necessárias e suficientes para que uma função seja uma função dedistribuição são:
(P1) limx→−∞ F (x ) = 0 e limx→∞ F (x ) = 1;
(P2) F é contínua à direita, isto é, para xn ↓ x tem-se que limxn→x F (xn ) = F (x+) = F (x );
(P3) F é não decrescente, isto é, F (x )≤ F (y ) para todo x , y ∈R tal que x ≤ y .
Exemplo 2.2. Seja X uma variável aleatória e F uma função dada por
F (x ) =
0 se x < 11c
1− e−(x−1)
se 1≤ x < 21c
1− e−1+ e−2− e−2(x−1)
se x ≥ 2.
a) Verifique se F pode ser uma função de distribuição;
Solução: F é uma função de distribuição para c = 1− e−1+ e−2. De fato,
(a)lim
x→−∞F (x ) = 0 pois F (x ) = 0 para x < 1
limx→∞
F (x ) = limx→∞
1
c
1− e−1+ e−2− e−2(x−1)
=1
c
1− e−1+ e−2
= 1
Assim, para c = 1− e−1+ e−2 tem-se limx→∞ F (x ) = 1;
(b) F é continua à direita pois é contínua nos intervalos x < 1, 1≤ x < 2 e x ≥ 2 e nos pontosx = 1, 2 tem-se que F (1) = F (1+) e F (2) = F (2+). Alem disso, note que F é continua pois
F (1) = F (1+) =1
c
1− e−(1−1)
= 0= F (1−)
e
F (2) = F (2+) =1
c
1− e−1+ e−2− e−2(2−1)
=1
c
1− e−1
= F (2−) =1
c
1− e−(2−1)
(c) F é não decrescente, pois
d F (x )d x
=
1c
e−(x−1) se 1≤ x < 22c
e−2(x−1) se x ≥ 2
0 caso contrário
≥ 0 para todo x ∈R.
b) Calcule P
X ≥ 1, 5
X < 4
.
Solução:
P
X ≥ 1, 5
X < 4
= 1−P
X < 1, 5
X < 4
= 1−P
X ≤ 1, 5
X ≤ 4
pois F é contínua
= 1−P
X ≤ 1, 5 , X ≤ 4
P
X ≤ 4
= 1−P
X ≤ 1, 5
P
X ≤ 4 = 1−
F (1, 5)F (4)
= 1−0, 39347
0, 76498= 0, 4856.
2.2 Classificação das variáveis aleatórias
As variáveis aleatórias podem ser discretas ou contínuas. A classe das variáveis aleatórias con-tínuas ainda pode ser subdividida em três: absolutamente contínua, singular e mista. Neste cursoserá abordada apenas a variável aleatória discreta e a absolutamente contínua.
Definição 2.4 (Variável aleatória discreta). Uma variável aleatória X é discreta se o número de va-lores que X possa assumir for enumerável.
Definição 2.5 (Função de Probabilidade). A função de probabilidade de uma variável aleatória Xdiscreta é uma função que atribui probabilidade a cada um dos possíveis valores x i de X , isto é,
PX (x i ) = P(X = x i ) = P(ω∈Ω : X (ω) = x i )
para todo i ∈ 1, 2, . . . , n, n ∈N e satisfaz as seguintes condições,
(i) para todo i ∈ 1, 2, . . . , n tem-se que 0≤ P(X = x i )≤ 1;
(ii)∑n
i=1 P(X = x i ) = 1.
Exemplo 2.3. Seja E =lançamento de duas moeda, seja X =número de caras ocorridos. Assim,
Ω=n
(c , c ), (c , r ), (r, c ), (r, r )o
ΩX =n
0, 1, 2o
e
PX (0) = P
X−1(0)
= P(r, r ) =1
4,
PX (1) = P
X−1(1)
= P
(c , r ), (r, c )
= P(c , r )+P(r, c ) =2
4=
1
2,
PX (2) = P
X−1(2)
= P(c , c ) =1
4.
Deste modo, a função de probabilidade de X é dada por
X PX (x )0 1
41 1
22 1
4
Definição 2.6. Para uma variável aleatória discreta a função de distribuição é dada por,
F (x ) =∑
x i≤x
PX (x i ) =∑
x i≤x
P(X = x i ).
para todo x ∈R.
Exemplo 2.4. Do exemplo anterior tem-se que,
F (x ) =
0 se x < 014
se 0≤ x < 134
se 1≤ x < 2
1 se x ≥ 2
Observação 2.6. Da Definição ?? segue que
• P(a <X ≤b ) = F (b )− F (a );
• P(a ≤X ≤b ) = F (b )−h
F (a )−P(X = a )i
= F (b )− F (a−);
• P(a <X <b ) =h
F (b )−P(X =b )i
− F (a ) = F (b−)− F (a );
• P(a ≤X <b ) =h
F (b )−P(X =b )i
−h
F (a )−P(X = a )i
= F (b−)− F (a−);
De fato,
F (b )− F (a ) =∑
x i≤b
P(X = x i )−∑
x i≤a
P(X = x i )
=
∑
x i≤a
P(X = x i )+∑
a<x i≤b
P(X = x i )
−∑
x i≤a
P(X = x i )
=∑
a<x i≤b
P(X = x i ) = P(a <X ≤b ).
Exemplo 2.5. Remessas de carne são feitas periodicamente por um grande frigorífico industrial. Operíodo de entrega, isto é, o tempo transcorrido entre o recebimento do pedido e a entrega da carne,é uma variável aleatória X (medida em dias), com a seguinte função de probabilidade.
PX (x ) =
(
c (9−x ) se x = 4, 5, 6, 70 caso contrário .
Determinar:
(a) O valor da constante c; Resposta: c = 114
;
(b) A probabilidade de o período de entrega ser no mínimo 5 dias; Resposta: P(X ≥ 5) = 0, 6429.
Definição 2.7 (Variável aleatória contínua). Uma variável aleatória X é contínua se o número devalores que X possa assumir for não enumerável.
Definição 2.8 (Variável aleatória absolutamente contínua). Uma variável aleatória X é absoluta-mente contínua se existir uma função não negativa f tal que para todo x ∈R,
F (x ) =
∫ x
−∞
f (t )d t .
em que F é a função de distribuição da variável aleatória X .
Observação 2.7. Note que toda variável aleatória absolutamente contínua é uma variável alea-tória contínua mas nem toda variável aleatória contínua é uma variável aleatória absolutamentecontínua.
A função f da Definição ?? é chamada de função densidade de probabilidade, e da Definição??, segue que,
f (x ) =d F (x )
d xpara todo x ∈R aonde F for derivável.
Propriedades da função densidade: As condições necessárias e suficientes para que uma fun-ção seja uma função densidade são:
(i) f (x )≥ 0 para todo x ∈R;
(ii)∫∞
−∞f (x )d x = 1.
A partir da definição de função de distribuição para uma variável aleatória contínua tem-seque,
P
X (ω)∈ (a ,b ]
= P(a <X ≤b ) = P(a ≤X ≤b ) = P(a ≤X <b ) = P(a <X <b )
=
∫ b
a
f (x )d x = F (b )− F (a ).
para todo a ,b ∈R tal que a <b .
Exemplo 2.6. Seja X uma variável aleatória contínua. Seja f uma função como segue,
f (x ) =
(
2x se 0≤ x ≤ 1
0 caso contrário.
(a) Mostre que f é uma função densidade de probabilidade;
(b) Calcule P(X ≤ 0, 75)?
(c) Calcule P(X ≤ 0, 75|0, 5≤X ≤ 1)?
Solução:
(a) f é uma fdp pois,
(i) f (x )≥ 0 para todo x ∈R, pois
(1) Para x ∈ [0, 1] tem-se que 2x ≥ 0;
(2) Para x /∈ [0, 1] tem-se que f (x ) = 0.
(ii)∫ −∞
∞
f (x )d x =
∫ −∞
∞
2x d x = x 2
1
0= 1
Portanto,
F (x ) =
0 se x < 0
x 2 se 0≤ x ≤ 1
1 se x > 1.
(b) Do ítem anterior tem-se que,
P(X ≤ 0, 75) = F (0, 75) =
3
4
2
=9
16.
(c) temos que,
P(X ≤ 0, 75|0, 5≤X ≤ 1) =P ((X ≤ 0, 75)∩ (0, 5≤X ≤ 1))
P(0, 5≤X ≤ 1)=
P(0, 5≤X ≤ 0, 75)P(0, 5≤X ≤ 1)
=F (0, 75)− F (0, 5)
F (1)− F (0, 5)=
916− 1
4
1− 14
=5
12
2.2.1 Independência de Variáveis Aleatórias
Vamos agora definir o conceito de independência entre variáveis aleatórias. Como será visto,este conceito difere um pouco do conceito de independência entre eventos, pois agora cada variá-vel aleatória gera umaσ-álgebra, deste modo para que um conjunto de variáveis aleatórias sejamindependentes, as σ-álgebras deverão ser independentes, isto é, se tivermos n variáveis aleató-rias, então elas serão independentes se as nσ-álgebras fores independentes. Se isto ocorrer entãoquaisquer subconjunto das n variáveis aleatórias serão independentes. É exatamente este fato quedifere do conceito de independência entre eventos, isto é, n eventos independentes não implicaque são 2 a 2 independentes.
Definição 2.9 (Independência entre variáveis aleatórias). Sejam X1, . . . , Xn , n variáveis aleatóriasdefinidas no espaço de probabilidade (Ω,F , P). Então, X1, . . . , Xn são independentes se para todoboreliano da reta Bi ∈B
R
, i ∈ 1, . . . , n tivermos,
P(X1 ∈ B1, . . . , Xn ∈ Bn ) =n∏
i=1
P(X i ∈ Bi );
Pela definição acima segue que,
1. Se X1, . . . , Xn tem função de distribuição F1, . . . , Fn respectivamente, então,
F (x1, . . . ,xn ) =n∏
i=1
Fi (x i ).
2. Se X1, . . . , Xn tem função densidade f 1, . . . , f n respectivamente, então,
f (x1, . . . ,xn ) =n∏
i=1
f i (x i ).
Exemplo 2.7. Considere o experimento de lançar um moeda honesta duas vezes. Assim,
Ω=n
(c , c ), (c , r ), (r, c ), (r, r )o
.
Considere as seguintes variáveis aleatórias: X1=“número de caras nos dois lançamentos mais o nú-mero de coroas nos dois lançamentos”, X2=“número de caras nos dois lançamentos menos o númerode coroas nos dois lançamentos” assim,
Ω X1 X2
(c,c) 2 2(c,r) 2 0(r,c) 2 0(r,r) 2 -2
Deste modo, tem-se que,
X1 P(X1 = x ) X2 P(X2 = y ) P(X1 = x , X2 = y )2 1 2 1
414
2 1 0 12
12
2 1 -2 14
14
2.3 Função de Variáveis Aleatórias
Seja (Ω,F , P)um espaço de probabilidade, X uma variável aleatória neste espaço e (ΩX ,FX , PX ).Seja h :ΩX →Ruma funçãoFX -mensurável, nestas condições Y = h(X ) também será uma variávelaleatória e sua função de probabilidade induzida PY será para todo boreliano da reta B ,
P(Y ∈ B ) = P
X ∈ h−1(B )
= Pn
x ∈ΩX : h(x )∈ Bo
.
Definição 2.10. Chama-se supremo de um conjunto B à menor de suas cotas superiores. Assim, ses for o supremo de B então:
• para todo b ∈ B tem-se que b ≤ s ;
• para todo ε> 0 existe um b ∈ B tal que s −ε<b
Definição 2.11. Chama-se ínfimo de um conjunto B à maior de suas cotas inferiores. Assim, se i foro ínfimo de B então:
• para todo b ∈ B tem-se que b ≥ i ;
• para todo ε> 0 existe um b ∈ B tal que i +ε>b
Se h for uma função monótona não decrescente então a função de distribuição de Y é dadapor,
FY (y ) = P(Y ≤ y ) = P
X ≤ h−1(y )
= FX
h−1(y )
em que h−1(y ) = inf
x ∈ΩX : h(x )≥ y
é a inversa generalizada para este caso. Se h for uma funçãomonótona não crescente então a função de distribuição de Y é dada por,
FY (y ) = P(Y ≤ y ) = P
X ≥ h−1(y )
1− FX
h−1(y )−
em que h−1(y ) = inf
x ∈ΩX : h(x )≤ y
é a inversa generalizada para este caso.Se X for uma variável aleatória absolutamente contínua e h for uma função derivável e bijetora,
então a densidade de Y é dada por,
f Y (y ) =d FY (y )
d y=
d FX
h−1(y )
d y=
d FX
h−1(y )
d h−1(y )d h−1(y )
d y= f X
h−1(y )
J (x , y ).
em que
J (x , y ) =d h−1(y )
d y=
d h(x )d x
−1
x=h−1(y )
é chamado de jacobiano da transformação. Se h não for bijetora, então pode-se obter uma parti-ção do domínio da função de modo que em cada partição a função seja bijetora, nestas condiçõessegue para B1, . . . , Bk uma partição, h i a restrição da função h na partição Bi e Ji é o Jacobiano datransformação na partição Bi que,
f Y (y ) =k∑
i=1
f X
h−1i (y )
Ji (x , y ).
Exemplo 2.8. O tempo T em minutos necessário para um operário processar certa peça, é umavariável aleatória com a seguinte distribuição de probabilidade:
T(min) 2 3 4 5 6 7 t/∈ 2, 3, 4, 5, 6, 7P(t ) 0,1 0,1 0,3 0,2 0,2 0,1 0
(a) Para cada peça processada o operário ganha um fixo de R$2, 00, mais R$0, 50 por cada minutoinferior a 6 minutos. Determine a variavél aleatória X ganho do operário e a sua função dedistribuição;
Solução: Seja X = h(T ) a variável aleatória ganho do operário. Do problema tem-se que:
h(t ) =
(
2 se t = 6, 72+0, 5× (6− t ) se t = 2, 3, 4, 5
Gráficamente, temos que,
2 3 4 5 6 7
2.02.5
3.03.5
4.0
T
X
Figura 2.1: Ganho do operário
Note que h é monótona não crescente, assim
h−1(4, 0) = inft ∈ΩT : h(t )≤ 4, 0= inf2, 3, 4, 5, 6, 7= 2
Portanto,
• Para x < 2, 0 tem-se que F (x ) = 0;
• Para 2≤ x < 2, 5 tem-se que,
h−1(x ) = inft ∈ΩT : h(t )≤ x = inf6, 7= 6
assim,F (x ) = P
T ≥ h−1(x )
= P(T ≥ 6) = 0, 2+0, 1= 0, 3;
• Para 2, 5≤ x < 3, 0 tem-se que,
h−1(x ) = inft ∈ΩT : h(t )≤ x = inf5, 6, 7= 5
assim,F (x ) = P
T ≥ h−1(x )
= P(T ≥ 5) = 0, 2+0, 1+0, 2= 0, 5;
• Para 3, 0≤ x < 3, 5 tem-se que,
h−1(x ) = inft ∈ΩT : h(t )≤ x = inf4, 5, 6, 7= 4
assim,F (x ) = P
T ≥ h−1(x )
= P(T ≥ 4) = 0, 2+0, 1+0, 2+0, 3= 0, 8;
• Para 3, 5≤ x < 4, 0 tem-se que,
h−1(x ) = inft ∈ΩT : h(t )≤ x = inf3, 4, 5, 6, 7= 3
assim,F (x ) = P
T ≥ h−1(x )
= P(T ≥ 3) = 0, 2+0, 1+0, 2+0, 3+0, 1= 0, 9;
• Para x ≥ 4, 0 tem-se que,
h−1(x ) = inft ∈ΩT : h(t )≤ x = inf2, 3, 4, 5, 6, 7= 2
assim,
F (x ) = P
T ≥ h−1(x )
= P(T ≥ 3) = 0, 2+0, 1+0, 2+0, 3+0, 1+0, 1= 1;
F (x ) =
0 se x < 2
0, 3 se 2, 0≤ x < 2, 5
0, 5 se 2, 5≤ x < 3, 0
0, 8 se 3, 0≤ x < 3, 5
0, 9 se 3, 5≤ x < 4, 0
1 se x ≥ 4, 0
2.4 Esperança de uma variável aleatória
A esperança de uma variável aleatória nada mais é que o valor médio esperado da variável. Poreste motivo a esperança é usualmente denominado de valor esperado.
Definição 2.12 (Valor Esperado). Seja
Ω,F , P
um espaço de probabilidade, X variável aleatória
neste espaço e
ΩX ,FX , PX
o espaço de probabilidade induzido por X . Então o valor esperado de X ,
denotado por E (X ), é para o caso em que X é discreta,
E (X ) =∑
x∈ΩX
x P(x )
e para o caso em que X é contínua
E (X ) =
∫ ∞
−∞
x f (x )d x
em ambos os casos uma condição suficiente para a existência do valor esperado é E
|X |
<∞.
O incômodo desta definição é que temos que provar cada teorema duas vezes para caso dis-creto e para o caso absolutamente contínuo, isto sem levar em conta os outros tipos de variáveisaleatórias. Uma maneira de unificar estas definições e torna-la um pouco mais geral é utilizar oconceito da integral de Riemann-Stieltjes.
Definição 2.13 (Riemann-Stieltjes). Sejam h e F duas funções reais definidas no intervalo [a ,b ],com F uma função monótona não decrescente contínua à direita. Seja B =
n
x0,x1, . . . ,xn
o
uma
partição de [a ,b ] em que a = x0 < x1 < . . .< xn−1 < xn = b . Então a integral de Riemann-Stieltjes édefinida como,
∫ b
a
h(x )d F (x ) = limmax |x j−x j−1|→0
∑
x i∈B
h(xk i )[F (x i )− F (x i−1)]
se o limite existir, em que x i ≤ xk i ≤ x i−1. Neste caso, diz-se que h é Riemann-Stieltjes integrável comrelação a F .
Se F for uma função degrau contínua à direita então
∫ b
a
h(x )d F (x ) =∑
x∈(a ,b ]:F (x )−F (x−)>0
h(x )[F (x )− F (x−)],
se F for uma função de distribuição então observe que F (x )− F (x−) = P(X = x ). Se F ′ = f (x ) em[a ,b ] então,
∫ b
a
h(x )d F (x ) =
∫ b
a
h(x ) f (x )x d x .
Note que para F (x ) = x então tem-se a integral de Riemann. O caso em que o intervalo é infinito étratado tomando-se o limite nos extremos de integração.
Definição 2.14. Seja X uma variável aleatória com função distribuição F . O valor esperado de X édado por,
E (X ) =
∫ ∞
−∞
x d F (x )
se E
|X |
<∞.
Exemplo 2.9. Seja X uma variável aleatória com função de distribuição,
F (x ) =
0 se x < 0
0, 5 se 0≤ x < 1
0, 75 se 1≤ x < 2
1 se x ≥ 2.
então,
E (x ) =∑
x∈R:F (x )−F (x−)>0
x [F (x )− F (x−)]
=∑
x∈0,1,2
x [F (x )− F (x−)]
= 0× [F (0)− F (0−)]+1× [F (1)− F (1−)]+2× [F (2)− F (2−)]
= 0×0, 5+1×0, 25+2×0, 25= 0, 75=3
4
Considere agora que X tem função de distribuição dada por
F (x ) =
0 se x < 0
x 2 se 0≤ x ≤ 1
1 sex ≥ 1
então,
F′(x ) = f (x ) =
(
2x se 0≤ x ≤ 1
0 caso contrário.
assim,
E (X ) =
∫ ∞
−∞
x d F (x ) =
∫ 0
−∞
x ×0d x +
∫ 1
0
x ×2x d x +
∫ ∞
1
x ×0d x =2
3.
2.4.1 Propriedades da Esperança
1. Seja c ∈R uma constante, então E (c ) = c ;
2. Seja h uma função uma funçãoFX -mensurável, então para Y = h(X ) tem-se que
E (Y ) =
∫ ∞
−∞
y d FY (y ) =
∫ ∞
−∞
h(x )d FX (x ).
Assim, se X for uma variável aleatória discreta então,
E (Y ) =∑
x∈ΩX
h(x )P(x )
e, se X for uma variável aleatória for absolutamnte contínua então,
E (Y ) =
∫ ∞
−∞
h(x ) f (x )d x .
3. Sejam X1, . . . , Xn n variáveis aleatória então
E
n∑
i=1
X i
!
=n∑
i=1
E (X i ).
2.5 Variância de uma variável aleatória
Definição 2.15. Seja X uma variável aleatória definida no espaço de probabilidade (Ω,F , P). Entãoa variância da variável aleatória X , denotado por V a r (X ) ouσ2 é,
V a r (X ) = E
(X −E (X ))2
=
∫ ∞
−∞
(x −µX )2d F (x ) = E (X 2)−
E (X )2.
Assim, se X é uma variável aleatória discreta, então
V a r (X ) =∑
x∈ΩX
(x −µX )2P(X = x ) =∑
x∈ΩX
x 2P(X = x )−
∑
x∈ΩX
x P(X = x )
2
em que µX = E (X ). Se X é uma variável aleatória contínua, então
V a r (X ) =
∫ ∞
−∞
(x −µX )2 f (x )d x =
∫ ∞
−∞
x 2 f (x )d x −∫ ∞
−∞
x f (x )d x
2
.
Exemplo 2.10. Seja X uma variável aleatória com função de distribuição,
F (x ) =
0 se x < 0
0, 5 se 0≤ x < 1
0, 75 se 1≤ x < 2
1 se x ≥ 2.
então,
E (x 2) =∑
x∈0,1,2
x 2[F (x )− F (x−)] = 02× [F (0)− F (0−)]+12× [F (1)− F (1−)]+22× [F (2)− F (2−)]
= 0×0, 5+1×0, 25+4×0, 25= 1, 25=5
4.
logo,
V a r (X ) =5
4−
3
4
2
=11
16.
Considere agora que X tem função de distribuição dada por
F (x ) =
0 se x < 0
x 2 se 0≤ x ≤ 1
1 sex ≥ 1
então,
F′(x ) = f (x ) =
(
2x se 0≤ x ≤ 1
0 caso contrário.
assim,
E (X 2) =
∫ ∞
−∞
x 2d F (x ) =
∫ 0
−∞
x 2×0d x +
∫ 1
0
x 2×2x d x +
∫ ∞
1
x 2×0d x =x 4
2
1
0
=1
2.
assim,
V a r (X ) =1
2−
2
3
2
=1
18.
2.5.1 Propriedades da Variância
1. V a r (c ) = 0, pois E ((c −E (c ))2) = 0;
2. V a r (X ± c ) =V a r (X ), pois
V a r (X + c ) = E
(X + c −E (X + c ))2
= E
(X + c −E (X )− c )2
= E
(X −E (X ))2
=V a r (X ).
3. V a r (c X ) = c 2V a r (X ), pois
V a r (c X ) = E
(c X )2
−
E (c X )2 = E
c 2X 2−
c E (X )2
= c 2E
X 2− c 2E (X )2 = c 2
h
E
X 2−
E (X )2i
= c 2V a r (X ).
4. Sejam X1, . . . , Xn n variáveis aleatória então,
V a r
n∑
i=1
!
=n∑
i=1
V a r (X i )+2n−1∑
j=1
n∑
i=j+1
Cov (X j X i ).
em que,
Cov (X j , X i ) = E
(X j −E (X j ))(X i −E (X i ))
=
∫ ∞
−∞
∫ ∞
−∞
(x −µX j )(y −µX i )d F (x , y ) = E (X i X j )−E (X i )E (X j ),
é a covariância entre as variáveis X i e X j , também denotada por σX ,Y , e F (x , y ) é a funçãode distribuição conjunta de X i e X j . A covariância é uma medida de dependencia linear.Entretanto, para que se possa fazer comparações é mais adequado padronizar esta medida,assim
ρX ,Y =Cov (X j , X i )
p
V a r (X i )V a r (X j )
A medida resultante desta padronização é denominada coeficiente de correlação linear edenotada por ρX ,Y ou ρ(X , Y ). Deste modo, pode-se provar que −1≤ ρX ,Y ≤ 1. Se X1, . . . , Xn
forem independentes então, ρX ,Y = 0 logo Cov (X j , X i ) = 0, assim,
V a r
n∑
i=1
!
=n∑
i=1
V a r (X i ).
De fato, note que
(z 1+ . . .+ z n )2 =
n∑
i=1
z i
!
n∑
j=1
z j
=
n∑
j=1
n∑
i=1
z j z i
=n∑
i=1
z 2i +(z 1z 2+ z 1z 3+ · · ·+ z 1z n )+ (z 2z 1+ z 2z 3+ · · ·+ z 2z n )
+ (z 3z 1+ z 3z 2+ · · ·+ z 3z n )+ · · ·+(z n z 1+ z n z 2+ z n z 3+ · · ·+ z n z n−1)
=n∑
i=1
z 2i +2
n−1∑
j=1
n∑
i=j+1
z j z i .
assim,
V a r
n∑
i=1
X i
!
= E
n∑
i=1
X i
2!
−
E
n∑
i=1
X i
!2
= E
n∑
i=1
X 2i +2
n−1∑
j=1
n∑
i=j+1
X j X i
−
n∑
i=1
E (X i )2
= E
n∑
i=1
X 2i
!
+E
2
n−1∑
j=1
n∑
i=j+1
X j X i
−
n∑
i=1
[E (X i )]2+2n−1∑
j=1
n∑
i=j+1
E (X j )E (X i )
=n∑
i=1
E (X 2i )−
n∑
i=1
[E (X i )]2+2n−1∑
j=1
n∑
i=j+1
E (X j X i )−2n−1∑
j=1
n∑
i=j+1
E (X j )E (X i )
=n∑
i=1
E (X 2i )− [E (X i )]2
+2n−1∑
j=1
n∑
i=j+1
E (X j X i )−E (X j )E (X i )
=n∑
i=1
V a r (X i )+2n−1∑
j=1
n∑
i=j+1
Cov (X i , X j ).
Se X1, . . . , Xn forem independentes então, FX i ,X j (x i ,x j ) = FX i (x i )FX j (x j ) para todo i 6= j , assim
E (X j X i ) =
∫ ∞
−∞
∫ ∞
−∞
x i x j d FX i ,X j (x i ,x j ) =
∫ ∞
−∞
∫ ∞
−∞
x i x j d FX i (x i )d FX j (x j )
=
∫ ∞
−∞
x i d FX i (x i )
∫ ∞
−∞
x j d FX j (x j )
= E (X j )E (X i ).
Logo,
Cov (X i , X j ) = E (X i X j )−E (X i )E (X j ) = 0.
Observação 2.8. Note que se X e Y são variáveis aleatórias independentes entãoρX ,Y =Cov (X , Y ) =0, entretanto, ρX ,Y =Cov (X , Y ) = 0 não implica que X e Y são variáveis aleatórias independentes.
Um resultado interessante que relaciona a probabilidade de um evento com sua sua variância édada pela desigualdade de Chebyschev.
Teorema 2.1 (Desigualdade de Chebyschev). Seja X uma variável aleatória tal que a variânciaexista. Então para qualquer constante c > 0, tem-se que
P
|X −µX | ≥ c
≤V a r (X )
c 2.
Demonstração. De fato,
V a r (X ) =
∫ ∞
−∞
(x −µX )2d F (x )
=
∫
x∈R:|X−µX |<c(x −µX )2d F (x )+
∫
x∈R:|X−µX |≥c(x −µX )2d F (x )
≥∫
x∈R:|X−µX |≥c(x −µX )2d F (x )
Agora note que, como c > 0 tem-se que |X −µX | ≥ c implica que (X −µX )2 ≥ c 2, assim
V a r (X )≥∫
x∈R:|X−µX |≥c(x −µX )2d F (x )
≥∫
x∈R:|X−µX |≥cc 2d F (x )
= c 2
∫
x∈R:|X−µX |≥cd F (x ) = c 2P
|X −µX | ≥ c
2.6 Função Geradora de Momentos
Até o momento exploramos duas características importantes sobre variáveis aleatórias que fo-ram o valor esperado e a variância. Nesta seção, vamos apresentar o conceito de momentos ede função geradora de momentos(FGM). A função geradora de momentos é assim chamada poisatravés da FGM pode-se determinar os momentos de uma variável aleatória. Outra característicaimportante da FGM é que se ela existir então pode ser utilizada para caracterizar uma variável ale-atória. Isto é, se duas variáveis aleatórias possuirem a mesma FGM então elas possuem a mesmafunção de distribuição.
Definição 2.16. Seja X uma variável aleatória com função de distribuição F . Então o momento deordem k é definido como,
µk = E (X k ) =
∫ ∞
−∞
x k d F (x )
se E
|X k |
<∞ e o momento central de ordem k é definido como,
E ((X −µX )k ) =
∫ ∞
−∞
(x −µX )k d F (x ).
Note da definição acima que, o valor esperado é o momento de ordem 1 e a variância é o mo-mento central de ordem k que pode ser expresso, como já visto, como a diferença entre o momentode ordem 2 e o quadrado do momento de ordem 1.
Definição 2.17. Seja X uma variável aleatória com função de distribuição F . Então sua funçãogeradora de momentos é definida como,
M X (t ) = E
e t X
=
∫ ∞
−∞
e t x d F (x )
desde que a esperança seja finita para |t |< to real, com t0 > 0, isto é, a esperança deve ser finita paravalores de t numa vizinhança de zero.
Exemplo 2.11. Seja X uma variável aleatória com função de distribuição,
F (x ) =
0 se x < 0
0, 5 se 0≤ x < 1
0, 75 se 1≤ x < 2
1 se x ≥ 2.
então a FGM de X é dada por,
M X (t ) = E
e t X
=∑
x∈0,1,2
e t x P(X = x )
= 1×0, 5+ e t ×0, 25+ e 2t ×0, 25= 0, 5+0, 25
e t + e 2t
.
Considere agora que X tem função de distribuição dada por
F (x ) =
0 se x < 0
x 2 se 0≤ x < 1
1 sex ≥ 1
então,
F′(x ) = f (x ) =
(
2x se 0≤ x < 1
0 caso contrário.
assim, utilizando a integral por partes∫
f ′(x )g (x )d x = f (x )g (x )−∫
f (x )g ′(x )d x
, tem-se que
M X (t ) =
∫ ∞
−∞
e t x d F (x ) =
∫ 0
−∞
e t x ×0d x +
∫ 1
0
e t x ×2x d x +
∫ ∞
1
e t x ×0d x
=2
tx e t x
1
0
−2
t
∫ 1
0
e t x d x =2
te t −
2
t 2e t x
1
0
=2
te t −
2
t 2e t +
2
t.
Note que neste caso quando t → 0, M X (t ) não é finita, logo não existe FGM.
2.6.1 Propriedades da Função Geradora - FGM
Suponha que a FGM de X exista para |t |< to , to > 0, então:
1. Para n ∈N tem-se que
E (X n ) =∂ n M X (t )∂ t n
t=0
.
Demonstração. De fato, primeiro note que,
e t x =∞∑
k=0
(t x )k
k != 1+ t x +
(t x )22!+ · · ·
aplicando a esperança, em ambos os lados tem-se que,
M X (t ) = E
∞∑
k=0
(t x )k
k !
!
=∞∑
k=0
(t )k
k !E (X k )
Assim,
∂ n M X (t )∂ t n
t=0
=∂ n
∑∞k=0
(t )k
k !E (X k )
∂ t n
t=0
=∞∑
k=0
E (X k )∂ n
(t )k
k !
∂ t n
t=0
Assim, para n = k tem-se que∂ n M X (t )∂ t n
t=0
= E (X n ).
2. Para X1, . . . , Xn variáveis aleatórias independentes com FGM’s M X1 , . . . , M Xn respectivamentee Y =X1+ · · · , Xn , então a função geradora de Y existe e é dada por,
M Y (t ) =n∏
i=1
M X i (t ).
Demonstração. De fato,
M Y (t ) = E
e t Y
= E
e t (X1+··· ,Xn )
= E
e t X1 × · · ·× e t Xn
=
∫ ∞
−∞
· · ·∫ ∞
−∞
e t x1 × · · ·× e t xn d F (x1, . . . ,xn )
=
∫ ∞
−∞
· · ·∫ ∞
−∞
e t x1 × · · ·× e t xn d FX1(x1) · · ·d FXn (xn )
=
∫ ∞
−∞
e t x 11 d FX1(x1)· · ·∫ ∞
−∞
e t xn d FXn (xn )
= E
e t X1
× · · ·×E
e t Xn
=n∏
i=1
M X i (t ).
3. Para X uma variável aleatória com função geradora de momentos M X . Seja Y = a X +b emque a e b são constantes. Então, a FGM de Y é dada por M Y (t ) = e b M X (a t ).
Demonstração. De fato,
M Y (t ) = E
e t Y
= E
e t (a X+b )
= E
e a t X e b t
= e b t E
e a t X
.
4. Para t = 0 tem-se que M X (0) = 1.
Demonstração. De fato, se a FGM existe então,
M X (0) = E
e t×0
= E (1) = 1.
5. Se FX , FY e M X (t ), M Y (t ) são respectivamente, as funções de distribuição e as FGM’s de Xe Y então FX (a ) = FY (a ) para todo a ∈ R se, e somente se, M X (t ) = M Y (t ) para todo t em|t | < t0, t0 > 0. Em outra palavras, Se X e Y tem a mesma função de distribuição então elaspossuem a mesma FGM, do mesmo modo se X e Y tem a mesma FGM então elas possuema mesma função de distribuição.
Demonstração. A demosntração deste fato não será feita pois precisaríamos de alguns re-sultados da análise que estão fora do escopo deste curso.
Observação 2.9. A propriedade (4) afirma que se a função geradora de momentos existir então seuvalor em t = 0 deve ser necessáriamente 1.
Observação 2.10. A propriedade (5) nos informa que se a função geradora de momentos existirentão ela pode ser utilizada para caracterizar uma distribuição de probabilidade.
Exemplo 2.12. Do exemplo anterior tem-se para M X (t ) = 0, 5+0, 25 (e t + e 2t ),
M′
X (t )
t = 0= 0, 25
e t +2e 2t
t=0= 0, 25(1+2) = 0, 75=
3
4;
e
M′′
X (t )
t = 0= 0, 25
e t +4e 2t
t=0= 0, 25(1+4) = 1, 25=
5
4.
Logo,
V a r (X ) =5
4−
3
4
2
=11
16.
Note ainda que para t = 0 tem-se M X (0) = 1.
Um resultado semelhante à desigualdade de Chebyschev, mas que neste caso relaciona o pro-babilidade de um evento com seu momento de ordem k é a desigualdade de Markov.
Teorema 2.2 (Desigualdade de Markov). Seja X uma variável aleatória tal que E (|X |k ) <∞ paraK > 0. Então para quaisquer k , c > 0, tem-se que
P
|X | ≥ c
≤E (|X |k )
c k.
Demonstração. A prova é semelhante à feita no teorema da Desigualdade de Chebyschev.
Capítulo 3
Modelos Probabilísticos para variáveisaleatórias discretas
Neste capítulo vamos apresentar alguns dos modelos mais usuais para variáveis aleatórias dis-cretas: Uniforme discreta, Bernoulli, Binomial, Geométrica, Binomial Negativa, Hipergeométricae Poisson. Existem ainda muitos outros modelos, entretanto, estes são os mais conhecidos.
3.1 Alguns Resultados Úteis
A seguir é apresentado alguns resultados que serão úteis em algumas demonstrações. Seja0< a ,b < 1, então:
1. (a +b )n =∑n
x=0
nx
a x b n−x e (a +b )n−1 =∑n−1
x=0
n−1x
a x b n−1−x ;
2. e x =∑∞
n=0x n
n !
3.∑∞
x=k a x =a k
1−a, k ≥ 0;
4.∑∞
x=1 x a x =a
(1−a )2;
5.∑∞
x=2 x (x −1)a x =2a 2
(1−a )3;
6. xn
x
= nn−1
x−1
;
7.n
r
= nr
n−1r−1
;
8.∑r
x=0
mx
n−mr−x
nr
= 1 e∑r−1
x=0
m−1x
n−1−m−1r−1−x
n−1r−1
= 1;
9.∑∞
x=0 [(1−a )e t ]x =1
1− (1−a )e tpara t < ln
11−a
, pois (1−a )e t < 1 para a série ser conver-
gente;
10. 1(1−b )r =
∑∞x=0
x+r−1r−1
b x .
45
3.2 Distribuição Uniforme Discreta
Seja (Ω,F , P) um espaço de probabilidade e A i , i = 1, . . . , n uma partição de Ω tal que P(A i ) =p para todo i ∈ 1, . . . , n. Então uma variável aleatória X neste espaço tal que
X (ω) =n∑
i=1
x i IA i (ω)
tem função de probabilidade dada por,
P(X = x ) = p Ix1,...,xn (x )
em que,
p =1
npois,
i=1∑
n
P(X = x i ) = np = 1, logo p =1
n.
Esta distribuição de probabilidade é denominada de distribuição uniforme discreta e denotadopor X ∼Ud [E ], em que E é conjuntos de valores que X pode assumir.
Note que neste caso o espaço de probabilidade induzido por X é um espaço de eventos equi-prováveis.
Exemplo 3.1. O lançamento de uma moeda honesta é um caso em que X ∼Ud [0, 1], neste caso
P(X = x ) =1
2I0,1(x )
Já para o lançamento de um dado honesto tem-se X ∼Ud [1, . . . , 6], tem-se
P(X = x ) =1
6I1,...,6(x )
3.2.1 Esperança, variância e função geradora de momentos
Para X ∼Ud [E ] tem-se que,
E (X ) =n∑
i=1
x i P(X = x i ) =n∑
i=1
x i1
n=
1
n
n∑
i=1
x i .
V a r (X ) =n∑
i=1
(x i −µX )2P(X = x i ) =1
n
n∑
i=1
(x i −µX )2.
e a função geradora de momentos é dada por,
M X (t ) =n∑
i=1
e t x i P(X = x i ) =n∑
i=1
e t x i1
n
=1
n
n∑
i=1
e t x i .
3.3 Distribuição de Bernoulli
Seja (Ω,F , P) um espaço de probabilidade e X uma variável aleatória neste espaço tal que paraum dado evento de interesse A ∈F tem-se,
X (ω) = IA(ω)
Nestas condições segue que a função distribuição de X é dado por,
PX (x ) = p x × (1−p )1−x I0,1(x )
Uma função de probabilidade assim definida é chamada de distribuição de Bernoulli. Agora ob-serve que p = P(A). De fato, para x = 1 tem-se,
PX (1) = p = P
X−1(1)
= P(A).
Os experimentos que originam uma variável aleatória com distribuição de Bernoulli são chama-dos de experimentos de Bernoulli.
Notação: Se uma variável aleatória X possui distribuição(ou lei) de probabilidade então é usuala seguinte notação, X ∼b e r (p ).
Note o espaço amostral Ω pode ser enumerável ou não enumerável. Deste modo, o evento deinteresse A pode conter:
• um único elemento, por exemplo, Ω= c a r a , coroa , A = coroa e Ac = c a r a ;
• vários elementos, por exemplo, Ω= 1, 2, 3, 4, 5, 6 A = 2, 4, 6 e Ac = 1, 3, 5;
• um número não enumerável de elementos, por exemplo, Ω= x ∈R : 0< x ≤ 3, A = x ∈R :x > 1, 65 e Ac = x ∈R : x ≤ 1, 65;
3.3.1 Esperança, variância e função geradora de momentos
Para X ∼b e r (p ) tem-se que,
E (X ) =1∑
x=0
x P(x ) = 0× (1−p )+1×p = p .
V a r (X ) = E (X 2)− [E (X )]2 =1∑
x=0
x 2P(x )−p 2 = 02× (1−p )+12×p −p 2 = p (1−p ).
e
M X (t ) =1∑
x=0
e t x P(X = x ) =1∑
x=0
e t x p x × (1−p )1−x = 1−p +p e t .
Exemplo 3.2. Considere E=lançamento de um dado. Considere que o evento de interesse seja aocorrência de um número par, portanto A = 2, 4, 6 assim
X (ω) =
(
1 seω∈ 2, 4, 60 seω∈ 1, 3, 5
e p = P(A) = 36= 0, 5. Portanto, a função de probabilidade de X é dada por,
P(x ) =
(
0, 5x ×0, 51−x se x=0,1
0 caso contrário
3.4 Distribuição Binomial
Considere agora que um experimento de Bernoulli é repetido n vezes de maneira indepen-dente, isto é, o espaço de probabilidade (Ω,F , P) associado ao experimento na i-ésima repetição éo mesmo em todas as n repetições do experimento. Seja (Ωn ,Fn , Pn ) o espaço de probabilidade aoexperimento composto das n repetições, assim Ωn = Ω× · · ·×Ω
︸ ︷︷ ︸
n vezes
e X uma variável aleatória neste
espaço tal que para um dado evento de interesse A ∈F a variável aleatória X conta o número devezes que o evento A ocorre em n repetições independentes de um experimento de Bernoulli. Nes-tas condições, seja Yi = IA(ω) ∼ b e r (p ) na i-ésima repetição do experimento, então X =
∑ni=1 Yi .
Nestas condições, segue que a função de probabilidade de X é dado por,
P(X = x ) =
n
x
p x × (1−p )n−x I0,1,2,...,n(x )
Em que p = P(A). De fato, considere x = n , assim,
PX (n ) =
n
n
p n × (1−p )n−n = p n = Pn
X−1(n )
= Pn
×ni=1A
=n∏
i=1
P(A) pela independência dos eventos
= P(A)n
Portanto, p = P(A). Notação: X ∼b i n (n , p ).Note que
nx
representa o número de permutações com repetição dos n elementos em que Aaparece x vezes e Ac n − x vezes. Note que neste caso, como só temos 2 elementos distintos, apermutação com repetição é igual a combinação simples. Uma forma de ver isso é pensar nãonos elementos da permutação mas sim nas posições que eles iram assumir. Deste modo, temoso seguinte problema: temos n posições 1, . . . , n que representam n elementos distintos e devemosescolher x posições, neste caso o número de conjuntos distintos que podemos formar é a combi-nação simples de n elementos tomados x a x . Por exemplo, seja n = 3 e x = 2 então os arranjospossíveis são:
n
(A, A, Ac ), (A, Ac , A), (Ac , A, A)o
portanto 3 arranjos possíveis. Então a probabilidade do evento A ocorrer duas vezes em três repe-tições independentes do experimento é,
P
(A, A, Ac ), (A, Ac , A), (Ac , A, A)
= P(A, A, Ac )+P(A, Ac , A)+P(Ac , A, A)
= P(A ∩A ∩Ac )+P(A ∩Ac ∩A)+P(Ac ∩A ∩A)
= P(A)P(A)P(Ac )+P(A)P(Ac )P(A)+P(Ac )P(A)P(A)
= 3×p 2(1−p ) =
3
2
×P(A)P(A)P(Ac ).
Exemplo 3.3. ConsidereE=lançamento de uma moeda 10 vezes. Considere que o evento de interesseseja a ocorrência da face cara. Deste modo, qual a probabilidade de ocorrer 4 caras? Tem-se quep = P(A) = P(c ) = 0, 5. Da definição segue que,
PX (4) =
10
4
0, 54× (1−0, 5)10−4 =10!
4!6!0, 54×0, 56 = 0, 2051.
3.4.1 Esperança, variância e função geradora de momentos
Para X ∼b i n (n , p ) tem-se que,
E (X ) =n∑
x=0
x P(X = x ) =n∑
x=1
x
n
x
p x × (1−p )n−x =n∑
x=1
xn
x
n −1
x −1
p x × (1−p )n−x
=n∑
x=1
n
n −1
x −1
p ×p x−1× (1−p )n−x = npn∑
x=1
n −1
x −1
p x−1× (1−p )n−x−1+1
= npn∑
x=1
n −1
x −1
p x−1× (1−p )(n−1)−(x−1).
Fazendo y = x−1 tem-se que x = 1 implica y = 0 e x = n então y = n−1. Assim, como (a+b )n−1 =∑n−1
i=0 a i b n−1−i , tem-se que
E (X ) = npn−1∑
y=0
n −1
y
p y × (1−p )n−1−y
︸ ︷︷ ︸
(p+1−p )n−1=1
= np .
e
E (X 2) =n∑
x=1
x 2
n
x
p x × (1−p )n−x =n∑
x=1
x (x −1+1)
n
x
p x × (1−p )n−x
=n∑
x=1
x (x −1)
n
x
p x × (1−p )n−x +n∑
x=1
x
n
x
p x × (1−p )n−x
=n∑
x=1
x (x −1)n (n −1)x (x −1)
n −2
x −2
p x × (1−p )n−x +E (X )
= n (n −1)n∑
x=1
n −2
x −2
p 2×p x−2× (1−p )n−x−2+2+np
= n (n −1)p 2n∑
x=2
n −2
x −2
p x−2× (1−p )(n−2)−(x−2)+np
= n (n −1)p 2× (p +1−p )n−2+np .
portanto, V a r (X ) = n (n−1)p 2×(p+1−p )+np−[np ]2 = np−np 2 = np (1−p ). A função geradorade momentos é dada por,
M X (t ) =n∑
x=0
e t x P(X = x ) =n∑
x=0
e t x
n
x
p x × (1−p )n−x
=n∑
x=0
n
x
p e t x × (1−p )n−x =
1−p +p e t n .
Exemplo 3.4. A taxa de imunização de uma vacina é 80%. Se um grupo de 20 pessoas são vacinadas,
(a) Qual a probabilidade que 15 fiquem imunizadas?
Solução: Seja X o número de pessoas imunizadas em 20 então X ∼b i n (20, 0.8). Logo,
P(X = 15) =
20
15
0, 815×0, 220−15 = 0, 1746.
(b) Qual a imunização média para um grupo de 20 pessoas?
Solução: E (X ) = 20×0, 8= 16.
(c) Qual a probabilidade que a imunização seja superior a E (X )+V a r (X ).
Solução: Tem-se que V a r (X ) = 20×0, 8×0, 2= 3, 2. Assim,
P(X > 16+3, 2) = P(X > 20) = 0, 820 = 0, 0115.
3.5 Distribuição Geométrica
Considere uma seqüência independente de experimentos de Bernoulli,isto é, o espaço de pro-babilidade (Ω,F , P) associado ao experimento na i-ésima repetição é o mesmo em todas as re-petições do experimento. Seja (Ω∞,F∞, P∞) o espaço de probabilidade associado ao experimentocomposto de uma seqüência de repetições independentes e X uma variável aleatória neste espaçotal que para um dado evento de interesse A ∈ F a variável aleatória X conta o número de vezesque o experimento é repetido antes que o evento de interesse ocorra pela primeira vez, ou seja, Xé o “tempo de espera” antes que o evento de interesse aconteça. Esquematicamente,
Ac ×Ac × · · ·×Ac︸ ︷︷ ︸
x eventos
×A
Nestas condições segue que a função de probabilidade de X é dado por,
P(X = x ) = p × (1−p )x I0,1,2,...(x )
Em que p = P(A)(verifique!). Notação: X ∼G eo(p ).Outra maneira de modelar este experimento é fazer Y igual ao número de vezes que o experi-
mento é repetido até que o evento de interesse ocorra pela primeira vez, isto é,
y eventos︷ ︸︸ ︷
Ac ×Ac × · · ·×Ac︸ ︷︷ ︸
y-1 eventos
×A .
Logo,P(Y = y ) = p × (1−p )y−1I1,2,...(y ).
Note que Y =X +1, assim E (Y ) = E (X )+1 e V a r (Y ) =V a r (X ).
3.5.1 Esperança, variância e função geradora de momentos
Para X ∼G eo(p ) tem-se que,
E (X ) =∞∑
x=0
x P(X = x ) =∞∑
x=1
x p × (1−p )x = p∞∑
x=1
x × (1−p )x .
Agora note que,∂
∂ p(1−p )x =−x (1−p )x−1 =
−x (1−p )x
1−p
logo,
−(1−p )∂
∂ p(1−p )x = x (1−p )x
assim,
E (X ) = p∞∑
x=0
−(1−p )∂
∂ p(1−p )x
=−p (1−p )∞∑
x=0
∂
∂ p(1−p )x .
Agora, note que∑∞
x=0(1−p )x converge pois 1−p < 1, logo pode-se permutar a ordem do somatóriocom a derivação, assim
E (X ) =−p (1−p )∂
∂ p
∞∑
x=0
(1−p )x
=−p (1−p )∂
∂ p
1
p=−p (1−p )
−1
p 2=
1−p
p.
Vamos agora calcular o segundo momento para podermos determinar a variância de X . Assim,
E (X 2) =∞∑
x=0
x 2p × (1−p )x = p∞∑
x=0
x 2× (1−p )x .
Agora note que,∂
∂ px (1−p )x =−x 2(1−p )x−1 =
−x 2(1−p )x
1−p
logo,
−(1−p )∂
∂ px (1−p )x = x 2(1−p )x
assim,
E (X 2) = p∞∑
x=0
x 2× (1−p )x = p∞∑
x=0
−(1−p )∂
∂ px (1−p )x
=−p (1−p )∞∑
x=0
∂
∂ px (1−p )x
=−p (1−p )∂
∂ p
∞∑
x=0
x (1−p )x
=−(1−p )∂
∂ p
∞∑
x=0
x (1−p )x
=−p (1−p )∂
∂ p
1−p
p 2
=−p (1−p )−p 2− (1−p )2p
p 4=−p (1−p )
p (p −2)p 4
=(1−p )(p −2)
p 2=(1−p )(2−p )
p 2.
portanto,
V a r (X ) =(1−p )(2−p )
p 2−(1−p )2
p 2=
1−p
p 2
A função geradora de momentos é dada por,
M X (t ) =∞∑
x=0
e t x p × (1−p )x = p∞∑
x=0
(1−p )× e t x = p1
1− (1−p )e t=
p
1− (1−p )e t.
Exemplo 3.5. Uma linha de fabricação de um equipamento de precisão é interrompida na primeiraocorrência de um defeito. Feita a manutenção, a probabilidade do equipamento apresentar defeitoem um dia qualquer é 0,01. Deseja-se planejar o cronograma de manutenção preventiva e, para tal,decidiu-se avaliar probabilisticamente a espera até a produção ser interrompida. Seja X a variávelaleatória que conta o número de dias que antecedem a interrupção. Admitindo que exista inde-pendência entre o desempenho nos sucessivos dias, qual o intervalo ideal para uma manutençãopreventiva, se desejamos uma probabilidade de, pelo menos, 0,90 que o defeito não ocorrerá?
Solução: Temos que X ∼ G eo(0, 01). Dessa forma, como X conta os dias antes a interrupçãoocorra, tem-se que,
P(X = x ) = 0, 01×0, 99x I0,1,2,...(x ).
Agora note que
X = 0
é o evento “ocorrer um defeito no dia em que foi feita manutenção”,
X = 1
é o evento “ocorrer um defeito um dia após a manutenção” assim
X = k
é o evento “ocorrer umdefeito no k-ésimo dia após a manutenção”. Deste modo,
X > k
é o evento “ocorrer um defeitoapós o k-ésimo dia após a manutenção” que é igual o mesmo que “não ocorrer defeito até o k-ésimodia após a manutenção”. Assim, deseja-se determinar k tal que P(X > k )≥ 0, 9, ou P(X ≤ k )≤ 0, 10.Assim,
P(X ≤ k ) =k∑
x=0
0, 01×0, 99x ≤ 0, 10.
Agora note que
Sn =q 0+q 1+q 2+ · · ·+q k
qSn =q 1+q 2+q 3+ · · ·+q k+1
Logo, fazendo Sn −qSn tem-se que,
(1−q )Sn =q 0−q k+1 logo, Sn =1−q k+1
1−q.
portanto,
P(X ≤ k ) = 0, 011−0, 99k+1
1−0, 99= 1−0, 99k+1 ≤ 0, 1
assim,
0, 99k+1 ≥ 0, 90⇒ k +1≤ln(0, 9)
ln(0, 99)
portanto, k ≤ ln(0,9)ln(0,99) −1= 10, 48−1= 9, 48. Logo, a manutenção deve ser feita após 9 dias de opera-
ção.
3.5.2 Falta de memória da Geométrica
Seja X ∼G eo(p ) e vamos verificar que, para quaisquer números inteirar positivos m e n, vale
P(X ≥m +n |X ≥m ) = P(X ≥ n ).
Essa propriedade é conhecida como falta de memória. Ela indica a maneira como a variável in-corpora a informação anterior. Em termos ilustrativos, podemos considerar que a variável "lem-bra"do presente, mas "esqueceu"do que ocorreu no passado. Por exemplo, se X representasse aespera em dias para a ocorrência de um certo evento, a probabilidade condicional acima repre-sentaria a probabilidade de espera de pelo menos m +n dias, sabendo que o evento não ocorreuantes de m dias. A propriedade da falta de memória estabelece que essa probabilidade é a mesmade esperar pelo menos n dias. Para verificar a propriedade, observe que
P(X ≥m +n |X ≥m ) =P(X ≥m +n , X ≥m )
P(X ≥m )=
P(X ≥m +n )P(X ≥m )
Agora note que, para qualquer inteiro positivo a tem-se
P(X ≥ a ) = 1−P(X < a ) = 1−P(X ≤ a−1) = 1−pa−1∑
x=0
(1−p )x = 1−p1− (1−p )a
p= 1−1+(1−p )a = (1−p )a .
Deste modo,
P(X ≥m +n |X ≥m ) =(1−p )m+n
(1−p )m= (1−p )n .
3.6 Distribuição Binomial Negativa
Considere uma sequência de ensaios de Bernoulli independentes, seja A o evento de interesse.O experimento que dá origem a variável aleatória com distribuição Binomial Negativa é o seguinte:Repetir o experimentos de de Bernoulli de maneira independente e parar quando o o evento deinteresse A ocorra pela r-ésima vez. Do mesmo modo que no caso da variável com distribuiçãogeométrica, pode-se definir X de maneiras diferentes, cada qual dando origem a uma variação dadistribuição Binomial Negativa.
Definindo X como o número de vezes que o evento Ac ocorre antes que o evento de interesseA ocorra pela r-ésima vez que é igual número de vezes que o evento Ac ocorre até que o evento deinteresse A ocorra pela r-ésima vez, isto é,
x+r repetições do experimento até que A ocorra pela r-ésima vez︷ ︸︸ ︷
· · · ×Ac ×A × · · ·×Ac︸ ︷︷ ︸
x ocorrências de Ac e (r-1) ocorrências de A
×A (3.1)
Note que deste modo, a única posição fixa é a do evento A no final, assim as posiçôs dos outroseventos nas primeiras x + r − 1 posições são aleatórias. Portanto, a probabilidade do evento em(??) ocorrer é a probabilidade de
· · · ×Ac ×A × · · ·×Ac︸ ︷︷ ︸
x ocorrências de Ac e (r-1) ocorrências de A
ocorrer, que é uma binomial com parâmetros x + r − 1 e p calculada no ponto r − 1, vezes a pro-babilidade de A ocorrer a final, que devido ao fato dos eventos serem independentes é dado porp . Nestas condições, segue que a função de probabilidade de X é dado por,
P(X = x ) =
x + r −1
r −1
p r × (1−p )x I0,1,2,...(x )
Em que p = P(A). Notação: X ∼ BN (r, p ).Note que
x+r−1r−1
conta o número de permutações com repetição dos x + r − 1 elementos, emque A aparece r − 1 vezes e Ac x vezes. Deste modo, se considerarmos as posições em que oseventos aparecem, então o número de permutações com repetição dos x + r − 1 elementos seráigual a combinação simples das x + r −1 posições distintas tomadas (r −1) a (r −1).
Outra maneira de definir a variável aleatória com distribuição Binomial Negativa é definir Ycomo sendo o número de repetições até que o evento de interesse A ocorra pela r-ésima vez, istoé,
y repetições do experimento até que A ocorra pela r-ésima vez︷ ︸︸ ︷
· · · ×Ac ×A × · · ·×Ac︸ ︷︷ ︸
y-1 repetições do experimento e r-1 ocorrências de A
×A
Deste modo, a função de probabilidade de Y é dado por,
P(Y = y ) =
y −1
r −1
p r × (1−p )y−r IY≥r (y )
Note que Y =X + r . Logo, E (Y ) = E (X )+ r e V a r (Y ) =V a r (X ).
3.6.1 Esperança, variância e função geradora de momentos
Observação 3.1. Para demonstrar os resultados a seguir, considere os seguintes fatos:
f (b ) =1
(1−b )r=
∞∑
x=0
f (x )(0)b x
x !
em que,
f (x )(0) =∂ x
∂ b xf (b )
b=0
.
Agora note que,
f (x )(0) = r × (r +1)× (r +2)× · · ·× (r +x −1) =(r +x −1)!(r −1)!
Logo,
1
(1−b )r=
∞∑
x=0
(r +x −1)!(r −1)!
b x
x !=
∞∑
x=0
x + r −1
r −1
b x
Assim,
∞∑
x=0
P(X = x ) =∞∑
x=0
x + r −1
r −1
b x p r × (1−p )x
= p r∞∑
x=0
x + r −1
r −1
b x (1−p )x
= p r ×1
(1− (1−p ))r= p r 1
p r= 1.
outro fato é,
x + r −1
r −1
=(x + r −1)!(r −1)!x !
=(x + r −1)!x !(r −1)!
=
x + r −1
x
Assim, para X ∼ BN (p ) tem-se que,
E (X ) =∞∑
x=0
x
x + r −1
r −1
p r × (1−p )x
=∞∑
x=0
x
x + r −1
x
p r × (1−p )x
=∞∑
x=1
(x + r −1)!(x −1)!(r −1)!
r
rp r × (1−p )x
=∞∑
x=1
r(x + r −1)!(x −1)!r !
p r × (1−p )x
=∞∑
x=1
r
x + r −1
x −1
p r × (1−p )x
fazendo z = x −1 tem-se que,
E (X ) = r∞∑
z=0
z + r
z
p r × (1−p )z+1
= r (1−p )∞∑
z=0
z + r
r
p r × (1−p )z
= r (1−p )∞∑
z=0
z +(r +1)−1
(r +1)−1
p r × (1−p )z
= r(1−p )
p
∞∑
z=0
z +(r +1)−1
(r +1)−1
p r+1× (1−p )z
fazendo s = r +1 tem-se que
E (X ) =r (1−p )
p
∞∑
z=0
z + s −1
s −1
p s × (1−p )z
︸ ︷︷ ︸
=1
.
Logo,
E (X ) =r (1−p )
p
So mesmo modo, segue que,
V a r (X ) =r (1−p )
p 2
e a fgm,
M X (t ) =
p
1− (1−p )e t
r
se t <−l o g (1−p ).
Exemplo 3.6. Suponha que P(nascimento de menino) = 0, 5. Um casal quer ter exatamente duasmeninas e terá filhos até essa condição ser satisfeita.
(a) Qual é a probabilidade da família ter x filhos homens?
Solução. Seja A= a criança é uma menina. Assim, X será o número de meninos que irãonascer antes que a segunda menina nasça. Neste caso X ∼ BN (2, 0.5), assim,
P(X = x ) =
x +2−1
2−1
0, 52× (1−0, 5)2 =
3
1
0, 52× (0, 5)x ;
(b) Qual é a probabilidade da família ter quatro filhos?
Solução. Seja Y ∼ BN (2, 0.5) o número de filhos que o casal irá ter antes que nasça a se-gunda menina, então
P(Y = 4) =
4−1
2−1
0, 52× (1−0, 5)4−2 =
3
1
0, 52×0, 52 = 0, 1875;
(c) Qual é a probabilidade de a família ter no máximo quatro filhos?
Solução. Tem-se que,
P(Y ≤ 4)) = P(Y = 2)+P(Y = 3)+P(Y = 4) pois y deve ser ≥ r
=
2−1
2−1
0, 52×0, 52−2+
3−1
2−1
0, 52×0, 53−2+
4−1
2−1
0, 52×0, 54−2
= 0, 25+0, 25+0, 1875= 0, 6875
(d) Quantos filhos homens espera-se que essa família tenha? Quantos filhos espera-se que essafamília tenha?
Solução. Tem-se que,
E (X ) =2× (1−0, 5)
0, 5= 2
eE (Y ) = E (X )+ r = 2+2= 4.
3.7 Distribuição Hipergeométrica
Considere um conjunto de n elementos dos quais em m observa-se um certo evento de inte-resse A e em n −m observa-se Ac . Suponha agora o seguinte experimento: selecionar aleatoria-mente r elementos dentre os n possíveis. Seja X a variável aleatória que conta o número de vezesque o evento de interesse ocorre no conjunto selecionado. Deste modo, a função de probabilidadede X é dada por,
P(X = x ) =
(mx )(n−mr−x )(nr )
se max0, r − (n −m ) ≤ x ≤minr, m
0 caso contrário
De fato, note que dado r elementos em que A aparece x vezes e Ac r −x vezes,
A × · · ·×A︸ ︷︷ ︸
x vezes
×Ac × . . .×Ac︸ ︷︷ ︸
(r−x ) vezes
a probabilidade desse evento ocorrer é o número de permutações com repetição dos elementos Ae Ac , que nesse caso é igual a combinações simples de r elementos tomados x a x vezes a proba-bilidade do evento acima ocorrer, assim
P(X = x ) =
r
x
P
A × · · ·×A︸ ︷︷ ︸
x vezes
×Ac × . . .×Ac︸ ︷︷ ︸
(r−x ) vezes
=
r
x
P(A)× · · ·×P
A |X x−1i=1 A
×P
Ac |X xi=1A
× · · ·×P
Ac |X xi=1AX r−x−1
j=1 Ac
=r !
x !(r −x )!×
m
n× · · ·×
m −x +1
n −x +1×
n −m
n −x× · · ·
m −n − (r −x )+1
n −x − (r −x )+1
=r !
x !(r −x )!m !
(m −x )!(n −m )!
(n −m − (r −x ))!(n − r )!
n !
=m !
x !(m−x )!(n−m )!
(r−x )!(n−m−(r−x ))!n !
r !(n−r )!
=
mx
n−mr−x
nr
se max0, r − (n −m ) ≤ x ≤minr, m
Notação: X ∼H g eo(n , m , r ).
3.7.1 Esperança, variância e função geradora de momentos
Seja X ∼H g eo(n , m , r ), então:
E (x ) = r p , V a r (X ) =n − r
n −1
r p (1−p )
em que p = mn
, e fgm não possui uma forma simples..
3.8 Distribuição de Poisson
Seja X uma variável aleatória que conta o número de ocorrência de um determinado eventoA por unidade (tempo, comprimento, área, volume, etc), então a função de probabilidade de X édada por,
P(x ) =
(
e−λλx
x !se x = 0, 1, . . . ,
0 caso contrário
Esta função é chamada de distribuição de Poisson. Notação: X ∼P (λ)
3.8.1 Esperança, variância e função geradora de momentos
E (X ) =∞∑
x=0
xe−λλx
x !=
∞∑
x=1
e−λλλx−1
(x −1)!
=λe−λ∞∑
x=1
λx−1
(x −1)!=λe−λ
∞∑
y=0
λy
y !
=λe−λe λ =λ
e, agora note que x 2 = x (x −1)+x , assim
E (X 2) =∞∑
x=0
x 2 e−λλx
x !=
∞∑
x=0
[x (x −1)+x ]e−λλx
x !
=∞∑
x=0
x (x −1)e−λλx
x !+∞∑
x=0
xe−λλx
x !
=∞∑
x=2
e−λλ2λx−2
(x −2)!+λ
=λ2e−λ∞∑
y=0
λy
y !+λ=λ2e−λe λ+λ
=λ2+λ
Portanto,V a r (X ) =λ2+λ−λ2 =λ
A fgm da Poisson é dada por,M X (t ) = e λ(e
t−1).
Exemplo 3.7. Num livro de 800 páginas há 800 erros de impresão. Qual a probabilidade de queuma página escolhida ao acaso contenha pelo menos 3 erros?Solução: Seja X a variável aleatória que conta o número de erros por página, assim
λ= E (X ) =800
800= 1
Portanto,
PX (X ≥ 3) = 1−PX (X < 3) = 1− [PX (0)+PX (1)+PX (2)]
= 1−
e−110
0!+
e−111
1!+
e−112
2!
= 1− e−1
1+1+1
2
= 1−2, 5e−1
= 0, 0803
Exemplo 3.8. Numa central telefônica chegam 300 telefonemas por hora. Qual a probabilidade deque:
(a) Num minuto não haja nemhum chamado?
(b) Em 2 minutos haja 2 chamadas?
(c) Em t minutos, não haja chamadas?
Solução:(a) Seja X a variável aleatória que conta o número de chamadas por minuto. Assim,
λ= E (X ) =300
60= 5
Portanto,
PX (0) =e−550
0!= e−5 = 0, 0067
(b) Seja X2 a variável aleatória que conta o número de chamadas por cada 2 minuto. Assim,
λ2 = E (X2) =300
30= 10
Portanto,
PX2(2) =e−10102
2!= 50e−10 = 0, 0023
(c) Seja X2 a variável aleatória que conta o número de chamadas por cada t minuto. Assim,
λt = E (X t ) =300
60t
= 5t
Portanto,
PXt (0) =e−5t (5t )0
0!= e−5t .
Observação 3.2. Do exemplo anterior pode-se concluir que a probabilidade de ocorrência de umdeterminado evento A em t unidades é dada por,
PXt (x ) =
(
e−λ t (λ t )x
x !se x = 0, 1, . . . ,
0 caso contrário
3.8.2 Relação entre Poisson e Binomial
Seja uma seqüência de experimentos de Bernoulli. Seja X uma variável aleatória que conta onúmero de ocorrência de um evento de interesse A nessa seqüência de experimentos de Bernoulli,suponha ainda que
E (X ) = limn→∞
np =λ.⇒ p = limn→∞
λ
nEntão,
P(X = x ) = limn→∞
n
x
p x × (1−p )n−x
= limn→∞
n
x
λ
n
x
×
1−λn
n−x
=λx
x !limn→∞
n × (n −1)× · · ·× (n −x +1)nx
1−λ
n
−x
1−λ
n
n
Agora note que,
limn→∞
1−λ
n
−x
= 1
limn→∞
n × (n −1)× · · ·× (n −x +1)nx
= limn→∞
nx +T (nx−1)nx
= 1−T (nx−1)
nx= 1
e
limn→∞
1−λ
n
n
= e−λ
Logo,
P(X = x ) =λx
x !e−λ
Capítulo 4
Modelos Probabilísticos para variáveisaleatórias Contínuas
Neste capítulo vamos apresentar alguns dos modelos mais usuais para variáveis aleatórias con-tínuas a saber: uniforme, normal, exponencial, t-Student, gama, qui-quadrado, e F de Fisher. Exis-tem ainda muitos outros modelos, entretanto, estes são os mais conhecidos.
4.1 Distribuição Uniforme
Seja X uma variável aleatória contínua cuja função densidade é dada por,
f (x ) =1
b −aI [a ,b ](x )
então X tem distribuição uniforme no intervalo [a ,b ]. Deste modo, sua função de distribuição é,
1. para x < a , F (x ) =∫ x
−∞f (x )d x =
∫ x
−∞0d x = 0;
2. para a ≤ x ≤b ,
F (x ) =
∫ a
−∞
0d x +
∫ x
a
1
b −ad x =
x
b −a
b
a
=x −a
b −a.
3. para x >b ,
F (x ) =
∫ a
−∞
0d x +
∫ b
a
1
b −ad x +
∫ ∞
b
0d x =b −a
b −a= 1.
Assim,
F (x ) =
0 se x < ax−ab−a
se a ≤ x ≤b
1 se x >b
Note que, F é contínua, pois F (a−) = F (a+) = F (a ) = 0, F (b−) = F (b+) = F (b ) = 1 e nas regiõesrestantes ela é também contínua, pois as funções, F (x ) = 0, F (x ) = 1 e F (x ) = x−a
b−asão também
contínuas.Notação: X ∼U [a ,b ].
63
4.1.1 Esperança, variância e função geradora de momentos
Se X ∼U (a ,b ) então:
E (X ) =
∫ ∞
−∞
x d F (x ) =
∫ b
a
x1
b −ad x =
1
b −a
x 2
2
b
a
=b 2−a 2
2(b −a )=(b −a )(b +a )
2(b −a )=
b +a
2.
E (X 2) =
∫ ∞
−∞
x 2d F (x ) =
∫ b
a
x 2 1
b −ad x =
1
b −a
x 3
3
b
a
=b 3−a 3
3(b −a )=(b −a )(b 2+ab +a 2)
3(b −a )=
b 2+ab +a 2
b −a
Assim,
V a r (X ) =b 2+ab +a 2
b −a−
b +a
2
2
=(b −a )2
12.
A FGM é dada por,
M X (t ) =
∫ b
a
e t x d F (x ) =
∫ b
a
e t x 1
b −ad x =
1
b −a
1
te t x
b
a
=e b t − e a t
(b −a )t
Observação 4.1. Para a = 0 e b = 1, tem-se X ∼U [0, 1] e
F (x ) =
0 se x < 0
x se 0≤ x ≤ 1
1 se x > 1
Exemplo 4.1. Considere o experimento de medir a corrente em um fio de cobre. Seja X a variávelaleatória que denota a corrente medida. Supondo que 0≤X ≤ 20 m A e que
f (x ) =
(
0, 05 se 0≤ x ≤ 20
0 caso contrário
Qual a probabilidade da corrente medida está entre 5 e 10 miliamperes? Qual o valor esperado e avariância da corrente medida?
Solução: Tem-se que a = 0 e b = 20, assim
P(5≤X ≤ 10) = F (10)− F (5) =
∫ 10
5
0, 05d x = 0, 05× (10−5) = 0, 25
E (X ) =20+0
2= 10
e
V a r (x ) =(20−0)2
12= 33, 33
Proposição 4.1. Sejam X e U variáveis aleatórias com funções de distribuição FX e uniforme em[0, 1] respectivamente. Então,
(i) Se FX for contínua, Y = FX (X ) terá distribuição uniforme em [0, 1], isto é, FX (X )∼U [0, 1];
(ii) Se FX for contínua à direita, Y = F−1X (U ) terá função de distribuição FX , em que F−1
X (u ) = infx ∈R : FX (x )≥ u é a inversa generalizada de FX .
Demonstração. Note que Y = FX (X ) será um valor entre 0 e 1, pois FX :R→ [0, 1], assim para y < 0tem-se que FY (y ) = P(Y ≤ y ) = 0 e para y > 1 tem-se FY (y ) = 1. Agora para 0≤ y ≤ 1 tem-se,
FY (y ) = P(Y ≤ y ) = P
FX (X )≤ y
= P
X ≤ F−1X (y )
, pois FX é não decrescente
= FX
F−1X (y )
em que F−1X é a inversa generalizada de FX . Pode-se provar que para o caso em que FX é continua
e F−1X é a inversa generalizada de FX que FX
F−1X (y )
= y veja (NASCIMENTO, 2006 - p. 151)assimFY (y ) = y , logo Y ∼U [0, 1].
Suponha agora que FY é contínua à direita e Y = F−1X (U ), então
FY (y ) = P(Y ≤ y ) = P
F−1X (U )≤ y
= P
U ≤ FX (y )
= FX (y ).
Exemplo 4.2. Seja X ∼b e r (0, 3), assim
FX (x ) =
0 se x < 0
0, 7 se 0≤ x < 1
1 se x ≥ 1
Suponha que os seguintes valores são de uma variável aleatória com distribuição uniforme em [0, 1],
U 0,65 0,40 0,27 0,89 0,62 0,46 0,14 0,61 0,69 0,77
Agora note que
F−1X (u ) = infx ∈R : FX (x )≥ u =
(
inf[0,∞)= 0 se 0≤ u ≤ 0, 7
inf[1,∞)= 1 se 0, 7< u ≤ 1
Assim, o conjunto de valores para X ∼b e r (0, 3) é:
U 0,65 0,40 0,27 0,89 0,62 0,46 0,14 0,61 0,69 0,77X 0 0 0 1 0 0 0 0 0 1
4.2 Distribuição Normal
Dizemos que uma v.a. X tem distribuição normal com média µ e variância σ2 se sua funçãodensidade de probabilidade é dada por
f (x ) =1
p2πσ2
exp
−(x −µ)2
2σ2
para todo x ∈R. Notação: X ∼N (µ,σ2).
4.2.1 Esperança, variância e função geradora de momentos
Se X ∼N (µ,σ2) então,
E (X ) =
∫ ∞
−∞
x1
p2πσ2
exp
−(x −µ)2
2σ2
d x
fazendo a transformação,
y =x −µσ⇒ x =σy +µ
tem-se que,
d x =σd y
assim,
E (X ) =
∫ ∞
−∞
(σy +µ)1
p2πσ2
exp
−y 2
2
σd y
=
∫ ∞
−∞
σy1p
2πexp
−y 2
2
d y +
∫ ∞
−∞
µ1p
2πexp
−y 2
2
d y
=σ
∫ ∞
−∞
yp
2
1pπ
exp
−y 2
2
︸ ︷︷ ︸
=g (y )
d y +µ
∫ ∞
−∞
1p
2πexp
−y 2
2
d y
︸ ︷︷ ︸
=1
Agora note que,
g (−y ) =−yp
2
1pπ
exp
−(−y )2
2
=−yp
2
1pπ
exp
−y 2
2
=−g (y )
logo, g (y ) é uma função impar, portanto,
∫ ∞
−∞
g (y )d y =
∫ 0
−∞
g (y )d y +
∫ ∞
0
g (y )d y =−∫ ∞
0
g (y )d y +
∫ ∞
0
g (y )d y = 0
Deste modo, E (X ) =µ.Do mesmo modo,
V a r (X ) =
∫ ∞
−∞
(x −µ)21
p2πσ2
exp
−(x −µ)2
2σ2
d x fazendo y =x −µσ
=
∫ ∞
−∞
σ2y 2 1p
2πexp
−y 2
2
d x
=σ2
e
M X (t ) = e tµ+ t 2σ2
2 .
4.2.2 Principais Características
1. A curva é simétrica em torno de x = µ, isto implica que dado um a ∈ R tem-se que f (µ−a ) = f (µ+ a ), logo F (µ− a ) = P(X ≤ µ− a ) = P(X ≥ µ+ a ) = 1− F (µ+ a ) se µ = 0 entãoF (−a ) = 1− F (a );
2. A moda, mediana e a média são iguais. De fato, a mediana é o ponto(m) para o qual para ocaso em que X é contínua, PX (X ≤m ) = PX (X ≥m ) = 0, 5. Assim, para a = 0 em F (µ− a ) =1− F (µ+a ) tem-se,
P(X ≤µ−0) = P(X ≤µ) = F (µ) = P(X ≥µ) = 1− F (µ)
logo, 2F (µ) = 1 assim F (µ) = 0, 5. Portanto, m =µ= E (X ). A moda é dada por,
∂ ln( f (x ))∂ x
=∂
∂ x
ln
1p
2πσ2
−(x −µ)2
2σ2
=−x −µσ2
= 0
logo, xmax =µ= E (X ).
Problema: Dificuldade no cálculo de PX . Existem tabelas apenas para X ∼N (0, 1).Solução: Fazendo a transformação,
z = h(x ) =x −µσ
⇒ h−1(z ) =σz +µ
segue que o jacobiano da transformação é dado por
J (x , z ) =∂ h−1(z )∂ z
=σ
assim,
fZ (z ) = f X
h−1(z )
J (x , y ) =1
p2πσ2
exp
−(σz +µ−µ)2
2σ2
×σ=1p
2πexp
−σ2z 2
2σ2
=1p
2πexp
−z 2
2
.
Portanto a variável aleatória Z tem distribuição normal com média 0 variância 1. Deste modopode-se utilizar as tabelas para distribuições normais com média zero e variância 1 para calculara probabilidade de variáveis com distribuições normais com média µ e variânciaσ2. Deste modo,
P(X ≤ x ) = P
X −µσ≤
x −µσ
= P
Z ≤x −µσ
.
Notação: a distribuição de Z é chamada de normal padrão e sua função de distribuição deno-tada por Φ, assim P(Z ≤ z ) = Φ(z ).
Exemplo 4.3. Seja X ∼N (100, 25), calcular:
(a) P(100≤X ≤ 106);
(b) P(X ≥ 108);
(b) P(X ≥ x ) = 0, 025;
Solução:(a) Tem-se queσ=
p25= 5, assim,
P (100≤X ≤ 106) = P
100−100
5≤Z ≤
106−100
5
= P(0≤Z ≤ 1, 2) = Φ(1, 2)−Φ(0).
Da tabela: Φ(0) = 0, 5 e Φ(1, 2) = 0, 8849, assim P (100≤X ≤ 106) = 0, 8849−0, 5= 0, 3849.(b)
P(X ≥ 108) = P
Z ≥108−100
5
= P(Z ≥ 1, 6) = 1−P(Z ≤ 1, 6) = 1−Φ(1, 6) = 1−0, 9452= 0, 0548.
(c) P(X ≥ x ) = P
Z ≥ x−1005
= 1− P
Z ≤ x−1005
= 1−Φ(z ) = 0, 025 portanto Φ(z ) = 0, 975 databela tem-se que: z = 1, 96, logo
1, 96=x −100
5⇒ x = 5×1, 96+100= 109, 8.
Notação: Denotaremos por zα a seguinte quantidade P(Z ≥ zα) = α, logo pela simetria P(Z ≤−zα) = α. Assim do exemplo anterior teríamos x = 5× z 0,025+100. zα) é chamado de α quantil danormal padrão.
4.2.3 Convergência em Distribuição de Variáveis Aleatórias
Definição 4.1 (Convergência em distribuição). Sejam Xn , n ≤ 1 e X duas variáveis aleatórias comfunções de distribuição Fn , n ≤ 1 e F , respectivamente. Então Xn converge em distribuição para Xse para todo x ∈R em que F é continua, tivermos
limn→∞
Fn (x ) = F (x ).
Notação: Xnd−→ X .
Teorema 4.1 (Teorema Central do Limite - variáveis aleatórias i.i.d.). Seja Xn , n ≥ 1 uma seqüên-cia de variáveis aleatórias independentes e identicamnte distribuídas, com média µ e varianciaσ2 <∞. Então, para Sn =
∑ni=1 Xn , tem-se
Sn −E (Sn )p
V a r (Sn )=
Sn −nµ
σp
nd−→Z ∼ N (0, 1)
Demonstração. Tem-se para Yi =X i−µσ
que,
Sn −nµ
σp
n=
∑ni=1 Yip
n
em que, Yi , i ≥ 1 é uma seqüência de variáveis aleatórias independentes e identicamente distri-buídas, com média 0 e variância 1, e função geradora de momentos M Y (t ). Assim,
M ∑ni=1 Yip
n
(t ) =M∑ni=1 Yi
tp
n
=n∏
i=1
M Y
tp
n
=
M Y
tp
n
n
Fazendo a expansão em séries de Taylor ao redor de zero até o termo de 2a. ordem tem-se que,
M Y
tp
n
=M Y (0)+tp
nM
′
Y (0)+1
2!
t 2
nM
′′
Y (0)+o
t 2
n
em que o(x ) é uma função tal que
limx→∞
o(x )x= 0.
Agora note que pelas propriedades da fgm que: M Y (0) = 1, M′
Y (0) = E (Yn ) = 0 e
M′′
Y (0) = E (Y 2n ) =V a r (Yn )+E (Yn ) = 1
assim,
M Y
tp
n
= 1+t 2
2
n+o
t 2
n
= 1+t 2
2
n
1+2o
t 2
n
t 2
n
Agora note que,
limn→∞
1−2o
t 2
n
t 2
n
!
= 1
assim
limn→∞
M Y
tp
n
n
= limn→∞
1−t 2
2
n
1−2o
t 2
n
t 2
n
!n
= e−t 2
2 .
Logo pelo Teorema da Continuidade de Levy tem-se que,
Sn −nµσpn
d−→N (0, 1).
Teorema 4.2 (Moivre-Laplace). Seja Xn , n ≥ 1 uma seqüência de variáveis aleatórias indepen-dentes e identicamente distribuídas, com distribuição de Bernoulli de parâmetro p. Então,
Sn −npp
np (1−p )
d−→Z
Na prática se max
np , n (1−p )
≥ 10 então a aproximação é aceitável. Alguns autores consi-
deram max
np , n (1−p )
≥ 5.
Exemplo 4.4. Suponha que 25% de todos os motoristas habilitados de um determinado estado nãopossuam seguro. Seja X o número de motoristas sem seguro em uma amostra aleatória de 50 moto-ristas. Qual a probabilidade de no máximo 5 terem seguro? e no máximo 10?
Solução: Os valores exatos são 0, 007046 e 0, 2622. Utilizando a aproximação normal tem-se que
P(X ≤ 5)≈Φ
Z ≤5−50×0, 25
p
50×0, 25×0, 75
!
= P(Z ≤−2.449) =
e
P(X ≤ 10)≈Φ
Z ≤10−50×0, 25
p
50×0, 25×0, 75
!
= P(Z ≤−0.816) =
4.3 Distribuição Exponencial
Seja X uma variável aleatória contínua cuja função densidade é dada por,
f (x ) =λe−λx I [0,∞(x )
então X tem distribuição exponencial com parâmetro λ. Notação: X ∼ Exp(λ).Sua função de distribuição é,
1. Para x < 0, tem-se F (x ) = 0;
2. Para x ≥ 0
F (x ) =
∫ x
−∞
f (x )d x =
∫ 0
−∞
0d x +
∫ x
0
λe−λx d x = 1− e−λx
Assim,
F (x ) =
(
0 se x < 0
1− e−λx se x < 0
4.3.1 Esperança, variância e função geradora de momentos
Se X ∼ Exp(λ) então:
E (X ) =1
λ, V a r (X ) =
1
λ2
e
M X (t ) =λ
λ− t
para t <λ.
Observação 4.2. Algumas aplicações da distribuição exponencial incluem modelar tempo de vidade equipamentos e o tempo entre ocorrências de eventos em um experimento de Poisson.
Exemplo 4.5. Suponha que o tempo de resposta para uma consulta feita em um terminal tenhauma distribuição de poisson com com tempo de resposta médio igual a 5 s . Qual a probabilidadeque o tempo de resposta exceda 10 s ?
Solução: Seja X o tempo de resposta, então
E (X ) = 5=1
λ, logo λ= 0, 2
Assim,P(X > 10) = 1−P(X ≤ 10) = 1− [1− e−0,2×10] = e−2 = 0, 135.
4.3.2 Relação entre Exponencial e Poisson
Seja X uma variável aleatória que conta o número de vezes que um evento de interesse ocorreem um certo intervalo unitário de tempo, supondo que X tem distribuição de Poisson com parâ-metroλ, então a variável aleatória que conta o número de vezes que um evento de interesse ocorreem t unidades de tempo terá distribuição de Poisson com parâmetro λt , isto é, X t ∼P (λt ). SejaT o tempo decorrido entre duas ocorrências do parâmetro de interesse, então note que
T > t = Nenhuma ocorrência do evento de interesse em t unidades de tempo= X t = 0
Logo,
P(T ≤ t ) = 1−P(T > t ) = 1−P(X t = 0) = 1−e λt (λt )0
0!= 1− e λt
Portanto, T ∼ Exp(λ).
Exemplo 4.6. Considere que o número de chamadas em um serviço de suporte técnico 24 horasde uma empresa tenha uma distribuição de Poisson com média de 0, 5 chamada por dia. Qual aprobabilidade de passar mais de dois dias até ocorrer uma chamada?
Solução: Para X = número de chamada por dia, tem-se que X ∼P (0, 5), logo para um períodode t dias X t ∼P (λt ). Assim para T = tempo entre duas chamadas, obtemos
P(T > 2) = P(X2 = 0) =e−0,5×2× (0, 5×2)0
0!= e−1 = 0, 3679
Proposição 4.2 (Falta de Memória). Seja T uma variável aleatória com função densidade f , entãopara s , t ≥ 0
P(T ≥ t + s |T ≥ s ) = P(T ≥ t )
se, e somente se, T ∼ Exp(λ).Solução: Vamos mostrar apenas a primeira parte: Se T ∼ Exp(λ) então T tem a propriedade de
falta de memória, para demonstração completa veja (NASCIMENTO, 2006). De fato,
P(T ≥ t + s |T ≥ s ) =P (T ≥ t + s , T ≥ s )
T ≥ s
=P (T ≥ t + s )
P(T ≥ s )=
P (T > t + s )P(T > s )
=P (X t+s = 0)P (Xs = 0)
=e−(t+s )λ
e−sλ
= e−(t+s )λe sλ = e−tλ = P(T > t ).
4.4 Distribuição Gama
Diz-se que uma variável aleatória X tem distribuição Gama com parâmetros α e β se sua den-sidade é dada por,
f (x ) =βα
Γ(α)xα−1e−βx I (0,∞)(x )
em que α,β > 0 e
Γ(α) =
∫ ∞
0
xα−1e−x
é a função gama. Notação: Se X ∼Gama(α,β ).
4.4.1 Propriedades da função gama
Algumas propriedades da função gama são:
1. Γ(α+1) =αΓ(α);
2. Se α for um inteiro positivo então Γ(α+1) =α!;
3. Γ
12
=pπ.
Casos especias da distribuição Gama
1. Se α= 1 então X ∼ E x p (β );
2. Se α= ν/2, ν inteiro e β = 1/2 então X ∼χ2(ν ), isto é, x tem distribuição qui-quadrado comν graus de liberdade;
3. Se α= k , k inteiro então X ∼ E r l k (β ), isto é, x tem distribuição Erlang de ordem k.
4.4.2 Esperança, variância e função geradora de momentos
Se X ∼Gama(α,β ) então:
E (X ) =α
β, V a r (X ) =
α
β 2
e
M X (t ) =
β
β − t
α
.
4.5 Distribuição Qui-quadrado
Diz-se que uma variável aleatória X tem distribuição Qui-quadrado com ν graus de liberdadese sua densidade é dada por,
f (x ) =
12
ν/2
Γ(ν/2)x ν/2−1e−
x2 I (0,∞)(x )
para ν inteiro. Notação: Se X ∼χ2(ν ).
4.5.1 Esperança, variância e função geradora de momentos
Se X ∼χ2(ν ) então:E (X ) = ν , V a r (X ) = 2ν
e
M X (t ) =
12
12− t
!ν2
= (1−2t )−ν2
Exemplo 4.7 (Ex.57,seção 4.4-Devore). Suponha que o tempo gasto por um aluno, selecionado ale-atoriamente, que usa um terminal conectado a um servidor com "‘time-sharing"’, tem uma distri-buição gama com média 20 min e variância de 80 min2.
(a) Quais são os valores de α e β?
(b) Qual a probabilidade de um aluno usar o terminal por no máximo 24 minutos?
(c) Qual a probabilidade de um aluno passar entre 20 e 40 minutos usando o terminal?
Solução:
(a) Tem-se que,
E (X ) =α
β= 20 e V a r (X ) =
α
β 2= 80
Assim, α= 5 e β = 14
;
(b) Deseja-se utilizar a tabela de Qui-quadrado, assim fazendo a transformação Y = k X em queX ∼Gama(α,β ), então
V a r (Y ) = 2ν =V a r (k X ) = k 2 α
β 2assim k =β
Ç
2ν
α
portanto,ν′= E (Y ) = E (k X ) = k E (X ) =
p2αν .
Deste modo, Y ∼χ2p
2αν
. Assim,
P(X ≤ x ) = P(Y ≤ k x ) = P
Y ≤βÇ
2ν
αx
Logo, para α= 5, β = 14
e escolhendo ν = 10, tem-se que k = 0, 5 e ν ′ = 10, assim
P(X ≤ 24) = P(Y ≤ 0, 5×24) = P(Y ≤ 12) = 0, 7149.
Melhor fazer a seguinte transformação,
Proposição 4.3. Seja X1, . . . , Xn uma amostra aleatória de uma distribuição normal com parâme-tros µ eσ2, então
(n −1)S2
σ2=
∑ni=1(X i −X )2
σ2∼χ2(n −1)
4.6 Distribuição t-Student
A distribuição t de Student foi descoberta por William S. Gosset em 1908. Esta distribuiçãosurgiu na seguinte situação: Suponha uma amostra X1, . . . , Xn i.i.d. de uma distribuição normalcom média µ e desvio padrãoσ. Seja,
X =
∑ni=1 X i
ne S2 =
∑ni=1
X i −X2
n −1
a média amostral e o desvio padrão amostral, então pode-se provar que
X −µÆ
S2
n−1
tem distribuição t com n-1 graus de liberdade.
Observação 4.3. Quando a amostra é de uma população com distribuição normal, pode-se provarainda que X e S2 são independentes.
A função densidade de probabilidade é dada por
f (x ) =1pνπ
Γ
ν+12
Γ
ν2
1+x 2
ν
− ν+12
para todo x ∈R. Notação: X ∼ tν .
4.6.1 Esperança, variância e função geradora de momentos
Se X ∼ tν então E (X ) = 0 para ν > 1 e
V a r (X ) =ν
ν −2
para ν > 2. A fgm não existe para esta distribuição.Se ν = 1 então
f (x ) =1
π(1+x 2)
para todo x ∈ R. Esta distribuição é denominada distribuição de Cauchy. Note que uma variávelaleatória com esta distribuição não possue momentos.
Principais características:
1. A moda, mediana e a média são iguais a 0;
2. A curva é simétrica em torno do 0, isto implica que dado um a ∈ R tem-se que f (−a ) =f (+a ), logo PX (≤−a ) = PX (≥ a );
3. quando os graus de liberdade aumentam a distribuição tν se aproxima da distribuição nor-mal com média zero e variância 1.
Exemplo 4.8. Seja X ∼ t5, calcular:
(a)
PX (−2, 57≤X ≤ 2, 57) = P(X ≤ 2, 57)−P(X ≤−2, 57) = [1−P(X > 2, 57)]−P(X > 2, 57)
= 1−2×P(X > 2, 57) = 1−2×0, 025= 0, 95;
(b) PX (X ≥ x ) = 0, 01 isto implica x = 3, 365.
Referências Bibliográficas
GRAUNT, J. (1662). Natural and Political Observations Mentioned in a Fol-lowing Index and Made upon the Bills of Mortality. London. Disponível em<http://www.ac.wwu.edu/ stephan/Graunt/bills.html>. Acesso em: 5 de novembro de2007.
FUNDAÇÃO INSTITUTO BRASILEIRO DE GEOGRAFIA E ESTATÍSTICA (IBGE). Normas de apre-sentação tabular. 3. ed. Rio de janeiro, 1993. 63p.
KOLMOGOROV, A. N. Foundations of the Theory of Probability. 2. ed.,New York: Chelsea Publishing Company, 1956. 84p. Disponível em<http://www.kolmogorov.com/Foundations.html>. Acesso em: 5 de novembro de 2007.
77