Departamento de Estatisticaulisses/disciplinas/livro-calculodasprobabilida.pdf · Observação 1.6....

80
Cálculo das Probabilidades I Departamento de Estatistica Primeira Edição - 2008

Transcript of Departamento de Estatisticaulisses/disciplinas/livro-calculodasprobabilida.pdf · Observação 1.6....

Cálculo das Probabilidades I

Departamento de Estatistica

Primeira Edição - 2008

Sumário

iii

Capítulo 1

Introdução a Probabilidade

Objetivo: O objetivo da teoria da Probabilidade é criar modelos teóricos que reproduzam demaneira razoável a distribuição de freqüências de fenômenos(experimentos) aleatórios de inte-resse. Tais modelos são chamados modelos probabilísticos.

Definição 1.1 (Experimento aleatório). Um experimento que pode fornecer diferentes resultados,muito embora seja repetido toda vez da mesma maneira, é chamado experimento aleatório.

Características de um experimento aleatório:

• Imprevisibilidade: o resultado do experimento não pode ser conhecido a priori;

• É conhecido o conjunto de todos os resultados possíveis do experimento;

Exemplos de experimentos aleatórios

(E1) Lançar uma moeda uma vez. Anota-se o resultado;

(E2) Lançar uma moeda duas vezes. Anota-se a seqüência obtida;

(E3) Lançar uma moeda duas vezes. Anota-se o número de caras obtido;

(E4) Numa linha de produção conta-se o número de peças defeituosas num dia de trabalho;

(E5) Uma urna contém duas bolas brancas e três bolas vermelhas. Retira-se uma bola ao acaso daurna. Se for branca, lança-se uma moeda; se for vermelha, ela é devolvida à urna e retira-seoutra bola. Anota-se o resultado obtido.

Definição 1.2 (Espaço amostral). É o conjunto de todos os resultados possíveis de um experimentoaleatório. Notação: Ω

Cada resultado possível é denominado ponto ou elemento deΩ e denotado genericamente porω. Assim, escrevemosω∈Ω para indicar que o elementoω está em Ω.

Exemplos de espaço amostral:

(E1) Ω=

c , r

, em que c=cara e r=coroa;

1

(E2) Ω=

(c , c ), (c , r ), (r, c ), (r, r )

;

(E3) Ω=

0, 1, 2

;

(E4) Ω=

0, 1, 2, . . .

;

(E5) Ω=

(B , c ), (B , r ), (V, B ), (V, V )

, em que B=bola branca, V=bola vermelha;

Definição 1.3. Sejam A e B dois conjuntos. Então diz-se que A é um subconjunto de B se, e somenteseω∈ A implicarω∈ B. Notação: A ⊂ B.

Observação 1.1. Da Definição ?? segue que A ⊂ A, poisω∈ A implicarω∈ A.

Observação 1.2. Se A não é um subconjunto de B, então existe pelo menos umω∈ A tal queω /∈ B.Notação: A * B.

Definição 1.4 (Igualdade de conjuntos). Sejam A e B dois conjuntos. Então diz-se que A = B se, esomente se, A ⊂ B e B ⊂ A, isto é,ω∈ A implicarω∈ B eω∈ B implicarω∈ A.

Observação 1.3. Se A não é igual a B, então existe pelo menos umω∈ A tal queω /∈ B ou umω∈ Btal queω /∈ A.

Definição 1.5 (Evento). É um subconjunto do espaço amostral Ω.

Os subconjuntos de Ω serão denotados por letras latinas maiúsculas (A,B,C,. . . ). Se A é umsubconjunto de Ω então denotamos A ⊂Ω.

Exemplo 1.1. Considere o experimento aleatório (E2). Seja A=Obtenção de faces iguais. Portanto,A =

(c , c ), (r, r )

;

Observação 1.4. Diz-se que "‘ocorre o evento A"’ quando o resultado do experimento aleatório forum elemento de A.

Observação 1.5. O espaço amostralΩ e o conjunto vazio∅ também são eventos, em queΩ é o eventocerto e ∅ é o evento impossível.

Operações básicas entre conjuntosSejam A ⊂Ω e B ⊂Ω, então:

• Complementar: Ac =

ω∈Ω :ω /∈ A

;

• Interseção: A ∩ B =

ω∈Ω :ω∈ A eω∈ B

;

• União: A ∪ B =

ω∈Ω :ω∈ A ouω∈ B

=

ω∈Ω :ω a pelo menos um dos eventos

;

• Diferença: A − B =

ω∈Ω :ω∈ A eω /∈ B

, deste modo segue que A − B = A ∩ B c ;

• Diferença simétrica: A∆B =

ω ∈ Ω : ω ∈ A eω /∈ B ouω /∈ A eω ∈ B

, deste modo segueque A∆B = (A ∩ B c )∪ (Ac ∩ B ).

Definição 1.6 (Eventos disjuntos). Dois eventos são disjuntos se e somente se A ∩ B =∅.

Observação 1.6. Da Definição ?? segue que o conjunto vazio é disjunto de qualquer outro evento,pois para todo evento A tem-se que A ∩∅=∅.

Definição 1.7 (Partição de um evento). Seja A um subconjunto deΩ. Então A1, . . . , An formam umapartição de A se e somente se A i ∩A j =∅ para todo i 6= j e ∪n

i=1A i = A.

Deste modo, se A = Ω então A1, . . . , An formam uma partição de Ω se e somente se A i ∩A j =∅para todo i 6= j e ∪n

i=1A i =Ω.

Definição 1.8 (Espaço Produto). Sejam Ω1 e Ω2 dois espaços amostrais. Então o espaço produtoΩ=Ω1×Ω2 é dado por,

Ω1×Ω2 =n

(ω1,ω2) :ω1 ∈Ω1 eω2 ∈Ω2

o

Observação 1.7. Se Ω1 =Ω2 =Ω então o espaço produto Ω1×Ω2 é denotado por Ω2.

Definição 1.9 (Produto entre eventos). Sejam A ⊂ Ω1 e B ⊂ Ω2. Então o evento produto, denotadopor A × B é dado por,

A × B =n

(ω1,ω2)∈Ω :ω1 ∈ A eω2 ∈ Bo

1.1 Propriedades das operações entre conjuntos(eventos)

Sejam A, B ,C subconjuntos de Ω, então:

1. A ⊂ A ∪ B e B ⊂ A ∪ B ;

2. A ∩ B ⊂ A e A ∩ B ⊂ A;

3. A ⊂ B ⇔ A ∪ B = B ;

4. A ⊂C e B ⊂C ⇔ A ∪ B ⊂C ;

5. Idempotente: A ∪A = A e A ∩A = A;

6. Distributiva:

• A ∪ (B ∩C ) = (A ∪ B )∩ (A ∪C );

• A ∩ (B ∪C ) = (A ∩ B )∪ (A ∩C );

• A ∪ (B −C ) = (A ∪ B )− (C −A) 6= (A ∪ B )− (A ∪C );

• A ∩ (B −C ) = (A ∩ B )− (A ∩C );

• (A − B )−C = A − (B ∪C ) 6= A − (B −C );

• A − (B ∪C ) = (A − B )∩ (A −C ) 6= (A − B )∪ (A −C );

• A − (B ∩C ) = (A − B )∪ (A −C ) 6= (A − B )∩ (A −C );

• A ∩ (B∆C ) = (A ∩ B )∆(A ∩C );

• A ∪ (B∆C ) = (A ∪ B ∪C )− (Ac ∩ B ∩C ) 6= (A ∪ B )∆(A ∪C );

7. Comutativa:

• A ∪ B = B ∪A;

• A ∩ B = B ∩A;

• A∆B = (A − B )∪ (B −A) = (B −A)∪ (A − B ) = B∆A = A ∪ B −A ∩ B ;

• A − B 6= B −A, pois A − B = A ∩ B c e B −A = Ac ∩ B ;

8. Associativa:

• (A ∪ B )∪C = A ∪ (B ∪C );

• (A ∩ B )∩C = A ∩ (B ∩C );

• (A∆B )∆C = A∆(B∆C );

• (A − B )−C 6= A − (B −C ), pois

(A − B )−C = (A ∩ B c )∩C c = A ∩ (B c ∩C c ) = A ∩ (B ∪C )c = A − B ∪C

e

A − (B −C ) = A ∩ (B ∩C c )c = A ∩ (B c ∪C ) = (A ∩ B c )∪ (A ∩C ) = (A − B )∪ (A ∩C ).

9. Identidade: A ∪∅= A, A ∩Ω= A e A ∪Ω=Ω, A ∩∅=∅;

10. Complemento: A ∪Ac =Ω, A ∩Ac =∅ e (Ac )c = A, Ωc =∅ e ∅c =Ω.

Proposição 1.1 (Leis de De Morgan). Sejam A1, . . . , An tal que A i ⊂Ω para todo i, então:

(i)

∪ni=1A i

c= ∩n

i=1Aci Imterpretação: o complementar da ocorrência de pelo menos um dos even-

tos é a não ocorrência de todos os eventos;

(ii)

∩ni=1A i

c= ∪n

i=1Aci . Imterpretação: o complementar da ocorrência de todos os eventos é a não

ocorrência de pelo menos um dos eventos.

Demonstração. Para (i) tem-se que:Para todo ω ∈

∪ni=1A i

ctem-se que ω /∈ ∪n

i=1A i , logo ω /∈ A i para todo i, pois se ω ∈ A i paraalgum i entãoω∈∪n

i=1A i . Conseqüentementeω∈ Aci para todo i, portantoω∈∩n

i=1Aci . Logo,

∪ni=1A i

c⊂∩n

i=1Aci . (1.1)

Por outro lado tem-se que, para todo, ω ∈ ∩ni=1Ac

i implica queω ∈ Aci para todo i. Logoω /∈ A i

para todo i. Conseqüentemente,ω /∈ ∪ni=1A i . Deste modo,ω ∈

∪ni=1A i

c. Nestas condições segue

que,∩n

i=1 Aci ⊂

∪ni=1A i

c(1.2)

Logo, de (??) e (??) segue a igualdade (i). Para (ii) tem-se que:Para todo ω ∈

∩ni=1A i

cimplica que ω /∈ ∩n

i=1A i . Logo, ω /∈ A i para pelo menos um i, con-seqüentementeω∈ Ac

i para pelo menos um i. Portanto,ω∈∪ni=1Ac

i . Assim,

∩ni=1A i

c⊂∪n

i=1Aci . (1.3)

Por outro lado tem-se que, para todo,ω ∈ ∪ni=1Ac

i implica queω ∈ Aci para pelo menos um i. Con-

seqüentemente,ω /∈ A i para pelo menos um i, portantoω /∈∩ni=1A i , logo,

∩ni=1A i

c. Assim,

∪ni=1 Ac

i ⊂

∩ni=1A i

c. (1.4)

De (??) e (??) segue a igualdade (ii).

1.2 Função indicadora

Definição 1.10 (Função indicadora). Seja A ⊂Ω, então

IA(ω) =

(

1 seω∈ A

0 seω /∈ A

Propriedades da função indicadoraSejam A ⊂Ω e B ⊂Ω, então:

(i) IAc (ω) = 1− IA(ω);

(ii) IA∪B (ω) = IA(ω)+ I B (ω)− IA(ω)I B (ω) =min

IA(ω), I B (ω)

;

(iii) IA∩B (ω) = IA(ω)I B (ω) =max

IA(ω), I B (ω)

;

(iv) IA−B (ω) = IA(ω)I B c (ω) e I B−A(ω) = IAc (ω)I B (ω);

(v) IA∆B (ω) = IA(ω)I B c (ω)+ IAc (ω)I B (ω).

(vi) IA(ω) = I B (ω) se e somente se A = B ;

(vii) IA(ω)≤ I B (ω) se e somente se A ⊆ B ;

Demonstração. Para (i) tem-se que: tome ω ∈ Ac então IAc (ω) = 1 e IA(ω) = 0 pois ω /∈ A logo1−IA(ω) = 1. Do mesmo, modo seω /∈ Ac então IAc (ω) = 0 e IA(ω) = 1 poisω∈ A logo 1−IA(ω) = 0.

Por outro lado, se ω ∈ A então IA(ω) = 1 e IAc (ω) = 0 pois ω /∈ Ac . Do mesmo, modo se ω /∈ Aentão IA(ω) = 0 e IAc (ω) = 1 poisω∈ Ac . Logo, IAc (ω) = 1− IA(ω).

1.3 Álgebra e Sigma álgebra

Definição 1.11 (Álgebra). Seja Ω um conjunto não vazio. Uma classe A de subconjuntos de Ω,satisfazendo:

(A1) Ω∈A ;

(A2) Se A ∈A então Ac ∈A ;

(A3) Se A ∈A e B ∈A então A ∪ B ∈A ;

é denominada uma álgebra de subconjuntos de Ω.

Proposição 1.2. SejaA uma álgebra de subconjuntos de Ω. Então, valem as seguintes proprieda-des:

(A4) ∅∈A ;

(A5) A é fechada para uniões e intersecções finitas, isto é, se A1 ∈A , . . . , An ∈A então ∪ni=1A i ∈A

e ∩ni=1A i ∈A .

Demonstração. (A4) é direto visto que o complementar de Ω é ∅.Para (A5) tem-se por indução que, A1 ∪ A2 ∈ A . Agora suponha que ∪k

i=1A i ∈ A , assim,∪k+1

i=1 A i =

∪ki=1A i

Ak+1. Deste modo, como ∪ki=1A i ∈ A e Ak+1 ∈ A segue que ∪k+1

i=1 A i ∈ A .Logo, vale a relação para todo n finito.

Para a segunda parte de (A5) tem-se que: como A1 ∈ A , . . . , An ∈ A segue por (A2) que Ac1 ∈

A , . . . , Acn ∈A , portanto da primeira parte de (A5) segue que ∪n

i=1Aci ∈A . Agora de (A2) segue que

∪ni=1Ac

i

c∈A . Mas da lei de Morgan sabe-se que

∪ni=1Ac

i

c=∩n

i=1A i .

Exemplo 1.2. Exemplos de álgebras:

1. A = ∅,Ω, esta é a álgebra trivial;

2. A = A, Ac ,∅,Ω, para Ω= A ∪Ac ;

3. Seja Ω = ω1,ω2,ω3 entãoA = ω1,ω2,ω3,ω1,ω2,ω1,ω3,ω2,ω3,∅,Ω é uma álgebrade subconjuntos de Ω. Neste caso,A é chamado de álgebra das partes de Ω e é denotado porP .

Exemplo 1.3. SejaΩ infinito, enumerável ou não, e sejaC uma classe de subconjuntos deΩ que sãofinitos ou cujos complementos são finitos, isto é, C = A ⊂ Ω : A ou Ac é finito. Prove que C é umaálgebra.

Demonstração. De fato, pois:

1. Ωc =∅ que é finito, portanto, Ω∈C ;

2. Seja A ∈C , logo A ou Ac é finito. Se A é finito segue que Ac ∈C pois

Acc = A é finito. Se Ac

é finito, então Ac ∈C ;

3. Seja A ∈C e B ∈C ,logo A ou Ac é finito e B ou B c é finito, assim:

• Se A e B forem finitos segue que A ∪ B é finito, portanto A ∪ B ∈C ;

• Se A ou B ou ambos forem infinitos então

A ∪ Bc = Ac ∩ B c é finito pois Ac ou B c ou

ambos são finitos. Logo A ∪ B ∈C .

Definição 1.12 (σ-Álgebra). Uma classeF de subconjuntos de Ω é denominada uma σ-álgebra seela satisfaz:

(F1) Ω∈F ;

(F2) Se A ∈F então Ac ∈A ;

(F3) Se A i ∈F para todo i ≥ 1 então⋃∞

i=1 A i ∈F ;

Observação 1.8. Da Definição ?? segue que:

1. Todaσ-álgebra é uma álgebra;

2. Nem toda álgebra é umaσ-álgebra.

Observação 1.9. O par (Ω,F ) é chamado de espaço mensurável.

1.4 Medida de Probabilidade

Definição 1.13 (Definição Clássica). Seja (Ω,F ) um espaço finito de eventos equiprováveis. Assim,para todo A ∈F tem-se que,

P(A) =#A

#Ωem que # é o número de elementos do conjunto.

Exemplo 1.4. Considere o experimento aleatório (E2). Seja A=Obtenção de faces iguais. Portanto,A =

(c , c ), (r, r )

. Deste modo,

P(A) =2

4= 0, 5.

1.4.1 Alguns conceitos básicos de Contagem

Nesta seção vamos apresentar os princípios aditivo e multiplicativo e mostrar como a aplica-ção destes princípios podem ser feitas para obter as fórmulas de permutação, arranjo e combina-ção.

Definição 1.14 (Princípio Aditivo). Sejam A1, . . . , An uma partição, então # ∪ni=1 A i =

∑ni=1 a i . Se

A1, . . . , An for uma partição de Ω então #∪ni=1 A i = #Ω= n, em que n é número de elementos de Ω.

Da Definição ?? segue que, se A =∪ni=1A i então,

P(A) =

∑ni=1 a i

n.

Exemplo 1.5. Numa confeitaria há 5 sabores de picolés e 3 sabores de salgados. Suponha que Mariasó tenha permissão para tomar um picolé ou comer um salgado. Quantos são os possíveis pedidosde Maria?

Solução: Tem-se os seguintes eventos: Ω= P1, . . . , P5,S1,S2,S3,

A1 = ω∈Ω :ω= p i col e A2 = ω∈Ω :ω= s a l g a do

Assim, o evento A ="‘tomar um picolé ou comer um salgado"’ é A = A1∪A2. Logo, tem-se que Mariapode escolher entre #A1 ∪A2 = 5+3= 8 pedidos possíveis.

Exemplo 1.6. Uma caixa contém quatro lâmpadas de 40 W , cinco de 60 W e seis de 75 W . Umalâmpada é sorteada ao acaso, qual a probabilidade que seja uma lâmpada de 40 W ou 75 W ?

Solução: Tem-se os seguintes eventos: Ω= L401, . . . , L404, L601, . . . , L605, L751, . . . , L756,

A1 = ω∈Ω :ω= L40i , i = 1, . . . , 4 e A2 = ω∈Ω : L75j , j = 1, . . . , 6

Portanto,

P(A1 ∪A2) =4+6

15=

2

3.

Definição 1.15 (Princípio Multiplicativo). Sejam A1, . . . , An n eventos em que A i ∈Ωi . Se cada eventoA i pode ocorrer de m i maneiras diferentes. Então esses n eventos podem ocorrer em sucessão dem1×· · ·×mn maneiras diferentes, isto é, o evento produto A1×· · ·×An tem cardinalidade m1×· · ·×mn .

Exemplo 1.7. Suponha mo exemplo anterior que Maria tenha permissão para tomar um picolé ecomer um salgado. Quantos são os possíveis pedidos de Maria, neste caso?

Solução: Tem-se os seguintes eventos: Ω= P1, . . . , P5,S1,S2,S3,

A1 = ω∈Ω :ω= p i col e A2 = ω∈Ω :ω= s a l g a do

Assim, o evento A ="‘tomar um picolé e comer um salgado"’ é A = A1×A2. Logo, tem-se que Mariapode escolher entre #A1×A2 = 5×3= 15 pedidos possíveis.

Vamos agora mostrar como combinar os dois princípios.

Exemplo 1.8. Um amigo mostrou-me 5 livros diferentes de Matemática, 7 livros diferentes de Físicae 10 livros diferentes de Química e pediu-me para escolher 2 livros com a condição de que eles nãofossem da mesma matéria. De quantas maneiras eu posso escolhê-los?

Solução: Tem-se os seguintes eventos: A1 = M 1, . . . , M 5, A2 = F1, . . . , F7 e A3 = Q1, . . . ,Q10.Agora note que posso fazer as seguintes escolhas: A1×A2 ou A1×A3 ou A2×A3. Logo,

#(A1×A2)∪ (A1×A3)∪ (A2×A3) = #(A1×A2)+#(A1×A3)+#(A2×A3)

= 5×7+5×10+7×10= 155.

Exemplo 1.9. No Exemplo ??, suponha que duas lâmpadas sejam selecionadas ao acaso, qual aprobabilidade que:

(a) Exatamente duas sejam de 75 W ?

Solução: Seja,Ω1 = L401, . . . , L404, L601, . . . , L605, L751, . . . , L756

eΩ2 = L401, . . . , L404, L601, . . . , L605, L751, . . . , L755,

com A1 = L75, # A1 = 6 e A2 = L75 e # A2 = 5.. Assim, tem-se que # A1×A2 = 6 ∗ 5 = 30 e# Ω1×Ω2 = 15 ∗14= 210,

P(A1×A2) =30

210=

1

7.

(b) Sair uma de 40 W e uma de 60 W ? (combinando os dois princípios)

Solução: Seja,Ω1 = L401, . . . , L404, L601, . . . , L605, L751, . . . , L756,

# Ω1 = 15,Ω2 = L401, . . . , L403, L601, . . . , L605, L751, . . . , L756,

# Ω2 = 14 ouΩ3 = L401, . . . , L404, L601, . . . , L604, L751, . . . , L756,

# Ω3 = 14, com A1 = L401, . . . , L404 e # A1 = 4, A2 = L601, . . . , L605 e # A2 = 5. Assim,

”Sair uma de 40 W e uma de 60 W ”= A1×A2 ou A2×A1,

logo,

P((A1×A2)∪ (A2×A1)) = P(A1×A2)+P(A2×A1) =4×5

15×14+

5×4

15×14

Permutação Simples

Uma permutação de n elementos distintos é qualquer agrupamento ordenado desses objetos.Assim, seja A i o conjunto de elementos quando da escolha do i-ésimo elemento sem reposição.Assim, se inicialmente tivermos n elementos, então #A i = n − i + 1. Deste modo, o número deelementos em uma permutação simples será dada por,

#(A1× · · ·×An ) = n × (n −1)× · · ·×1= n !

Notação: Pn = n !.

Exemplo 1.10. Considere uma urna com 5 bolas numeradas de 1 a 5 e seja o seguinte experimento:retirar 3 bolas sem reposição. Qual a probabilidade dos três números sorteados serem o 1,2 e o 3, nãonecessariamente nessa da ordem? Qual a a probabilidade dos três números sorteados serem o 1,2 eo 3, nessa da ordem?

Solução: Tem-se que A ="’os três números sorteados são o 1,2 e o 3"’. Como a ordem não importatem-se que #A = P3 = 3! = 6, que são as permutações simples dos 3 números. Vamos agora calcu-lar o número de elementos de Ω. Utilizando o princípio multiplicativo tem-se que: seja A1 =as 5bolas numeradas, A2 =as 4 bolas numeradas restantes depois da primeira retirada e A3 =as 3 bolasnumeradas restantes depois da segunda retirada. Assim,

#Ω= #(A1×A2×A3) = 5×4×3= 60.

Note que nesse cálculo foi considerado as permutações simples de cada elemento. Assim,

P(A) =#A

#Ω=

6

60= 0, 1.

Para o segundo caso, tem-se que: #A = 1 assim,

P(A) =#A

#Ω=

1

60.

Arranjos Simples

Arranjos simples de n elementos distintos tomados r a r, r ≤ n , são todos os grupos distin-tos(ordenados), que diferem pela ordem e pela natureza dos r elementos que compõe cada grupo.Note que o arranjo simples é semelhante é o caso geral e a permutação simples é o caso particularquando r = n . Assim, seja A i o conjunto de elementos quando da escolha do i-ésimo elementosem reposição. Assim, se inicialmente tivermos n elementos, então #A i = n − i +1. Deste modo, onúmero de elementos em um arranjo simples será dada por,

#(A1× · · ·×Ar ) = n × (n −1)× · · ·× (n − r +1)

multiplicando em cima e em baixo por (n − r )! obtém-se,

#(A1× · · ·×Ar ) =n × (n −1)× · · ·× (n − r +1)× (n − r )!

(n − r )!=

n !

(n − r )!.

Notação: Arn =

n !(n−r )! .

Combinações Simples

Combinações simples de n elementos distintos tomados r a r, r ≤ n , são todos os grupos nãoordenados de p elementos que diferem entre si apenas pela natureza dos elementos e não pelaordem. Deste modo, basta dividir o número de arranjos simples tomados r a r pelo número depermutações r a r. Assim,

Arn

Pr=

n !

r !(n − r )!=

n

r

Notação: C rn =

n

r

.

Observação 1.10. Note que

C rn =

n

r

=

n

n − r

=C n−rn .

Os valores C rn são chamados de coeficientes binomiais, por causa do fato que,

(a +b )n =n∑

r=0

C rn a r b n−r .

Definição 1.16. Seja (Ω,F ) um espaço não enumerável, comΩ⊂Rn , n ≥ 1. Então, para todo A ∈Fsegue que a probabilidade de A é dada por,

P(A) =|A ||Ω|

em que || poderá ser: um comprimento, uma área, um volume, etc. Esse é o conceito geométrico deprobabilidade.

Exemplo 1.11. Um ponto (a ,b ) é escolhido aleatóriamente no quadrado definido por −1≤ x ≤ 1 e−1≤ y ≤ 1. Qual a probabilidade que a equação a z +b = 0 tenha solução positiva.

Solução: Note que,

z =−b

a≥ 0

se e somente se (a ,b ) ∈ [−1, 0)× [0, 1] ou (a ,b ) ∈ (0, 1]× [−1, 0]. Assim, |Ω|= 2× 2= 4 e |A |= 1× 1+1×1= 2. Portanto,

P(A) =2

4= 0, 5.

Definição 1.17. Seja Ω um espaço amostral de um experimento aleatório. Seja n repetições inde-pendentes de um experimento aleatório e n A o número de ocorrências do evento A ⊂ Ω. Então, aprobabilidade de A é dada por,

P(A) = limn→∞

n A

nEsse é o conceito frequencista de probabilidade.

Definição 1.18. Seja (Ω,F ) um espaço mensurável. Então uma função P :F → [0, 1] é uma proba-bilidade se,

(P1) P(Ω) = 1;

(P2) Para todo A ∈F tem-se P(A)≥ 0;

(P3) P éσ-aditiva, isto é, se A1, A2, . . . , são dois a dois disjuntos então,

P

∞⋃

n=1

An

!

=∞∑

n=1

P(An ).

Esta é a definição axiomática devida a Kolmogorov. A trinca (Ω,F , P) é chamada de espaço deprobabilidade.

Observação 1.11. Note que de um modo geral a medida de probabilidade P não precisa assinalaruma probabilidade para todo evento, isto é, não precisa ter uma probabilidade associada a todoponto amostral de Ω, mas apenas para os eventos emF .

Exemplo 1.12. Seja Ω=n

1, 2, 3o

e considere aσ-álgebra das partes,

P =n

∅,Ω,1,2,3,1, 2,1, 3,2, 3o

e uma outra σ-álgebra F =n

∅,Ω,3,1, 2o

. Seja P1 a medida de probabilidade em (Ω,P ) dadapor

P1(1) = P1(2) = P1(3) =1

3e P1(1, 2) = P1(1, 3) = P1(2, 3) =

2

3.

Seja P2 a medida de probabilidade em (Ω,F ) dada por P2(3) = 13

e P2(1, 2) = 23

. Consideremosagora dois eventos, A = 1, 2 e B = 2, 3, então P1(A) = P2(A) = 2

3e P1(B ) = 1

3entretanto P2(B ) não

está definido. Neste caso diz-se que o evento B éP -mensurável mas não éF -mensurável.

Observação 1.12. Observe que para o espaço mensurável (Ω,P ) foi definido uma probabilidadepara todoω∈Ω. Note que nestes casos a probabilidade de qualquer outro evento A ∈P é dada por,

P(A) =∑

n

ω∈Ω:ω∈A

o

P(ω).

Deste modo, se P for definida para todo ω ∈ Ω então estará bem definida para qualquer σ-álgebraF .

Propriedades de uma medida de probabilidadeSeja (Ω,F , P), então para todo A ∈F e B ∈F , tem-se que:

(P4) P(Ac ) = 1−P(A).

Demonstração. De fato, como Ω= A ∪Ac e A ∩Ac =∅ segue que,

P(Ω) = 1= P(A ∪Ac ) = P(A)+P(Ac ) ⇒ P(Ac ) = 1−P(A)≥ 0;

(P5) P(∅) = 0, pois Ω=∅c logo por (C1)

P(∅) = 1−P(Ω) = 1−1= 0;

(P6) P é uma função não decrescente, isto é, para todo A, B ∈F tal que A ⊆ B tem-se que P(A)≤P(B ).

Demonstração. De fato, como B = (A ∩ B )∪ (Ac ∩ B ) e A ∩ B = A pois A ⊆ B , segue que

P(B ) = P(A ∩ B )+P(Ac ∩ B ) = P(A)+P(Ac ∩ B )︸ ︷︷ ︸

≥0

≥ P(A);

(P7) Para todo A, B ∈ F tal que A ⊆ B tem-se que P(B −A) = P(B )−P(A); Este resultado seguediretamente do anterior;

(P8) Para todo A, B ∈F arbitrários tem-se que:

P(A − B ) = P(A)−P(A ∩ B ) e P(B −A) = P(B )−P(A ∩ B ).

Demonstração. De fato, como A = (A∩B )∪(A∩B c ) = (A∩B )∪(A−B ) e B = (A∩B )∪(Ac ∩B ) =(A ∩ B )∪ (B −A) segue que,

P(A) = P(A ∩ B )+P(A − B ) e P(B ) = P(A ∩ B )+P(B −A)

Logo,P(A − B ) = P(A)−P(A ∩ B ) e P(B −A) = P(B )−P(A ∩ B ).

(P9) Para todo A ∈F tem-se que 0≤ P(A)≤ 1. Este resultado segue de (P1), (P2) e (C3) e do fatoque A ⊆Ω;

(P10) Para todo A, B ∈F arbitrários tem-se que:

P(A ∪ B ) = P(A)+P(B )−P(A ∩ B ).

Demonstração. De fato, como A = (A ∩ B )∪ (A ∩ B c ) e B = (A ∩ B )∪ (Ac ∩ B ) tem-se que,

A ∪ B =

(A ∩ B )∪ (A ∩ B c )

(A ∩ B )∪ (Ac ∩ B )

= (A ∩ B )∪ (A ∩ B c )∪ (Ac ∩ B ) = (A ∩ B )∪ (A − B )∪ (B −A)

Perceba que A ∩ B , A − B e B −A são disjuntos. Assim, por (P3) e (P8) segue que,

P(A ∪ B ) = P(A ∩ B )+P(A − B )+P(B −A)

= P(A ∩ B )+ [P(A)−P(A ∩ B )]+ [P(B )−P(A ∩ B )] = P(A)+P(B )−P(A ∩ B ).

1.5 Probabilidade Condicional

Seja (Ω,F , P) o espaço de probabilidade para um determinado experimento aleatório. Supo-nha que tenhamos a priori alguma informação a respeito do resultado do experimento aleatório.Por exemplo, suponha que saibamos que um determinado evento B ∈ F ocorreu. Isto eliminaqualquer incerteza que tínhamos a respeito da ocorrência ou não do evento B. Além do mais, estanova informação a respeito do experimento aleatório pode mudar as incertezas a respeito de ou-tros eventos emF e portanto uma nova medida de probabilidade deve ser considerada. Esta novamedida de probabilidade é também uma medida no espaço mensurável (Ω,F ), será chamada deProbabilidade condicional.

Exemplo 1.13. SejaΩ=

1, 2, 3, 4, 5, 6

um espaço de eventos equiprováveis. SejaF =P aσ-álgebradas partes de Ω e P a medida de probabilidade definida em (Ω,F ) assim,

P(A) =#A

para todo A ∈F . Considere os seguintes eventos,

A = 1, 2, 6 e B = 2, 3, 5.

Deste modo, tem-se que

P(A) =3

6=

1

2e P(B ) =

3

6=

1

2.

Suponha agora que tenhamos a informação que o evento B ocorreu. Essa informação poderá alterara probabilidade atribuída aos eventos em F . A nova medida de probabilidade será denotada porP(.|B ). Observe que podemos considerar que temos um novo espaço amostral ΩB = B e uma novaσ-álgebra

FB =

C ⊂ B : C = A ∩ B , para algum A ∈F

.

Desta maneira, tem-se queFB ⊂F , por este motivoFB é denominada uma restrição deF ao eventoB. Assim, o novo espaço de probabilidade seria

B ,FB , P(.|B )

. Para o exemplo acima, dado que oevento B ocorreu, então o evento A só irá ocorrer se o evento C = 1= A ∩ B ocorrer, assim

P(A |B ) =#(A ∩ B )

#(B )=

1

3.

Entretanto, não é necessária a construção deste novo espaço de probabilidade, pois pode-se conside-rar apenas uma nova medida de probabilidade para o mesmo espaço mensurável (Ω,F ). Para fazerisso, basta que a nova medida de probabilidade P(.|B ) seja válida para todo A ∈ F e não apenaspara A ∈FB . Deste modo, para um dado evento B ∈F tem-se

P(A) =P(A)P(Ω)

=P

A ∩ (B ∪ B c )

P(B ∪ B c )

=P(A ∩ B )+P(A ∩ B c )

P(B )+P(B c )

Nestas condições segue que, dado que o evento B ocorreu, tem-se que

P(B c ) = 0 e P(A ∩ B c ) = 0

logo pode-se definir P(.|B ) para todo A ∈F , com segue,

P(A |B ) =P(A ∩ B )

P(B ).

Para o exemplo assim tem-se que,

P(A |B ) =1

3.

Definição 1.19 (Probabilidade Condicional). Seja (Ω,F , P) um espaço de probabilidade. Seja B ∈F um evento tal que P(B )> 0. Então a probabilidade condicional, dado o evento B, é uma funçãodenotada por P(.|B ) e definida para todo A ∈F como segue,

P(A |B ) =P(A ∩ B )

P(B ). (1.5)

em que P(A |B ) é chamada a probabilidade condicional de A dado B.

Suponhamos agora que tenhamos

Ω1,F1, P1

e

Ω2,F2, P2

dois espaços de probabilidade e

Ω,F , P

o espaço produto associado. Considere A1 ∈ Ω1 e A2Ω2, então quem seria P1(A1|A2) eP2(A2|A1) ? Para poder utilizar a Definição ?? temos que colocar os eventos A1 e A2 no mesmoespaço. Para fazer isso, vamos verificar quem seria os eventos associados no espaço produto

Ω,F , P

. Note que, o evento associcado a A1 em F é A = A1 × Ω2 pois se ω1 ∈ A1 então ω =(ω1,ω2) ∈ A, do mesmo modo se ω = (ω1,ω2) ∈ A então ω1 ∈ A1, logo P(A) = P1(A1). De maneiraanáloga segue que para B =Ω1×A2, tem-se P(B ) = P2(A2). Note ainda que,

A ∩ B = (A1×Ω2)∩ (Ω1×A2) = A1×A2.

Portanto, da Definição ?? tem-se que,

P1(A1|A2) = P(A |B ) =P(A ∩ B )

P(B )=

P(A1×A2)P2(A2)

e P1(A2|A1) = P(B |A) =P(A ∩ B )

P(A)=

P(A1×A2)P1(A1)

.

Lema 1.1. A função P(.|B ) é uma medida de probabilidade em (Ω,F ).

Demonstração. De fato,

1. P(Ω|B ) = 1, pois

P(Ω|B ) =P(Ω∩ B )

P(B )=

P(B )P(B )

= 1;

2. Para todo A ∈F segue que,

P(A |B ) =P(A ∩ B )

P(B )≥ 0

pois P(B )> 0 e P(A ∩ B )≥ 0;

3. Seja A1, A2, . . .∈F tal que A i ∩A j =∅ para i 6= j então,

P

∞⋃

n=1

An

B

!

=P⋃∞

n=1 An

∩ B

P(B )=

P⋃∞

n=1(An ∩ B )

P(B )

=

∑∞n=1 P(An ∩ B )

P(B )=

∞∑

n=1

P(An ∩ B )P(B )

=∞∑

n=1

P(An |B ).

Teorema 1.1 (Regra do Produto). Seja A1, A2, . . . , An ∈F eventos tais que,

P

n−1⋂

i=1

An

!

> 0

então,

P

n⋂

i=1

An

!

= P(A1)P(A2|A1)P(A3|A1 ∩A2) · · ·P(An |A1 ∩A2 ∩· · · ∩An−1).

Se A i ∈Fi para i = 1, . . . , n então,

P

n⋂

i=1

An

!

= P1(A1)P2(A2|A1)P3(A3|A1 ∩A2) · · ·Pn (An |A1 ∩A2 ∩· · · ∩An−1).

Demonstração. Fazer por indução. Tem-se que P(A1 ∩ A2) = P(A1)P(A2|A1) pela Definição ?? deprobabilidade condicional. Suponha que é valido para k , isto é,

P(A1 ∩· · · ∩Ak ) = P(A1)P(A2|A1)× · · ·×P

Ak

∩k−1i=1 A i

e então mostrar que vale para n = k +1. Assim, seja Bk =∩ki=1A i , logo

P(Bk ∩Ak+1) = P(Bk )P(Ak+1|Bk ).

Exemplo 1.14. Uma urna contém 2 bolas brancas, 3 pretas e 4 verdes. Duas bolas são retiradas aoacaso sem reposição. Qual a probabilidade de que:

(a) Ambas sejam verdes?

(b) Ambas sejam da mesma cor?

Solução: Seja (Ω1,F1, P1) o espaço de probabilidade na primeira retirada comΩ1 = b , v, p, (Ω1,F1, P1)o espaço de probabilidade na segunda retirada com Ω2 = b , v, p, e Ω = Ω1×Ω2 o espaço amostraldo experimento, assim

(a) sejam os seguintes eventos: A1 = v =”retirar verde na primeira retirada” e A2 = v =”retirarverde na segunda retirada” e no espaço produto, A = A1 ×Ω2 = (v,b ), (v, v ), (v, p ) =”retirarverde na primeira retirada” e B = Ω1 × A2 = (b , v ), (v, v ), (p , v ) =”retirar verde na segundaretirada”. Assim,

P(A1×A2) = P(A)P(B |A) = P1(A1)P2(A2|A1) =4

3

8=

1

6.

(b) sejam os seguintes eventos: Bi = b =”retirar branca na i-ésima retirada” e C i = p =”retirarpreta na i-ésima retirada”. O evento desejado é (A1×A2)∪ (B1× B2)∪ (C1×C2), portanto,

P

(A1×A2)∪ (B1× B2)∪ (C1×C2)

= P(A1×A2)+P(B1× B2)+P(C1×C2)

= P1(A1)P2(A2|A1)+P1(B1)P2(B2|B1)+P1(C1)P2(C2|C1)

=2

1

8+

3

2

8+

4

3

8

=20

72=

5

18

Exemplo 1.15. Um carcereiro informa a três prisioneiros que um deles foi sorteado para ser exe-cutado no dia seguinte, enquanto que os outros dois serão libertados. O prisioneiro João Espeto seaproxima do carcereiro e cochicha no seu ouvido, solicitando que ele lhe conte qual dos outros doisprisioneiros será solto. O prisioneiro argumenta que isso não altera em nada a situação, visto quepelo menos um desses prisioneiros será solto. Entretanto, o carceiro não atende seu pedido, acre-ditando que isto poderia dar ao João Espeto alteração nas suas expectativas de ser libertado. Vocêacha que o carcereiro tem razão?Solução: Note que neste problema temos dois espaços amostrais: o espaço amostral de quem serásorteado para ser executado,

Ω1 =

A, B ,C

em que, A = o prisioneiro João Espeto será executado, e o espaço amostral sobre a informação que ocarcereiro poderá fornecer,

Ω2 =

b , c

em que b = o segundo prisioneiro será solto e c = o terceiro prisioneiro será solto. Assim, o espaçoamostral do nosso problema será o espaço produto,

Ω=Ω1×Ω2 =

(A,b ), (A, c ), (B ,b ), (B , c ), (C ,b ), (C , c )

.

Agora note que,

P

(A,b )

= P

A

P

b

A

=1

1

2=

1

6

Do mesmo modo,

P

(A, c )

=1

6,

P

(B ,b )

= P

B

P

b

B

=1

3×0= 0= P

(C , c )

e

P

(B , c )

= P

B

P

c

B

=1

3×1=

1

3= P

(C ,b )

.

Nestas condições segue que, se por exemplo o carcereiro disser que o segundo prisioneiro será soltoentão

P

A

b

=P

(A,b )

P

b =

1612

=1

3= P

A

.

Teorema 1.2 (Probabilidade Total). Seja A i , i = 1, . . . , n uma partição de Ω com P(A i ) > 0 paratodo i = 1, . . . , n. Então, para todo B ∈F tem-se que,

P(B ) =n∑

i=1

P(A i )P(B |A i ).

Demonstração. De fato, poisB = B ∩Ω= B ∩

∪ni=1A i

,

assim,

P(B ) = P

B ∩

∪ni=1A i

= P

∪ni=1(A i ∩ B )

=n∑

i=1

P(A i ∩ B ) =n∑

i=1

P(A i )P(B |A i ).

Exemplo 1.16. No curso de Engenharia Mecânica 5% dos homens e 2% das mulheres estão acimados pesos ideais. Um aluno é escolhido aleatoriamente. Sabendo-se que 60% dos alunos são homenscalcule a probabilidade que:

a) O estudante esteja acima do peso;

Solução: Seja Ω1 = h, m o espaço amostral relacionado ao sexo dos alunos e Ω2 = l , f oespaço amostral relacionado ao peso dos alunos. Assim, o espaço amostral do experimento édado por Ω=Ω1×Ω2. Seja A1 = h o evento o aluno é do sexo masculino e A2 = f o eventoo aluno está acima do peso ideal. Assim,

P2(A2|A1) = 0, 05, P2(A2|Ac1) = 0, 02, P1(A1) = 0, 60 e P1(Ac

1) = 0, 40

No espaço produto, o evento o aluno está acima do peso ideal é

A =Ω1×A2 = (A1 ∪Ac1)×A2 = (A1×A2)∪ (Ac

1×A2)

assim, a probabilidade do aluno está acima do peso ideal é dada por,

P2(A2) = P(A) = P

(A1×A2)∪ (Ac1×A2)

= P

A1×A2

+P

Ac1×A2

= P1(A1)P2(A2|A1)+P1(Ac1)P2(A2|Ac

1) = 0, 6×0, 05+0, 4×0, 02= 0, 038.

b) Seja mulher sabendo que o estudante está acima do peso.

Solução: temos que

P1(Ac1|A2) =

P(Ac1×A2)

P2(A2)=

P1(Ac1)P2(A2|Ac

1)P2(A2)

=0, 4×0, 02

0, 038= 0, 21.

Exemplo 1.17. Seja U1 e U2 duas urnas. A urna U1 contém 3 bolas pretas e 2 vermelhas e a urna U2

contém 4 bolas pretas e 2 vermelhas. Escolhe-se ao acaso uma urna e dela retira-se ao acaso umabola. Qual a probabilidade de que a bola seja preta?

Solução: Tem-se que: Ω = Ω1×Ω2 =n

(u 1, p ), (u 1, v ), (u 2, p ), (u 2, v )o

, em que u 1 =“bola da urna 1”,

u 2 =“bola da urna 2”, p =“bola preta” e v =“bola vermelha”. Sejam os eventos: A1 = u 1“bola daurna 1” e A2 = p“bola preta”. Do problema tem-se que: P1(A1) = P1(Ac

1) = 0, 5, P2

O evento de interesse é (U1 ∩P)∪ (U2 ∩P), assim:

P

(U1 ∩P)∪ (U2 ∩P)

= P(U1 ∩P)+P(U2 ∩P), pois os eventos são disjuntos

= P(U1)P(P |U1)+P(P |U2) =1

3

5+

1

4

6

=3

10+

1

3=

19

30

Teorema 1.3 (Fórmula de Bayes). Seja A i , i = 1, . . . , n uma partição de Ω com P(A i )> 0 para todoi = 1, . . . , n. Então, para todo B ∈F para o qual P(B )> 0 tem-se que,

P(A j |B ) =P(A j )P(B |A j )

∑ni=1 P(A i )P(B |A i )

Exemplo 1.18. Do exemplo anterior, calcule a probabilidade de que dado uma bola preta tenhasido sorteada, ela seja da urna U1?Solução: Primeiro note que U1 e U2 são uma partição de Ω. Assim,

P(U1|P) =P(U1)P(P |U1)

P(U1)P(P |U1)+P(U2)P(P |U2)

=12× 3

512× 3

5+ 1

2× 4

6

=3

101930

=9

19

Definição 1.20. Sejam A, B ∈ F e ((Ω,F ), P) um espaço de probabilidade. Então A e B são inde-pendentes se

P(A |B ) = P(A) ou se P(B |A) = P(B ).

Isto é, o fato de um dos eventos ocorrer não altera a probabilidade do outro ocorrer, assim da Defi-nição ?? de probabilidade condicional segue que,

P(A ∩ B ) = P(A)P(A |B ) = P(A |B )P(B ) = P(A)P(B ).

Exemplo 1.19. Sejam dois eventos A e B tal que P(A) = 12

, P(A |B ) = 12

e P(B |A) = 14

. Esses eventossão independes?Solução: Os eventos A e B são independentes, pois,

P(A ∩ B ) = P(A)P(B |A) =1

1

4=

1

8

P(A ∩ B ) = P(B )P(A |B )⇒ P(B ) =P(A ∩ B )P(A |B )

=1812

=1

4

P(A)P(B ) =1

1

4=

1

8= P(A ∩ B )

Definição 1.21. Seja ((Ω,F ), P) um espaço de probabilidade e A1, . . . , An eventos em F . Então oseventos são independentes(ou completamente independentes) se,

P(A i 1 ∩ · · · ∩A i k ) = P(A i 1)× . . .×P(A i k )

para k = 2, . . . , n e i 1, . . . , i k = 1, . . . , n tal que 1≤ i 1 < . . .< i k ≤ n. Diz-se também que estes eventossão dois a dois independentes se,

P(A i ∩A j ) = P(A i )P(A j ), para todo i 6= j .

1.6 Problemas

1. Na copa do mundo de futebol em 2006, os jogos das semi-finais foram Alemanha versusItália e França versus Portugal. Supondo que não sabemos os resultados destes jogos, res-ponda:

a) Qual o espaço amostral da classificação final dos quatro times?

b) Seja A o evento em que a Itália é a campeã da copa do mundo. Descreva o evento A;

c) Seja B o evento em que Portugal seja um dos finalistas. Descreva o evento B ;

d) Descreva os eventos A ∪ B e A ∩ B .

2. Considere os veículos que passam pela BR-230 na altura da UFPB, no ponto em que podemcontinuar na BR-230(f), seguir em direção à UFPB(d) ou seguir em direção ao centro pelaPedro II(e). Considerando a direção tomada por três veículos quaisquer que passam suces-sivamente, descreva os seguintes eventos:

a) Ω;

b) A = os três veículos seguem na mesma direção;

c) B = cada veículo toma uma direção diferente;

d) C = exatamente dois seguem em direção à UFPB;

e) D = exatamente dois seguem na mesma direção;

f) A∩B , A∩C , A∩D, B ∩C , B ∩D e C ∩D. Quais desses eventos formam uma partição deΩ?

3. Uma empresa de construção civil está construindo três prédios(1,2,3) em João Pessoa. SejaA i o evento em que a empresa entrega o prédio i no prazo previsto. Descreva os eventos aseguir em termos dos eventos dados A1, A2, A3 e desenhe o diagrama de Venn sombreando aregião correspondente ao evento descrito.

a) B1 = ao menos um prédio é entregue no prazo previsto;

b) B2 = todos os prédios são entregues no prazo previsto;

c) B3 = apenas o prédio 1 é entregue no prazo previsto;

d) B4 = Exatamente um prédio é entregue no prazo previsto;

e) B5 = nenhum prédio é entregue no prazo previsto;

4. Dois dados são lançados. Sejam os eventos:

A: o primeiro número é maior que o segundo;

B: o primeiro número é igual ao dobro do segundo;

C: a soma dos dois números é maior ou igual a 8.

a) Descreva o espaço amostral e os eventos A, B e C ;

b) Calcule a probabilidade dos eventos A, B e C ;

c) Calcule P(A ∩C ), P(B ∩C c ) e P(A |C c ).

5. Uma caixa contém fichas de duas cores sendo 4 vermelhas(v) e 3 pretas(p). Uma segundacaixa contém 2 vermelhas(v) e 4 pretas(p). Uma ficha é selecionada aleatoriamente da pri-meira caixa e colocada na segunda. Em seguida uma ficha é retirada da segunda caixa.

a) Descreva o espaço amostral do experimento. Obs.: Este experimento é composto poissão observadas duas variáveis: a cor da ficha retirada da 1a. caixa e a cor da ficharetirada da segunda caixa.

b) Seja A o evento a segunda ficha é vermelha. Descreva o evento A e calcule a sua proba-bilidade.

6. Um sistema de alarme que indica quando a temperatura de uma máquina está elevada aponto de provocar um incêndio utiliza três sensores(1,2,3) que agem independentementeum do outro. A probabilidade de cada sensor não funcionar é de 0,1 quando a temperaturaultrapassa 80oC . O alarme é ativado se pelo menos um dos sensores entrar em funciona-mento.

a) Descreva o espaço amostral do experimento. Obs.: o experimento é a observação dofuncionamento ou não dos sensores;

b) Seja A o evento o alarme dispara quando a temperatura ultrapassar 80oC . Descreva oevento Ac e calcule P(A) utilizando a relação entre P(A) e P(Ac ).

7. Uma máquina pode parar por defeito mecânico ou elétrico. Se há defeito elétrico a proba-bilidade da máquina parar é de 0,3 e se há defeito mecânico a máquina para na proporçãode 1 para 4. Em 80% das vezes que a máquina é ligada não há defeito mecânico, em 10% dasvezes que a máquina é ligada há defeito elétrico. Considere que não pode ocorrer mais deum defeito quando a máquina é ligada.

a) Descreva o espaço amostral do experimento. Obs.: Este experimento é composto poissão observadas duas variáveis: estado da máquina e defeito. Deste modo, o espaçoamostral é o resultado de um produto de dois espaços amostrais. Um espaço amostralé o da variável estado da máquina(parada ou em funcionamento) e o outro espaçoamostral é o da variável defeito(nenhum defeito, defeito elétrico, defeito mecânico).

b) Se a máquina parar, qual a probabilidade de ser por defeito mecânico?

c) Qual a probabilidade da máquina parar?

8. Para verificar o perfil de seus empregados o gerente de uma indústria coletou as seguintesinformações:

Menor que 25 anos(l) Entre 25 e 40 anos(b) Maior que 40 anos(u)Homens(h) 20 45 18Mulheres(m) 8 25 42

Um empregado é selecionado ao acaso:

a) Descreva o espaço amostral desse experimento;

b) Qual a probabilidade que ele seja homem ou tenha entre 25 e 40 anos de idade;

c) Qual a probabilidade que tenha mais de 40 anos e seja homem;

d) Qual a probabilidade que tenha menos de 25 anos sabendo que é mulher;

Considere agora que dois empregados são selecionados ao acaso e sem reposição:

e) Descreva o espaço amostral desse experimento;

f) Ambos tenham menos de 25 anos;

g) Exatamente 1 tenha mais de 40 anos;

h) A idade dos funcionários independe do sexo?

9. No curso de Engenharia Mecânica 5% dos homens e 2% das mulheres estão acima dos pesosideais. Um estudante é escolhido aleatoriamente. Sabendo-se que 60% dos estudantes sãohomens calcule a probabilidade de que:

a) O estudante esteja acima do peso;

b) Seja mulher sabendo que o estudante está acima do peso.

10. Na disciplina de Cálculo das Probabilidades e Estatística I, apenas dois alunos, Paulo e João,ficaram para fazer o exame final. A probabilidade de Paulo resolver a prova em mais de 1hora é 0,6 e a probabilidade de que João resolva a prova em menos de 1 hora é de 0,7. Qual aprobabilidade da prova ser resolvida em menos de 1 hora?

11. A probabilidade de uma mulher estar viva daqui a 30 anos é de 3/4 e de seu marido é de 3/5.Calcule a probabilidade de que:

a) Apenas o homem estar vivo;

b) Apenas a mulher estar viva;

c) Pelo menos um estar vivo;

d) Ambos estarem vivos.

12. Três empresa, 1,2 e 3, de informática disputam a obtenção de um contrato para a produçãode um software. O diretor do departamento de vendas da empresa 1 estima que sua com-panhia tem probabilidade igual à da empresa 2 de obter o contrato que por sua vez é iguala duas vezes a probabilidade da empresa 3 obter o mesmo contrato. Determine a probabili-dade da empresa 1 ou 3 obter o contrato.

13. Suponha que temos dois lotes nas seguintes condições: O primeiro lote(l 1) contendo 200peças das quais 10 tem defeito(d) de fabricação, e o segundo lote(l 2) contendo 300 peçasdas quais 12 tem defeito(d) de fabricação. Se uma peça for retirada de cada lote, qual é aprobabilidade de que:

a) Pelo menos uma das peças escolhidas seja perfeita;

b) Ambas tenham defeito de fabricação?

c) Nenhuma delas tenha defeito de fabricação?

d) Apenas a peça do primeiro lote tenha defeito de fabricação?

e) Somente uma delas tenha defeito de fabricação?

14. Numa cidade 20% dos carros são da marca K, 30% dos carros são táxis e 40% dos táxis são damarca K. Se um carro é escolhido, ao acaso, determinar a probabilidade de que:

a) Ser táxi e ser da marca K;

b) Ser táxi e não ser da marca K;

c) Não ser táxi, sabendo-se que é da marca K;

d) Não ser táxi e não ser da marca K;

e) Não ser táxi e ser da marca K.

15. Em uma empresa a probabilidade de que uma nova política de mercado tenha sucesso(A)foi estimada em 0,6. A probabilidade de que a despesa para o desenvolvimento da estratégiaseja mantida dentro dos limites do orçamento previsto(B) é de 0,5. Admitindo que ambosos eventos A e B sejam independentes, determine a probabilidade de que:

a) Pelo menos um dos objetivos seja atingido;

b) Somente A seja atingido;

c) Somente B seja atingido.

16. Em uma universidade, 40% dos estudantes praticam vôlei e 30% praticam natação. Dentreos que praticam vôlei, 20% praticam também natação. Que porcentagem de estudantes nãopraticam nenhum dos dois esportes?

17. Sejam A e B dois eventos tais que P(A) = 0, 4 e P(A ∪ B ) = 0, 7. Seja P(B ) = p . Para que valorde p , A e B serão mutuamente exclusivos? Para que valor de p A e B serão independentes?

18. Uma caixa contém 5 bolas brancas e três bolas pretas. Duas bolas são retiradas simulta-neamente ao acaso e substituídas por três bolas azuis. Em seguida duas novas bolas sãoretiradas da caixa.

a) Descreva o espaço amostral deste experimento;

b) Calcule a probabilidade de as duas últimas bolas retiradas sejam da mesma cor;

c) Se as duas últimas bolas retiradas forem uma branca e uma preta, calcular a probabili-dade de que, na primeira extração, tenham saído duas bolas brancas.

19. Dois jogadores jogam alternadamente uma moeda, ganhando o jogo aquele que primeiroobtiver uma cara.

a) Descreva o espaço amostral deste experimento;

b) Qual a probabilidade do primeiro jogador ganhar o jogo?

c) Qual a probabilidade do segundo jogador ganhar o jogo?

20. Em um lote de 12 lâmpadas, duas são defeituosas. Considere o experimento: três lâmpadassão escolhidas aleatoriamente.

a) Descreva o espaço amostral deste experimento;

b) Qual a probabilidade de que nenhuma seja defeituosa;

c) Qual a probabilidade de que exatamente uma seja defeituosa;

d) Qual a probabilidade de que pelo menos uma seja defeituosa;

e) Qual a probabilidade de que exatamente duas sejam defeituosas.

21. Em uma festa beneficente serão sorteados um DVD(a) e uma máquina fotográfica digital(b).São vendidos 400 bilhetes para o primeiro prêmio e 200 para o segundo. Uma mulher com-pra 4 bilhetes para concorrer a cada prêmio. Encontre a probabilidade de que:

a) Descreva o espaço amostral deste experimento;

b) Ela ganhe exatamente um prêmio;

c) Ela ganhe alguma coisa.

Capítulo 2

Variáveis aleatórias

Neste capítulo serão estudados o conceito de variável aleatória, sua classificação: discreta econtínua; os tipos de distribuição de probabilidade: função de probabilidade, função de distribui-ção e densidade de probabilidade; e os conceitos de esperança, variância e função geradora demomentos.

2.1 Conceitos e definições

Definição 2.1 (Variável aleatória). Seja (Ω,F , P)um espaço de probabilidade associado. Então umafunção X : Ω→ R, que associa a cada elemento de ω ∈ Ω um número real é uma variável aleatóriase a imagem inversa de todo boreliano da reta B for um elemento deF , isto é,

X−1(B ) =n

ω∈Ω : X (ω)∈ Bo

∈F

Os borelinos da reta é a classe de todos os tipos de intervalos da reta

n

(−∞,x ), (−∞,x ], (x ,∞), [x ,∞), (x , y ), [x , y ), (x , y ], [x , y ]o

Observação 2.1. A função X deve ser unívoca, isto é, para cadaω ∈ Ω deve haver apenas um X (ω)associado. Entretanto, diferentes valores deω podem levar a um mesmo valor de X .

Observação 2.2. Uma função X satisfazendo as condições da Definição ?? é chamada de variávelaleatóriaF−mensurável.

Exemplo 2.1. Considere o seguinte experimento: selecionar uma peça em uma linha de produção eobservar se a peça é boa ou ruim. Nestas condições, segue que Ω = b , r em que b=boa e r=ruim.Consideremos a seguinte variável aleatória,

X (ω) =

(

0 seω=b ,

1 seω= r,

Assim, considerando a σ−álgebra das partes de Ω, isto é, F =n

∅,Ω,b , ro

tem-se que para todo

boreliano B ⊂R tal que:

25

• 0, 1 /∈ B, por exemplo B = (−5, 0), assim X−1(B ) =∅∈F ;

• 0∈ B e 1 /∈ B, por exemplo B =

0, 12

, assim

X−1(B ) =X−1(0) = b ∈F ;

• 0 /∈ B e 1∈ B, por exemplo B = [1, 2], assim

X−1(B ) =X−1(1) = r = r ∈F ;

• 0, 1 ∈ B, por exemplo B = [0, 1], assim

X−1(B ) =X−1(0, 1) = b , r =Ω∈F ;

Portanto X como definido é uma variável aleatória.

Observação 2.3. Note que para todo boreliano B da reta tal que B ∩ Im(X ) =∅ tem-se X−1(B ) =∅∈F , em que Im(X ) é o conjunto imagem de X . Logo, é suficiente fazer a verificação apenas para oconjunto imagem de X que denotaremos de ΩX .

Definição 2.2. Seja (Ω,F , P) um espaço de probabilidade e X uma variável aleatória. Então PX será

a medida de probabilidade induzida por X no espaço

R,B

R

, tal que para todo A =X−1(B )∈Ftem-se que

PX (B ) = P

X−1(B )

= P(A).

Portanto

R,B

R

, PX

será o espaço de probabilidade induzido pela variável aleatória X .

Observação 2.4. Visto que PX (B ) = 0 para todo B ∩ ΩX = ∅, ao invés de utilizarmos o espaço

(R,B

R

, PX ) utilizaremos (ΩX ,FX , PX ), em queFX é aσ-álgebra gerada por ΩX .

Observação 2.5. De um modo geral, sempre que estamos trabalhando com a medida de probabili-dade induzida por uma variável aleatória X utilizamos a notação PX , entretanto para que a notaçãonão fique muito carregada e desde que não possa haver confusão não utilizaremos o subescrito.

Definição 2.3 (Função de Distribuição). Seja X uma variável aleatória, então sua função de distri-buição é definida como,

F (x ) = P(X ≤ x ) = P

X (ω)∈ (−∞,x ]

= P

X−1

−∞,x

,

para todo x ∈R. F é também conhecida como função de distribuição acumulada de X .

Propriedades: As condições necessárias e suficientes para que uma função seja uma função dedistribuição são:

(P1) limx→−∞ F (x ) = 0 e limx→∞ F (x ) = 1;

(P2) F é contínua à direita, isto é, para xn ↓ x tem-se que limxn→x F (xn ) = F (x+) = F (x );

(P3) F é não decrescente, isto é, F (x )≤ F (y ) para todo x , y ∈R tal que x ≤ y .

Exemplo 2.2. Seja X uma variável aleatória e F uma função dada por

F (x ) =

0 se x < 11c

1− e−(x−1)

se 1≤ x < 21c

1− e−1+ e−2− e−2(x−1)

se x ≥ 2.

a) Verifique se F pode ser uma função de distribuição;

Solução: F é uma função de distribuição para c = 1− e−1+ e−2. De fato,

(a)lim

x→−∞F (x ) = 0 pois F (x ) = 0 para x < 1

limx→∞

F (x ) = limx→∞

1

c

1− e−1+ e−2− e−2(x−1)

=1

c

1− e−1+ e−2

= 1

Assim, para c = 1− e−1+ e−2 tem-se limx→∞ F (x ) = 1;

(b) F é continua à direita pois é contínua nos intervalos x < 1, 1≤ x < 2 e x ≥ 2 e nos pontosx = 1, 2 tem-se que F (1) = F (1+) e F (2) = F (2+). Alem disso, note que F é continua pois

F (1) = F (1+) =1

c

1− e−(1−1)

= 0= F (1−)

e

F (2) = F (2+) =1

c

1− e−1+ e−2− e−2(2−1)

=1

c

1− e−1

= F (2−) =1

c

1− e−(2−1)

(c) F é não decrescente, pois

d F (x )d x

=

1c

e−(x−1) se 1≤ x < 22c

e−2(x−1) se x ≥ 2

0 caso contrário

≥ 0 para todo x ∈R.

b) Calcule P

X ≥ 1, 5

X < 4

.

Solução:

P

X ≥ 1, 5

X < 4

= 1−P

X < 1, 5

X < 4

= 1−P

X ≤ 1, 5

X ≤ 4

pois F é contínua

= 1−P

X ≤ 1, 5 , X ≤ 4

P

X ≤ 4

= 1−P

X ≤ 1, 5

P

X ≤ 4 = 1−

F (1, 5)F (4)

= 1−0, 39347

0, 76498= 0, 4856.

2.2 Classificação das variáveis aleatórias

As variáveis aleatórias podem ser discretas ou contínuas. A classe das variáveis aleatórias con-tínuas ainda pode ser subdividida em três: absolutamente contínua, singular e mista. Neste cursoserá abordada apenas a variável aleatória discreta e a absolutamente contínua.

Definição 2.4 (Variável aleatória discreta). Uma variável aleatória X é discreta se o número de va-lores que X possa assumir for enumerável.

Definição 2.5 (Função de Probabilidade). A função de probabilidade de uma variável aleatória Xdiscreta é uma função que atribui probabilidade a cada um dos possíveis valores x i de X , isto é,

PX (x i ) = P(X = x i ) = P(ω∈Ω : X (ω) = x i )

para todo i ∈ 1, 2, . . . , n, n ∈N e satisfaz as seguintes condições,

(i) para todo i ∈ 1, 2, . . . , n tem-se que 0≤ P(X = x i )≤ 1;

(ii)∑n

i=1 P(X = x i ) = 1.

Exemplo 2.3. Seja E =lançamento de duas moeda, seja X =número de caras ocorridos. Assim,

Ω=n

(c , c ), (c , r ), (r, c ), (r, r )o

ΩX =n

0, 1, 2o

e

PX (0) = P

X−1(0)

= P(r, r ) =1

4,

PX (1) = P

X−1(1)

= P

(c , r ), (r, c )

= P(c , r )+P(r, c ) =2

4=

1

2,

PX (2) = P

X−1(2)

= P(c , c ) =1

4.

Deste modo, a função de probabilidade de X é dada por

X PX (x )0 1

41 1

22 1

4

Definição 2.6. Para uma variável aleatória discreta a função de distribuição é dada por,

F (x ) =∑

x i≤x

PX (x i ) =∑

x i≤x

P(X = x i ).

para todo x ∈R.

Exemplo 2.4. Do exemplo anterior tem-se que,

F (x ) =

0 se x < 014

se 0≤ x < 134

se 1≤ x < 2

1 se x ≥ 2

Observação 2.6. Da Definição ?? segue que

• P(a <X ≤b ) = F (b )− F (a );

• P(a ≤X ≤b ) = F (b )−h

F (a )−P(X = a )i

= F (b )− F (a−);

• P(a <X <b ) =h

F (b )−P(X =b )i

− F (a ) = F (b−)− F (a );

• P(a ≤X <b ) =h

F (b )−P(X =b )i

−h

F (a )−P(X = a )i

= F (b−)− F (a−);

De fato,

F (b )− F (a ) =∑

x i≤b

P(X = x i )−∑

x i≤a

P(X = x i )

=

x i≤a

P(X = x i )+∑

a<x i≤b

P(X = x i )

−∑

x i≤a

P(X = x i )

=∑

a<x i≤b

P(X = x i ) = P(a <X ≤b ).

Exemplo 2.5. Remessas de carne são feitas periodicamente por um grande frigorífico industrial. Operíodo de entrega, isto é, o tempo transcorrido entre o recebimento do pedido e a entrega da carne,é uma variável aleatória X (medida em dias), com a seguinte função de probabilidade.

PX (x ) =

(

c (9−x ) se x = 4, 5, 6, 70 caso contrário .

Determinar:

(a) O valor da constante c; Resposta: c = 114

;

(b) A probabilidade de o período de entrega ser no mínimo 5 dias; Resposta: P(X ≥ 5) = 0, 6429.

Definição 2.7 (Variável aleatória contínua). Uma variável aleatória X é contínua se o número devalores que X possa assumir for não enumerável.

Definição 2.8 (Variável aleatória absolutamente contínua). Uma variável aleatória X é absoluta-mente contínua se existir uma função não negativa f tal que para todo x ∈R,

F (x ) =

∫ x

−∞

f (t )d t .

em que F é a função de distribuição da variável aleatória X .

Observação 2.7. Note que toda variável aleatória absolutamente contínua é uma variável alea-tória contínua mas nem toda variável aleatória contínua é uma variável aleatória absolutamentecontínua.

A função f da Definição ?? é chamada de função densidade de probabilidade, e da Definição??, segue que,

f (x ) =d F (x )

d xpara todo x ∈R aonde F for derivável.

Propriedades da função densidade: As condições necessárias e suficientes para que uma fun-ção seja uma função densidade são:

(i) f (x )≥ 0 para todo x ∈R;

(ii)∫∞

−∞f (x )d x = 1.

A partir da definição de função de distribuição para uma variável aleatória contínua tem-seque,

P

X (ω)∈ (a ,b ]

= P(a <X ≤b ) = P(a ≤X ≤b ) = P(a ≤X <b ) = P(a <X <b )

=

∫ b

a

f (x )d x = F (b )− F (a ).

para todo a ,b ∈R tal que a <b .

Exemplo 2.6. Seja X uma variável aleatória contínua. Seja f uma função como segue,

f (x ) =

(

2x se 0≤ x ≤ 1

0 caso contrário.

(a) Mostre que f é uma função densidade de probabilidade;

(b) Calcule P(X ≤ 0, 75)?

(c) Calcule P(X ≤ 0, 75|0, 5≤X ≤ 1)?

Solução:

(a) f é uma fdp pois,

(i) f (x )≥ 0 para todo x ∈R, pois

(1) Para x ∈ [0, 1] tem-se que 2x ≥ 0;

(2) Para x /∈ [0, 1] tem-se que f (x ) = 0.

(ii)∫ −∞

f (x )d x =

∫ −∞

2x d x = x 2

1

0= 1

Portanto,

F (x ) =

0 se x < 0

x 2 se 0≤ x ≤ 1

1 se x > 1.

(b) Do ítem anterior tem-se que,

P(X ≤ 0, 75) = F (0, 75) =

3

4

2

=9

16.

(c) temos que,

P(X ≤ 0, 75|0, 5≤X ≤ 1) =P ((X ≤ 0, 75)∩ (0, 5≤X ≤ 1))

P(0, 5≤X ≤ 1)=

P(0, 5≤X ≤ 0, 75)P(0, 5≤X ≤ 1)

=F (0, 75)− F (0, 5)

F (1)− F (0, 5)=

916− 1

4

1− 14

=5

12

2.2.1 Independência de Variáveis Aleatórias

Vamos agora definir o conceito de independência entre variáveis aleatórias. Como será visto,este conceito difere um pouco do conceito de independência entre eventos, pois agora cada variá-vel aleatória gera umaσ-álgebra, deste modo para que um conjunto de variáveis aleatórias sejamindependentes, as σ-álgebras deverão ser independentes, isto é, se tivermos n variáveis aleató-rias, então elas serão independentes se as nσ-álgebras fores independentes. Se isto ocorrer entãoquaisquer subconjunto das n variáveis aleatórias serão independentes. É exatamente este fato quedifere do conceito de independência entre eventos, isto é, n eventos independentes não implicaque são 2 a 2 independentes.

Definição 2.9 (Independência entre variáveis aleatórias). Sejam X1, . . . , Xn , n variáveis aleatóriasdefinidas no espaço de probabilidade (Ω,F , P). Então, X1, . . . , Xn são independentes se para todoboreliano da reta Bi ∈B

R

, i ∈ 1, . . . , n tivermos,

P(X1 ∈ B1, . . . , Xn ∈ Bn ) =n∏

i=1

P(X i ∈ Bi );

Pela definição acima segue que,

1. Se X1, . . . , Xn tem função de distribuição F1, . . . , Fn respectivamente, então,

F (x1, . . . ,xn ) =n∏

i=1

Fi (x i ).

2. Se X1, . . . , Xn tem função densidade f 1, . . . , f n respectivamente, então,

f (x1, . . . ,xn ) =n∏

i=1

f i (x i ).

Exemplo 2.7. Considere o experimento de lançar um moeda honesta duas vezes. Assim,

Ω=n

(c , c ), (c , r ), (r, c ), (r, r )o

.

Considere as seguintes variáveis aleatórias: X1=“número de caras nos dois lançamentos mais o nú-mero de coroas nos dois lançamentos”, X2=“número de caras nos dois lançamentos menos o númerode coroas nos dois lançamentos” assim,

Ω X1 X2

(c,c) 2 2(c,r) 2 0(r,c) 2 0(r,r) 2 -2

Deste modo, tem-se que,

X1 P(X1 = x ) X2 P(X2 = y ) P(X1 = x , X2 = y )2 1 2 1

414

2 1 0 12

12

2 1 -2 14

14

2.3 Função de Variáveis Aleatórias

Seja (Ω,F , P)um espaço de probabilidade, X uma variável aleatória neste espaço e (ΩX ,FX , PX ).Seja h :ΩX →Ruma funçãoFX -mensurável, nestas condições Y = h(X ) também será uma variávelaleatória e sua função de probabilidade induzida PY será para todo boreliano da reta B ,

P(Y ∈ B ) = P

X ∈ h−1(B )

= Pn

x ∈ΩX : h(x )∈ Bo

.

Definição 2.10. Chama-se supremo de um conjunto B à menor de suas cotas superiores. Assim, ses for o supremo de B então:

• para todo b ∈ B tem-se que b ≤ s ;

• para todo ε> 0 existe um b ∈ B tal que s −ε<b

Definição 2.11. Chama-se ínfimo de um conjunto B à maior de suas cotas inferiores. Assim, se i foro ínfimo de B então:

• para todo b ∈ B tem-se que b ≥ i ;

• para todo ε> 0 existe um b ∈ B tal que i +ε>b

Se h for uma função monótona não decrescente então a função de distribuição de Y é dadapor,

FY (y ) = P(Y ≤ y ) = P

X ≤ h−1(y )

= FX

h−1(y )

em que h−1(y ) = inf

x ∈ΩX : h(x )≥ y

é a inversa generalizada para este caso. Se h for uma funçãomonótona não crescente então a função de distribuição de Y é dada por,

FY (y ) = P(Y ≤ y ) = P

X ≥ h−1(y )

1− FX

h−1(y )−

em que h−1(y ) = inf

x ∈ΩX : h(x )≤ y

é a inversa generalizada para este caso.Se X for uma variável aleatória absolutamente contínua e h for uma função derivável e bijetora,

então a densidade de Y é dada por,

f Y (y ) =d FY (y )

d y=

d FX

h−1(y )

d y=

d FX

h−1(y )

d h−1(y )d h−1(y )

d y= f X

h−1(y )

J (x , y ).

em que

J (x , y ) =d h−1(y )

d y=

d h(x )d x

−1

x=h−1(y )

é chamado de jacobiano da transformação. Se h não for bijetora, então pode-se obter uma parti-ção do domínio da função de modo que em cada partição a função seja bijetora, nestas condiçõessegue para B1, . . . , Bk uma partição, h i a restrição da função h na partição Bi e Ji é o Jacobiano datransformação na partição Bi que,

f Y (y ) =k∑

i=1

f X

h−1i (y )

Ji (x , y ).

Exemplo 2.8. O tempo T em minutos necessário para um operário processar certa peça, é umavariável aleatória com a seguinte distribuição de probabilidade:

T(min) 2 3 4 5 6 7 t/∈ 2, 3, 4, 5, 6, 7P(t ) 0,1 0,1 0,3 0,2 0,2 0,1 0

(a) Para cada peça processada o operário ganha um fixo de R$2, 00, mais R$0, 50 por cada minutoinferior a 6 minutos. Determine a variavél aleatória X ganho do operário e a sua função dedistribuição;

Solução: Seja X = h(T ) a variável aleatória ganho do operário. Do problema tem-se que:

h(t ) =

(

2 se t = 6, 72+0, 5× (6− t ) se t = 2, 3, 4, 5

Gráficamente, temos que,

2 3 4 5 6 7

2.02.5

3.03.5

4.0

T

X

Figura 2.1: Ganho do operário

Note que h é monótona não crescente, assim

h−1(4, 0) = inft ∈ΩT : h(t )≤ 4, 0= inf2, 3, 4, 5, 6, 7= 2

Portanto,

• Para x < 2, 0 tem-se que F (x ) = 0;

• Para 2≤ x < 2, 5 tem-se que,

h−1(x ) = inft ∈ΩT : h(t )≤ x = inf6, 7= 6

assim,F (x ) = P

T ≥ h−1(x )

= P(T ≥ 6) = 0, 2+0, 1= 0, 3;

• Para 2, 5≤ x < 3, 0 tem-se que,

h−1(x ) = inft ∈ΩT : h(t )≤ x = inf5, 6, 7= 5

assim,F (x ) = P

T ≥ h−1(x )

= P(T ≥ 5) = 0, 2+0, 1+0, 2= 0, 5;

• Para 3, 0≤ x < 3, 5 tem-se que,

h−1(x ) = inft ∈ΩT : h(t )≤ x = inf4, 5, 6, 7= 4

assim,F (x ) = P

T ≥ h−1(x )

= P(T ≥ 4) = 0, 2+0, 1+0, 2+0, 3= 0, 8;

• Para 3, 5≤ x < 4, 0 tem-se que,

h−1(x ) = inft ∈ΩT : h(t )≤ x = inf3, 4, 5, 6, 7= 3

assim,F (x ) = P

T ≥ h−1(x )

= P(T ≥ 3) = 0, 2+0, 1+0, 2+0, 3+0, 1= 0, 9;

• Para x ≥ 4, 0 tem-se que,

h−1(x ) = inft ∈ΩT : h(t )≤ x = inf2, 3, 4, 5, 6, 7= 2

assim,

F (x ) = P

T ≥ h−1(x )

= P(T ≥ 3) = 0, 2+0, 1+0, 2+0, 3+0, 1+0, 1= 1;

F (x ) =

0 se x < 2

0, 3 se 2, 0≤ x < 2, 5

0, 5 se 2, 5≤ x < 3, 0

0, 8 se 3, 0≤ x < 3, 5

0, 9 se 3, 5≤ x < 4, 0

1 se x ≥ 4, 0

2.4 Esperança de uma variável aleatória

A esperança de uma variável aleatória nada mais é que o valor médio esperado da variável. Poreste motivo a esperança é usualmente denominado de valor esperado.

Definição 2.12 (Valor Esperado). Seja

Ω,F , P

um espaço de probabilidade, X variável aleatória

neste espaço e

ΩX ,FX , PX

o espaço de probabilidade induzido por X . Então o valor esperado de X ,

denotado por E (X ), é para o caso em que X é discreta,

E (X ) =∑

x∈ΩX

x P(x )

e para o caso em que X é contínua

E (X ) =

∫ ∞

−∞

x f (x )d x

em ambos os casos uma condição suficiente para a existência do valor esperado é E

|X |

<∞.

O incômodo desta definição é que temos que provar cada teorema duas vezes para caso dis-creto e para o caso absolutamente contínuo, isto sem levar em conta os outros tipos de variáveisaleatórias. Uma maneira de unificar estas definições e torna-la um pouco mais geral é utilizar oconceito da integral de Riemann-Stieltjes.

Definição 2.13 (Riemann-Stieltjes). Sejam h e F duas funções reais definidas no intervalo [a ,b ],com F uma função monótona não decrescente contínua à direita. Seja B =

n

x0,x1, . . . ,xn

o

uma

partição de [a ,b ] em que a = x0 < x1 < . . .< xn−1 < xn = b . Então a integral de Riemann-Stieltjes édefinida como,

∫ b

a

h(x )d F (x ) = limmax |x j−x j−1|→0

x i∈B

h(xk i )[F (x i )− F (x i−1)]

se o limite existir, em que x i ≤ xk i ≤ x i−1. Neste caso, diz-se que h é Riemann-Stieltjes integrável comrelação a F .

Se F for uma função degrau contínua à direita então

∫ b

a

h(x )d F (x ) =∑

x∈(a ,b ]:F (x )−F (x−)>0

h(x )[F (x )− F (x−)],

se F for uma função de distribuição então observe que F (x )− F (x−) = P(X = x ). Se F ′ = f (x ) em[a ,b ] então,

∫ b

a

h(x )d F (x ) =

∫ b

a

h(x ) f (x )x d x .

Note que para F (x ) = x então tem-se a integral de Riemann. O caso em que o intervalo é infinito étratado tomando-se o limite nos extremos de integração.

Definição 2.14. Seja X uma variável aleatória com função distribuição F . O valor esperado de X édado por,

E (X ) =

∫ ∞

−∞

x d F (x )

se E

|X |

<∞.

Exemplo 2.9. Seja X uma variável aleatória com função de distribuição,

F (x ) =

0 se x < 0

0, 5 se 0≤ x < 1

0, 75 se 1≤ x < 2

1 se x ≥ 2.

então,

E (x ) =∑

x∈R:F (x )−F (x−)>0

x [F (x )− F (x−)]

=∑

x∈0,1,2

x [F (x )− F (x−)]

= 0× [F (0)− F (0−)]+1× [F (1)− F (1−)]+2× [F (2)− F (2−)]

= 0×0, 5+1×0, 25+2×0, 25= 0, 75=3

4

Considere agora que X tem função de distribuição dada por

F (x ) =

0 se x < 0

x 2 se 0≤ x ≤ 1

1 sex ≥ 1

então,

F′(x ) = f (x ) =

(

2x se 0≤ x ≤ 1

0 caso contrário.

assim,

E (X ) =

∫ ∞

−∞

x d F (x ) =

∫ 0

−∞

x ×0d x +

∫ 1

0

x ×2x d x +

∫ ∞

1

x ×0d x =2

3.

2.4.1 Propriedades da Esperança

1. Seja c ∈R uma constante, então E (c ) = c ;

2. Seja h uma função uma funçãoFX -mensurável, então para Y = h(X ) tem-se que

E (Y ) =

∫ ∞

−∞

y d FY (y ) =

∫ ∞

−∞

h(x )d FX (x ).

Assim, se X for uma variável aleatória discreta então,

E (Y ) =∑

x∈ΩX

h(x )P(x )

e, se X for uma variável aleatória for absolutamnte contínua então,

E (Y ) =

∫ ∞

−∞

h(x ) f (x )d x .

3. Sejam X1, . . . , Xn n variáveis aleatória então

E

n∑

i=1

X i

!

=n∑

i=1

E (X i ).

2.5 Variância de uma variável aleatória

Definição 2.15. Seja X uma variável aleatória definida no espaço de probabilidade (Ω,F , P). Entãoa variância da variável aleatória X , denotado por V a r (X ) ouσ2 é,

V a r (X ) = E

(X −E (X ))2

=

∫ ∞

−∞

(x −µX )2d F (x ) = E (X 2)−

E (X )2.

Assim, se X é uma variável aleatória discreta, então

V a r (X ) =∑

x∈ΩX

(x −µX )2P(X = x ) =∑

x∈ΩX

x 2P(X = x )−

x∈ΩX

x P(X = x )

2

em que µX = E (X ). Se X é uma variável aleatória contínua, então

V a r (X ) =

∫ ∞

−∞

(x −µX )2 f (x )d x =

∫ ∞

−∞

x 2 f (x )d x −∫ ∞

−∞

x f (x )d x

2

.

Exemplo 2.10. Seja X uma variável aleatória com função de distribuição,

F (x ) =

0 se x < 0

0, 5 se 0≤ x < 1

0, 75 se 1≤ x < 2

1 se x ≥ 2.

então,

E (x 2) =∑

x∈0,1,2

x 2[F (x )− F (x−)] = 02× [F (0)− F (0−)]+12× [F (1)− F (1−)]+22× [F (2)− F (2−)]

= 0×0, 5+1×0, 25+4×0, 25= 1, 25=5

4.

logo,

V a r (X ) =5

4−

3

4

2

=11

16.

Considere agora que X tem função de distribuição dada por

F (x ) =

0 se x < 0

x 2 se 0≤ x ≤ 1

1 sex ≥ 1

então,

F′(x ) = f (x ) =

(

2x se 0≤ x ≤ 1

0 caso contrário.

assim,

E (X 2) =

∫ ∞

−∞

x 2d F (x ) =

∫ 0

−∞

x 2×0d x +

∫ 1

0

x 2×2x d x +

∫ ∞

1

x 2×0d x =x 4

2

1

0

=1

2.

assim,

V a r (X ) =1

2−

2

3

2

=1

18.

2.5.1 Propriedades da Variância

1. V a r (c ) = 0, pois E ((c −E (c ))2) = 0;

2. V a r (X ± c ) =V a r (X ), pois

V a r (X + c ) = E

(X + c −E (X + c ))2

= E

(X + c −E (X )− c )2

= E

(X −E (X ))2

=V a r (X ).

3. V a r (c X ) = c 2V a r (X ), pois

V a r (c X ) = E

(c X )2

E (c X )2 = E

c 2X 2−

c E (X )2

= c 2E

X 2− c 2E (X )2 = c 2

h

E

X 2−

E (X )2i

= c 2V a r (X ).

4. Sejam X1, . . . , Xn n variáveis aleatória então,

V a r

n∑

i=1

!

=n∑

i=1

V a r (X i )+2n−1∑

j=1

n∑

i=j+1

Cov (X j X i ).

em que,

Cov (X j , X i ) = E

(X j −E (X j ))(X i −E (X i ))

=

∫ ∞

−∞

∫ ∞

−∞

(x −µX j )(y −µX i )d F (x , y ) = E (X i X j )−E (X i )E (X j ),

é a covariância entre as variáveis X i e X j , também denotada por σX ,Y , e F (x , y ) é a funçãode distribuição conjunta de X i e X j . A covariância é uma medida de dependencia linear.Entretanto, para que se possa fazer comparações é mais adequado padronizar esta medida,assim

ρX ,Y =Cov (X j , X i )

p

V a r (X i )V a r (X j )

A medida resultante desta padronização é denominada coeficiente de correlação linear edenotada por ρX ,Y ou ρ(X , Y ). Deste modo, pode-se provar que −1≤ ρX ,Y ≤ 1. Se X1, . . . , Xn

forem independentes então, ρX ,Y = 0 logo Cov (X j , X i ) = 0, assim,

V a r

n∑

i=1

!

=n∑

i=1

V a r (X i ).

De fato, note que

(z 1+ . . .+ z n )2 =

n∑

i=1

z i

!

n∑

j=1

z j

=

n∑

j=1

n∑

i=1

z j z i

=n∑

i=1

z 2i +(z 1z 2+ z 1z 3+ · · ·+ z 1z n )+ (z 2z 1+ z 2z 3+ · · ·+ z 2z n )

+ (z 3z 1+ z 3z 2+ · · ·+ z 3z n )+ · · ·+(z n z 1+ z n z 2+ z n z 3+ · · ·+ z n z n−1)

=n∑

i=1

z 2i +2

n−1∑

j=1

n∑

i=j+1

z j z i .

assim,

V a r

n∑

i=1

X i

!

= E

n∑

i=1

X i

2!

E

n∑

i=1

X i

!2

= E

n∑

i=1

X 2i +2

n−1∑

j=1

n∑

i=j+1

X j X i

n∑

i=1

E (X i )2

= E

n∑

i=1

X 2i

!

+E

2

n−1∑

j=1

n∑

i=j+1

X j X i

n∑

i=1

[E (X i )]2+2n−1∑

j=1

n∑

i=j+1

E (X j )E (X i )

=n∑

i=1

E (X 2i )−

n∑

i=1

[E (X i )]2+2n−1∑

j=1

n∑

i=j+1

E (X j X i )−2n−1∑

j=1

n∑

i=j+1

E (X j )E (X i )

=n∑

i=1

E (X 2i )− [E (X i )]2

+2n−1∑

j=1

n∑

i=j+1

E (X j X i )−E (X j )E (X i )

=n∑

i=1

V a r (X i )+2n−1∑

j=1

n∑

i=j+1

Cov (X i , X j ).

Se X1, . . . , Xn forem independentes então, FX i ,X j (x i ,x j ) = FX i (x i )FX j (x j ) para todo i 6= j , assim

E (X j X i ) =

∫ ∞

−∞

∫ ∞

−∞

x i x j d FX i ,X j (x i ,x j ) =

∫ ∞

−∞

∫ ∞

−∞

x i x j d FX i (x i )d FX j (x j )

=

∫ ∞

−∞

x i d FX i (x i )

∫ ∞

−∞

x j d FX j (x j )

= E (X j )E (X i ).

Logo,

Cov (X i , X j ) = E (X i X j )−E (X i )E (X j ) = 0.

Observação 2.8. Note que se X e Y são variáveis aleatórias independentes entãoρX ,Y =Cov (X , Y ) =0, entretanto, ρX ,Y =Cov (X , Y ) = 0 não implica que X e Y são variáveis aleatórias independentes.

Um resultado interessante que relaciona a probabilidade de um evento com sua sua variância édada pela desigualdade de Chebyschev.

Teorema 2.1 (Desigualdade de Chebyschev). Seja X uma variável aleatória tal que a variânciaexista. Então para qualquer constante c > 0, tem-se que

P

|X −µX | ≥ c

≤V a r (X )

c 2.

Demonstração. De fato,

V a r (X ) =

∫ ∞

−∞

(x −µX )2d F (x )

=

x∈R:|X−µX |<c(x −µX )2d F (x )+

x∈R:|X−µX |≥c(x −µX )2d F (x )

≥∫

x∈R:|X−µX |≥c(x −µX )2d F (x )

Agora note que, como c > 0 tem-se que |X −µX | ≥ c implica que (X −µX )2 ≥ c 2, assim

V a r (X )≥∫

x∈R:|X−µX |≥c(x −µX )2d F (x )

≥∫

x∈R:|X−µX |≥cc 2d F (x )

= c 2

x∈R:|X−µX |≥cd F (x ) = c 2P

|X −µX | ≥ c

2.6 Função Geradora de Momentos

Até o momento exploramos duas características importantes sobre variáveis aleatórias que fo-ram o valor esperado e a variância. Nesta seção, vamos apresentar o conceito de momentos ede função geradora de momentos(FGM). A função geradora de momentos é assim chamada poisatravés da FGM pode-se determinar os momentos de uma variável aleatória. Outra característicaimportante da FGM é que se ela existir então pode ser utilizada para caracterizar uma variável ale-atória. Isto é, se duas variáveis aleatórias possuirem a mesma FGM então elas possuem a mesmafunção de distribuição.

Definição 2.16. Seja X uma variável aleatória com função de distribuição F . Então o momento deordem k é definido como,

µk = E (X k ) =

∫ ∞

−∞

x k d F (x )

se E

|X k |

<∞ e o momento central de ordem k é definido como,

E ((X −µX )k ) =

∫ ∞

−∞

(x −µX )k d F (x ).

Note da definição acima que, o valor esperado é o momento de ordem 1 e a variância é o mo-mento central de ordem k que pode ser expresso, como já visto, como a diferença entre o momentode ordem 2 e o quadrado do momento de ordem 1.

Definição 2.17. Seja X uma variável aleatória com função de distribuição F . Então sua funçãogeradora de momentos é definida como,

M X (t ) = E

e t X

=

∫ ∞

−∞

e t x d F (x )

desde que a esperança seja finita para |t |< to real, com t0 > 0, isto é, a esperança deve ser finita paravalores de t numa vizinhança de zero.

Exemplo 2.11. Seja X uma variável aleatória com função de distribuição,

F (x ) =

0 se x < 0

0, 5 se 0≤ x < 1

0, 75 se 1≤ x < 2

1 se x ≥ 2.

então a FGM de X é dada por,

M X (t ) = E

e t X

=∑

x∈0,1,2

e t x P(X = x )

= 1×0, 5+ e t ×0, 25+ e 2t ×0, 25= 0, 5+0, 25

e t + e 2t

.

Considere agora que X tem função de distribuição dada por

F (x ) =

0 se x < 0

x 2 se 0≤ x < 1

1 sex ≥ 1

então,

F′(x ) = f (x ) =

(

2x se 0≤ x < 1

0 caso contrário.

assim, utilizando a integral por partes∫

f ′(x )g (x )d x = f (x )g (x )−∫

f (x )g ′(x )d x

, tem-se que

M X (t ) =

∫ ∞

−∞

e t x d F (x ) =

∫ 0

−∞

e t x ×0d x +

∫ 1

0

e t x ×2x d x +

∫ ∞

1

e t x ×0d x

=2

tx e t x

1

0

−2

t

∫ 1

0

e t x d x =2

te t −

2

t 2e t x

1

0

=2

te t −

2

t 2e t +

2

t.

Note que neste caso quando t → 0, M X (t ) não é finita, logo não existe FGM.

2.6.1 Propriedades da Função Geradora - FGM

Suponha que a FGM de X exista para |t |< to , to > 0, então:

1. Para n ∈N tem-se que

E (X n ) =∂ n M X (t )∂ t n

t=0

.

Demonstração. De fato, primeiro note que,

e t x =∞∑

k=0

(t x )k

k != 1+ t x +

(t x )22!+ · · ·

aplicando a esperança, em ambos os lados tem-se que,

M X (t ) = E

∞∑

k=0

(t x )k

k !

!

=∞∑

k=0

(t )k

k !E (X k )

Assim,

∂ n M X (t )∂ t n

t=0

=∂ n

∑∞k=0

(t )k

k !E (X k )

∂ t n

t=0

=∞∑

k=0

E (X k )∂ n

(t )k

k !

∂ t n

t=0

Assim, para n = k tem-se que∂ n M X (t )∂ t n

t=0

= E (X n ).

2. Para X1, . . . , Xn variáveis aleatórias independentes com FGM’s M X1 , . . . , M Xn respectivamentee Y =X1+ · · · , Xn , então a função geradora de Y existe e é dada por,

M Y (t ) =n∏

i=1

M X i (t ).

Demonstração. De fato,

M Y (t ) = E

e t Y

= E

e t (X1+··· ,Xn )

= E

e t X1 × · · ·× e t Xn

=

∫ ∞

−∞

· · ·∫ ∞

−∞

e t x1 × · · ·× e t xn d F (x1, . . . ,xn )

=

∫ ∞

−∞

· · ·∫ ∞

−∞

e t x1 × · · ·× e t xn d FX1(x1) · · ·d FXn (xn )

=

∫ ∞

−∞

e t x 11 d FX1(x1)· · ·∫ ∞

−∞

e t xn d FXn (xn )

= E

e t X1

× · · ·×E

e t Xn

=n∏

i=1

M X i (t ).

3. Para X uma variável aleatória com função geradora de momentos M X . Seja Y = a X +b emque a e b são constantes. Então, a FGM de Y é dada por M Y (t ) = e b M X (a t ).

Demonstração. De fato,

M Y (t ) = E

e t Y

= E

e t (a X+b )

= E

e a t X e b t

= e b t E

e a t X

.

4. Para t = 0 tem-se que M X (0) = 1.

Demonstração. De fato, se a FGM existe então,

M X (0) = E

e t×0

= E (1) = 1.

5. Se FX , FY e M X (t ), M Y (t ) são respectivamente, as funções de distribuição e as FGM’s de Xe Y então FX (a ) = FY (a ) para todo a ∈ R se, e somente se, M X (t ) = M Y (t ) para todo t em|t | < t0, t0 > 0. Em outra palavras, Se X e Y tem a mesma função de distribuição então elaspossuem a mesma FGM, do mesmo modo se X e Y tem a mesma FGM então elas possuema mesma função de distribuição.

Demonstração. A demosntração deste fato não será feita pois precisaríamos de alguns re-sultados da análise que estão fora do escopo deste curso.

Observação 2.9. A propriedade (4) afirma que se a função geradora de momentos existir então seuvalor em t = 0 deve ser necessáriamente 1.

Observação 2.10. A propriedade (5) nos informa que se a função geradora de momentos existirentão ela pode ser utilizada para caracterizar uma distribuição de probabilidade.

Exemplo 2.12. Do exemplo anterior tem-se para M X (t ) = 0, 5+0, 25 (e t + e 2t ),

M′

X (t )

t = 0= 0, 25

e t +2e 2t

t=0= 0, 25(1+2) = 0, 75=

3

4;

e

M′′

X (t )

t = 0= 0, 25

e t +4e 2t

t=0= 0, 25(1+4) = 1, 25=

5

4.

Logo,

V a r (X ) =5

4−

3

4

2

=11

16.

Note ainda que para t = 0 tem-se M X (0) = 1.

Um resultado semelhante à desigualdade de Chebyschev, mas que neste caso relaciona o pro-babilidade de um evento com seu momento de ordem k é a desigualdade de Markov.

Teorema 2.2 (Desigualdade de Markov). Seja X uma variável aleatória tal que E (|X |k ) <∞ paraK > 0. Então para quaisquer k , c > 0, tem-se que

P

|X | ≥ c

≤E (|X |k )

c k.

Demonstração. A prova é semelhante à feita no teorema da Desigualdade de Chebyschev.

Capítulo 3

Modelos Probabilísticos para variáveisaleatórias discretas

Neste capítulo vamos apresentar alguns dos modelos mais usuais para variáveis aleatórias dis-cretas: Uniforme discreta, Bernoulli, Binomial, Geométrica, Binomial Negativa, Hipergeométricae Poisson. Existem ainda muitos outros modelos, entretanto, estes são os mais conhecidos.

3.1 Alguns Resultados Úteis

A seguir é apresentado alguns resultados que serão úteis em algumas demonstrações. Seja0< a ,b < 1, então:

1. (a +b )n =∑n

x=0

nx

a x b n−x e (a +b )n−1 =∑n−1

x=0

n−1x

a x b n−1−x ;

2. e x =∑∞

n=0x n

n !

3.∑∞

x=k a x =a k

1−a, k ≥ 0;

4.∑∞

x=1 x a x =a

(1−a )2;

5.∑∞

x=2 x (x −1)a x =2a 2

(1−a )3;

6. xn

x

= nn−1

x−1

;

7.n

r

= nr

n−1r−1

;

8.∑r

x=0

mx

n−mr−x

nr

= 1 e∑r−1

x=0

m−1x

n−1−m−1r−1−x

n−1r−1

= 1;

9.∑∞

x=0 [(1−a )e t ]x =1

1− (1−a )e tpara t < ln

11−a

, pois (1−a )e t < 1 para a série ser conver-

gente;

10. 1(1−b )r =

∑∞x=0

x+r−1r−1

b x .

45

3.2 Distribuição Uniforme Discreta

Seja (Ω,F , P) um espaço de probabilidade e A i , i = 1, . . . , n uma partição de Ω tal que P(A i ) =p para todo i ∈ 1, . . . , n. Então uma variável aleatória X neste espaço tal que

X (ω) =n∑

i=1

x i IA i (ω)

tem função de probabilidade dada por,

P(X = x ) = p Ix1,...,xn (x )

em que,

p =1

npois,

i=1∑

n

P(X = x i ) = np = 1, logo p =1

n.

Esta distribuição de probabilidade é denominada de distribuição uniforme discreta e denotadopor X ∼Ud [E ], em que E é conjuntos de valores que X pode assumir.

Note que neste caso o espaço de probabilidade induzido por X é um espaço de eventos equi-prováveis.

Exemplo 3.1. O lançamento de uma moeda honesta é um caso em que X ∼Ud [0, 1], neste caso

P(X = x ) =1

2I0,1(x )

Já para o lançamento de um dado honesto tem-se X ∼Ud [1, . . . , 6], tem-se

P(X = x ) =1

6I1,...,6(x )

3.2.1 Esperança, variância e função geradora de momentos

Para X ∼Ud [E ] tem-se que,

E (X ) =n∑

i=1

x i P(X = x i ) =n∑

i=1

x i1

n=

1

n

n∑

i=1

x i .

V a r (X ) =n∑

i=1

(x i −µX )2P(X = x i ) =1

n

n∑

i=1

(x i −µX )2.

e a função geradora de momentos é dada por,

M X (t ) =n∑

i=1

e t x i P(X = x i ) =n∑

i=1

e t x i1

n

=1

n

n∑

i=1

e t x i .

3.3 Distribuição de Bernoulli

Seja (Ω,F , P) um espaço de probabilidade e X uma variável aleatória neste espaço tal que paraum dado evento de interesse A ∈F tem-se,

X (ω) = IA(ω)

Nestas condições segue que a função distribuição de X é dado por,

PX (x ) = p x × (1−p )1−x I0,1(x )

Uma função de probabilidade assim definida é chamada de distribuição de Bernoulli. Agora ob-serve que p = P(A). De fato, para x = 1 tem-se,

PX (1) = p = P

X−1(1)

= P(A).

Os experimentos que originam uma variável aleatória com distribuição de Bernoulli são chama-dos de experimentos de Bernoulli.

Notação: Se uma variável aleatória X possui distribuição(ou lei) de probabilidade então é usuala seguinte notação, X ∼b e r (p ).

Note o espaço amostral Ω pode ser enumerável ou não enumerável. Deste modo, o evento deinteresse A pode conter:

• um único elemento, por exemplo, Ω= c a r a , coroa , A = coroa e Ac = c a r a ;

• vários elementos, por exemplo, Ω= 1, 2, 3, 4, 5, 6 A = 2, 4, 6 e Ac = 1, 3, 5;

• um número não enumerável de elementos, por exemplo, Ω= x ∈R : 0< x ≤ 3, A = x ∈R :x > 1, 65 e Ac = x ∈R : x ≤ 1, 65;

3.3.1 Esperança, variância e função geradora de momentos

Para X ∼b e r (p ) tem-se que,

E (X ) =1∑

x=0

x P(x ) = 0× (1−p )+1×p = p .

V a r (X ) = E (X 2)− [E (X )]2 =1∑

x=0

x 2P(x )−p 2 = 02× (1−p )+12×p −p 2 = p (1−p ).

e

M X (t ) =1∑

x=0

e t x P(X = x ) =1∑

x=0

e t x p x × (1−p )1−x = 1−p +p e t .

Exemplo 3.2. Considere E=lançamento de um dado. Considere que o evento de interesse seja aocorrência de um número par, portanto A = 2, 4, 6 assim

X (ω) =

(

1 seω∈ 2, 4, 60 seω∈ 1, 3, 5

e p = P(A) = 36= 0, 5. Portanto, a função de probabilidade de X é dada por,

P(x ) =

(

0, 5x ×0, 51−x se x=0,1

0 caso contrário

3.4 Distribuição Binomial

Considere agora que um experimento de Bernoulli é repetido n vezes de maneira indepen-dente, isto é, o espaço de probabilidade (Ω,F , P) associado ao experimento na i-ésima repetição éo mesmo em todas as n repetições do experimento. Seja (Ωn ,Fn , Pn ) o espaço de probabilidade aoexperimento composto das n repetições, assim Ωn = Ω× · · ·×Ω

︸ ︷︷ ︸

n vezes

e X uma variável aleatória neste

espaço tal que para um dado evento de interesse A ∈F a variável aleatória X conta o número devezes que o evento A ocorre em n repetições independentes de um experimento de Bernoulli. Nes-tas condições, seja Yi = IA(ω) ∼ b e r (p ) na i-ésima repetição do experimento, então X =

∑ni=1 Yi .

Nestas condições, segue que a função de probabilidade de X é dado por,

P(X = x ) =

n

x

p x × (1−p )n−x I0,1,2,...,n(x )

Em que p = P(A). De fato, considere x = n , assim,

PX (n ) =

n

n

p n × (1−p )n−n = p n = Pn

X−1(n )

= Pn

×ni=1A

=n∏

i=1

P(A) pela independência dos eventos

= P(A)n

Portanto, p = P(A). Notação: X ∼b i n (n , p ).Note que

nx

representa o número de permutações com repetição dos n elementos em que Aaparece x vezes e Ac n − x vezes. Note que neste caso, como só temos 2 elementos distintos, apermutação com repetição é igual a combinação simples. Uma forma de ver isso é pensar nãonos elementos da permutação mas sim nas posições que eles iram assumir. Deste modo, temoso seguinte problema: temos n posições 1, . . . , n que representam n elementos distintos e devemosescolher x posições, neste caso o número de conjuntos distintos que podemos formar é a combi-nação simples de n elementos tomados x a x . Por exemplo, seja n = 3 e x = 2 então os arranjospossíveis são:

n

(A, A, Ac ), (A, Ac , A), (Ac , A, A)o

portanto 3 arranjos possíveis. Então a probabilidade do evento A ocorrer duas vezes em três repe-tições independentes do experimento é,

P

(A, A, Ac ), (A, Ac , A), (Ac , A, A)

= P(A, A, Ac )+P(A, Ac , A)+P(Ac , A, A)

= P(A ∩A ∩Ac )+P(A ∩Ac ∩A)+P(Ac ∩A ∩A)

= P(A)P(A)P(Ac )+P(A)P(Ac )P(A)+P(Ac )P(A)P(A)

= 3×p 2(1−p ) =

3

2

×P(A)P(A)P(Ac ).

Exemplo 3.3. ConsidereE=lançamento de uma moeda 10 vezes. Considere que o evento de interesseseja a ocorrência da face cara. Deste modo, qual a probabilidade de ocorrer 4 caras? Tem-se quep = P(A) = P(c ) = 0, 5. Da definição segue que,

PX (4) =

10

4

0, 54× (1−0, 5)10−4 =10!

4!6!0, 54×0, 56 = 0, 2051.

3.4.1 Esperança, variância e função geradora de momentos

Para X ∼b i n (n , p ) tem-se que,

E (X ) =n∑

x=0

x P(X = x ) =n∑

x=1

x

n

x

p x × (1−p )n−x =n∑

x=1

xn

x

n −1

x −1

p x × (1−p )n−x

=n∑

x=1

n

n −1

x −1

p ×p x−1× (1−p )n−x = npn∑

x=1

n −1

x −1

p x−1× (1−p )n−x−1+1

= npn∑

x=1

n −1

x −1

p x−1× (1−p )(n−1)−(x−1).

Fazendo y = x−1 tem-se que x = 1 implica y = 0 e x = n então y = n−1. Assim, como (a+b )n−1 =∑n−1

i=0 a i b n−1−i , tem-se que

E (X ) = npn−1∑

y=0

n −1

y

p y × (1−p )n−1−y

︸ ︷︷ ︸

(p+1−p )n−1=1

= np .

e

E (X 2) =n∑

x=1

x 2

n

x

p x × (1−p )n−x =n∑

x=1

x (x −1+1)

n

x

p x × (1−p )n−x

=n∑

x=1

x (x −1)

n

x

p x × (1−p )n−x +n∑

x=1

x

n

x

p x × (1−p )n−x

=n∑

x=1

x (x −1)n (n −1)x (x −1)

n −2

x −2

p x × (1−p )n−x +E (X )

= n (n −1)n∑

x=1

n −2

x −2

p 2×p x−2× (1−p )n−x−2+2+np

= n (n −1)p 2n∑

x=2

n −2

x −2

p x−2× (1−p )(n−2)−(x−2)+np

= n (n −1)p 2× (p +1−p )n−2+np .

portanto, V a r (X ) = n (n−1)p 2×(p+1−p )+np−[np ]2 = np−np 2 = np (1−p ). A função geradorade momentos é dada por,

M X (t ) =n∑

x=0

e t x P(X = x ) =n∑

x=0

e t x

n

x

p x × (1−p )n−x

=n∑

x=0

n

x

p e t x × (1−p )n−x =

1−p +p e t n .

Exemplo 3.4. A taxa de imunização de uma vacina é 80%. Se um grupo de 20 pessoas são vacinadas,

(a) Qual a probabilidade que 15 fiquem imunizadas?

Solução: Seja X o número de pessoas imunizadas em 20 então X ∼b i n (20, 0.8). Logo,

P(X = 15) =

20

15

0, 815×0, 220−15 = 0, 1746.

(b) Qual a imunização média para um grupo de 20 pessoas?

Solução: E (X ) = 20×0, 8= 16.

(c) Qual a probabilidade que a imunização seja superior a E (X )+V a r (X ).

Solução: Tem-se que V a r (X ) = 20×0, 8×0, 2= 3, 2. Assim,

P(X > 16+3, 2) = P(X > 20) = 0, 820 = 0, 0115.

3.5 Distribuição Geométrica

Considere uma seqüência independente de experimentos de Bernoulli,isto é, o espaço de pro-babilidade (Ω,F , P) associado ao experimento na i-ésima repetição é o mesmo em todas as re-petições do experimento. Seja (Ω∞,F∞, P∞) o espaço de probabilidade associado ao experimentocomposto de uma seqüência de repetições independentes e X uma variável aleatória neste espaçotal que para um dado evento de interesse A ∈ F a variável aleatória X conta o número de vezesque o experimento é repetido antes que o evento de interesse ocorra pela primeira vez, ou seja, Xé o “tempo de espera” antes que o evento de interesse aconteça. Esquematicamente,

Ac ×Ac × · · ·×Ac︸ ︷︷ ︸

x eventos

×A

Nestas condições segue que a função de probabilidade de X é dado por,

P(X = x ) = p × (1−p )x I0,1,2,...(x )

Em que p = P(A)(verifique!). Notação: X ∼G eo(p ).Outra maneira de modelar este experimento é fazer Y igual ao número de vezes que o experi-

mento é repetido até que o evento de interesse ocorra pela primeira vez, isto é,

y eventos︷ ︸︸ ︷

Ac ×Ac × · · ·×Ac︸ ︷︷ ︸

y-1 eventos

×A .

Logo,P(Y = y ) = p × (1−p )y−1I1,2,...(y ).

Note que Y =X +1, assim E (Y ) = E (X )+1 e V a r (Y ) =V a r (X ).

3.5.1 Esperança, variância e função geradora de momentos

Para X ∼G eo(p ) tem-se que,

E (X ) =∞∑

x=0

x P(X = x ) =∞∑

x=1

x p × (1−p )x = p∞∑

x=1

x × (1−p )x .

Agora note que,∂

∂ p(1−p )x =−x (1−p )x−1 =

−x (1−p )x

1−p

logo,

−(1−p )∂

∂ p(1−p )x = x (1−p )x

assim,

E (X ) = p∞∑

x=0

−(1−p )∂

∂ p(1−p )x

=−p (1−p )∞∑

x=0

∂ p(1−p )x .

Agora, note que∑∞

x=0(1−p )x converge pois 1−p < 1, logo pode-se permutar a ordem do somatóriocom a derivação, assim

E (X ) =−p (1−p )∂

∂ p

∞∑

x=0

(1−p )x

=−p (1−p )∂

∂ p

1

p=−p (1−p )

−1

p 2=

1−p

p.

Vamos agora calcular o segundo momento para podermos determinar a variância de X . Assim,

E (X 2) =∞∑

x=0

x 2p × (1−p )x = p∞∑

x=0

x 2× (1−p )x .

Agora note que,∂

∂ px (1−p )x =−x 2(1−p )x−1 =

−x 2(1−p )x

1−p

logo,

−(1−p )∂

∂ px (1−p )x = x 2(1−p )x

assim,

E (X 2) = p∞∑

x=0

x 2× (1−p )x = p∞∑

x=0

−(1−p )∂

∂ px (1−p )x

=−p (1−p )∞∑

x=0

∂ px (1−p )x

=−p (1−p )∂

∂ p

∞∑

x=0

x (1−p )x

=−(1−p )∂

∂ p

∞∑

x=0

x (1−p )x

=−p (1−p )∂

∂ p

1−p

p 2

=−p (1−p )−p 2− (1−p )2p

p 4=−p (1−p )

p (p −2)p 4

=(1−p )(p −2)

p 2=(1−p )(2−p )

p 2.

portanto,

V a r (X ) =(1−p )(2−p )

p 2−(1−p )2

p 2=

1−p

p 2

A função geradora de momentos é dada por,

M X (t ) =∞∑

x=0

e t x p × (1−p )x = p∞∑

x=0

(1−p )× e t x = p1

1− (1−p )e t=

p

1− (1−p )e t.

Exemplo 3.5. Uma linha de fabricação de um equipamento de precisão é interrompida na primeiraocorrência de um defeito. Feita a manutenção, a probabilidade do equipamento apresentar defeitoem um dia qualquer é 0,01. Deseja-se planejar o cronograma de manutenção preventiva e, para tal,decidiu-se avaliar probabilisticamente a espera até a produção ser interrompida. Seja X a variávelaleatória que conta o número de dias que antecedem a interrupção. Admitindo que exista inde-pendência entre o desempenho nos sucessivos dias, qual o intervalo ideal para uma manutençãopreventiva, se desejamos uma probabilidade de, pelo menos, 0,90 que o defeito não ocorrerá?

Solução: Temos que X ∼ G eo(0, 01). Dessa forma, como X conta os dias antes a interrupçãoocorra, tem-se que,

P(X = x ) = 0, 01×0, 99x I0,1,2,...(x ).

Agora note que

X = 0

é o evento “ocorrer um defeito no dia em que foi feita manutenção”,

X = 1

é o evento “ocorrer um defeito um dia após a manutenção” assim

X = k

é o evento “ocorrer umdefeito no k-ésimo dia após a manutenção”. Deste modo,

X > k

é o evento “ocorrer um defeitoapós o k-ésimo dia após a manutenção” que é igual o mesmo que “não ocorrer defeito até o k-ésimodia após a manutenção”. Assim, deseja-se determinar k tal que P(X > k )≥ 0, 9, ou P(X ≤ k )≤ 0, 10.Assim,

P(X ≤ k ) =k∑

x=0

0, 01×0, 99x ≤ 0, 10.

Agora note que

Sn =q 0+q 1+q 2+ · · ·+q k

qSn =q 1+q 2+q 3+ · · ·+q k+1

Logo, fazendo Sn −qSn tem-se que,

(1−q )Sn =q 0−q k+1 logo, Sn =1−q k+1

1−q.

portanto,

P(X ≤ k ) = 0, 011−0, 99k+1

1−0, 99= 1−0, 99k+1 ≤ 0, 1

assim,

0, 99k+1 ≥ 0, 90⇒ k +1≤ln(0, 9)

ln(0, 99)

portanto, k ≤ ln(0,9)ln(0,99) −1= 10, 48−1= 9, 48. Logo, a manutenção deve ser feita após 9 dias de opera-

ção.

3.5.2 Falta de memória da Geométrica

Seja X ∼G eo(p ) e vamos verificar que, para quaisquer números inteirar positivos m e n, vale

P(X ≥m +n |X ≥m ) = P(X ≥ n ).

Essa propriedade é conhecida como falta de memória. Ela indica a maneira como a variável in-corpora a informação anterior. Em termos ilustrativos, podemos considerar que a variável "lem-bra"do presente, mas "esqueceu"do que ocorreu no passado. Por exemplo, se X representasse aespera em dias para a ocorrência de um certo evento, a probabilidade condicional acima repre-sentaria a probabilidade de espera de pelo menos m +n dias, sabendo que o evento não ocorreuantes de m dias. A propriedade da falta de memória estabelece que essa probabilidade é a mesmade esperar pelo menos n dias. Para verificar a propriedade, observe que

P(X ≥m +n |X ≥m ) =P(X ≥m +n , X ≥m )

P(X ≥m )=

P(X ≥m +n )P(X ≥m )

Agora note que, para qualquer inteiro positivo a tem-se

P(X ≥ a ) = 1−P(X < a ) = 1−P(X ≤ a−1) = 1−pa−1∑

x=0

(1−p )x = 1−p1− (1−p )a

p= 1−1+(1−p )a = (1−p )a .

Deste modo,

P(X ≥m +n |X ≥m ) =(1−p )m+n

(1−p )m= (1−p )n .

3.6 Distribuição Binomial Negativa

Considere uma sequência de ensaios de Bernoulli independentes, seja A o evento de interesse.O experimento que dá origem a variável aleatória com distribuição Binomial Negativa é o seguinte:Repetir o experimentos de de Bernoulli de maneira independente e parar quando o o evento deinteresse A ocorra pela r-ésima vez. Do mesmo modo que no caso da variável com distribuiçãogeométrica, pode-se definir X de maneiras diferentes, cada qual dando origem a uma variação dadistribuição Binomial Negativa.

Definindo X como o número de vezes que o evento Ac ocorre antes que o evento de interesseA ocorra pela r-ésima vez que é igual número de vezes que o evento Ac ocorre até que o evento deinteresse A ocorra pela r-ésima vez, isto é,

x+r repetições do experimento até que A ocorra pela r-ésima vez︷ ︸︸ ︷

· · · ×Ac ×A × · · ·×Ac︸ ︷︷ ︸

x ocorrências de Ac e (r-1) ocorrências de A

×A (3.1)

Note que deste modo, a única posição fixa é a do evento A no final, assim as posiçôs dos outroseventos nas primeiras x + r − 1 posições são aleatórias. Portanto, a probabilidade do evento em(??) ocorrer é a probabilidade de

· · · ×Ac ×A × · · ·×Ac︸ ︷︷ ︸

x ocorrências de Ac e (r-1) ocorrências de A

ocorrer, que é uma binomial com parâmetros x + r − 1 e p calculada no ponto r − 1, vezes a pro-babilidade de A ocorrer a final, que devido ao fato dos eventos serem independentes é dado porp . Nestas condições, segue que a função de probabilidade de X é dado por,

P(X = x ) =

x + r −1

r −1

p r × (1−p )x I0,1,2,...(x )

Em que p = P(A). Notação: X ∼ BN (r, p ).Note que

x+r−1r−1

conta o número de permutações com repetição dos x + r − 1 elementos, emque A aparece r − 1 vezes e Ac x vezes. Deste modo, se considerarmos as posições em que oseventos aparecem, então o número de permutações com repetição dos x + r − 1 elementos seráigual a combinação simples das x + r −1 posições distintas tomadas (r −1) a (r −1).

Outra maneira de definir a variável aleatória com distribuição Binomial Negativa é definir Ycomo sendo o número de repetições até que o evento de interesse A ocorra pela r-ésima vez, istoé,

y repetições do experimento até que A ocorra pela r-ésima vez︷ ︸︸ ︷

· · · ×Ac ×A × · · ·×Ac︸ ︷︷ ︸

y-1 repetições do experimento e r-1 ocorrências de A

×A

Deste modo, a função de probabilidade de Y é dado por,

P(Y = y ) =

y −1

r −1

p r × (1−p )y−r IY≥r (y )

Note que Y =X + r . Logo, E (Y ) = E (X )+ r e V a r (Y ) =V a r (X ).

3.6.1 Esperança, variância e função geradora de momentos

Observação 3.1. Para demonstrar os resultados a seguir, considere os seguintes fatos:

f (b ) =1

(1−b )r=

∞∑

x=0

f (x )(0)b x

x !

em que,

f (x )(0) =∂ x

∂ b xf (b )

b=0

.

Agora note que,

f (x )(0) = r × (r +1)× (r +2)× · · ·× (r +x −1) =(r +x −1)!(r −1)!

Logo,

1

(1−b )r=

∞∑

x=0

(r +x −1)!(r −1)!

b x

x !=

∞∑

x=0

x + r −1

r −1

b x

Assim,

∞∑

x=0

P(X = x ) =∞∑

x=0

x + r −1

r −1

b x p r × (1−p )x

= p r∞∑

x=0

x + r −1

r −1

b x (1−p )x

= p r ×1

(1− (1−p ))r= p r 1

p r= 1.

outro fato é,

x + r −1

r −1

=(x + r −1)!(r −1)!x !

=(x + r −1)!x !(r −1)!

=

x + r −1

x

Assim, para X ∼ BN (p ) tem-se que,

E (X ) =∞∑

x=0

x

x + r −1

r −1

p r × (1−p )x

=∞∑

x=0

x

x + r −1

x

p r × (1−p )x

=∞∑

x=1

(x + r −1)!(x −1)!(r −1)!

r

rp r × (1−p )x

=∞∑

x=1

r(x + r −1)!(x −1)!r !

p r × (1−p )x

=∞∑

x=1

r

x + r −1

x −1

p r × (1−p )x

fazendo z = x −1 tem-se que,

E (X ) = r∞∑

z=0

z + r

z

p r × (1−p )z+1

= r (1−p )∞∑

z=0

z + r

r

p r × (1−p )z

= r (1−p )∞∑

z=0

z +(r +1)−1

(r +1)−1

p r × (1−p )z

= r(1−p )

p

∞∑

z=0

z +(r +1)−1

(r +1)−1

p r+1× (1−p )z

fazendo s = r +1 tem-se que

E (X ) =r (1−p )

p

∞∑

z=0

z + s −1

s −1

p s × (1−p )z

︸ ︷︷ ︸

=1

.

Logo,

E (X ) =r (1−p )

p

So mesmo modo, segue que,

V a r (X ) =r (1−p )

p 2

e a fgm,

M X (t ) =

p

1− (1−p )e t

r

se t <−l o g (1−p ).

Exemplo 3.6. Suponha que P(nascimento de menino) = 0, 5. Um casal quer ter exatamente duasmeninas e terá filhos até essa condição ser satisfeita.

(a) Qual é a probabilidade da família ter x filhos homens?

Solução. Seja A= a criança é uma menina. Assim, X será o número de meninos que irãonascer antes que a segunda menina nasça. Neste caso X ∼ BN (2, 0.5), assim,

P(X = x ) =

x +2−1

2−1

0, 52× (1−0, 5)2 =

3

1

0, 52× (0, 5)x ;

(b) Qual é a probabilidade da família ter quatro filhos?

Solução. Seja Y ∼ BN (2, 0.5) o número de filhos que o casal irá ter antes que nasça a se-gunda menina, então

P(Y = 4) =

4−1

2−1

0, 52× (1−0, 5)4−2 =

3

1

0, 52×0, 52 = 0, 1875;

(c) Qual é a probabilidade de a família ter no máximo quatro filhos?

Solução. Tem-se que,

P(Y ≤ 4)) = P(Y = 2)+P(Y = 3)+P(Y = 4) pois y deve ser ≥ r

=

2−1

2−1

0, 52×0, 52−2+

3−1

2−1

0, 52×0, 53−2+

4−1

2−1

0, 52×0, 54−2

= 0, 25+0, 25+0, 1875= 0, 6875

(d) Quantos filhos homens espera-se que essa família tenha? Quantos filhos espera-se que essafamília tenha?

Solução. Tem-se que,

E (X ) =2× (1−0, 5)

0, 5= 2

eE (Y ) = E (X )+ r = 2+2= 4.

3.7 Distribuição Hipergeométrica

Considere um conjunto de n elementos dos quais em m observa-se um certo evento de inte-resse A e em n −m observa-se Ac . Suponha agora o seguinte experimento: selecionar aleatoria-mente r elementos dentre os n possíveis. Seja X a variável aleatória que conta o número de vezesque o evento de interesse ocorre no conjunto selecionado. Deste modo, a função de probabilidadede X é dada por,

P(X = x ) =

(mx )(n−mr−x )(nr )

se max0, r − (n −m ) ≤ x ≤minr, m

0 caso contrário

De fato, note que dado r elementos em que A aparece x vezes e Ac r −x vezes,

A × · · ·×A︸ ︷︷ ︸

x vezes

×Ac × . . .×Ac︸ ︷︷ ︸

(r−x ) vezes

a probabilidade desse evento ocorrer é o número de permutações com repetição dos elementos Ae Ac , que nesse caso é igual a combinações simples de r elementos tomados x a x vezes a proba-bilidade do evento acima ocorrer, assim

P(X = x ) =

r

x

P

A × · · ·×A︸ ︷︷ ︸

x vezes

×Ac × . . .×Ac︸ ︷︷ ︸

(r−x ) vezes

=

r

x

P(A)× · · ·×P

A |X x−1i=1 A

×P

Ac |X xi=1A

× · · ·×P

Ac |X xi=1AX r−x−1

j=1 Ac

=r !

x !(r −x )!×

m

n× · · ·×

m −x +1

n −x +1×

n −m

n −x× · · ·

m −n − (r −x )+1

n −x − (r −x )+1

=r !

x !(r −x )!m !

(m −x )!(n −m )!

(n −m − (r −x ))!(n − r )!

n !

=m !

x !(m−x )!(n−m )!

(r−x )!(n−m−(r−x ))!n !

r !(n−r )!

=

mx

n−mr−x

nr

se max0, r − (n −m ) ≤ x ≤minr, m

Notação: X ∼H g eo(n , m , r ).

3.7.1 Esperança, variância e função geradora de momentos

Seja X ∼H g eo(n , m , r ), então:

E (x ) = r p , V a r (X ) =n − r

n −1

r p (1−p )

em que p = mn

, e fgm não possui uma forma simples..

3.8 Distribuição de Poisson

Seja X uma variável aleatória que conta o número de ocorrência de um determinado eventoA por unidade (tempo, comprimento, área, volume, etc), então a função de probabilidade de X édada por,

P(x ) =

(

e−λλx

x !se x = 0, 1, . . . ,

0 caso contrário

Esta função é chamada de distribuição de Poisson. Notação: X ∼P (λ)

3.8.1 Esperança, variância e função geradora de momentos

E (X ) =∞∑

x=0

xe−λλx

x !=

∞∑

x=1

e−λλλx−1

(x −1)!

=λe−λ∞∑

x=1

λx−1

(x −1)!=λe−λ

∞∑

y=0

λy

y !

=λe−λe λ =λ

e, agora note que x 2 = x (x −1)+x , assim

E (X 2) =∞∑

x=0

x 2 e−λλx

x !=

∞∑

x=0

[x (x −1)+x ]e−λλx

x !

=∞∑

x=0

x (x −1)e−λλx

x !+∞∑

x=0

xe−λλx

x !

=∞∑

x=2

e−λλ2λx−2

(x −2)!+λ

=λ2e−λ∞∑

y=0

λy

y !+λ=λ2e−λe λ+λ

=λ2+λ

Portanto,V a r (X ) =λ2+λ−λ2 =λ

A fgm da Poisson é dada por,M X (t ) = e λ(e

t−1).

Exemplo 3.7. Num livro de 800 páginas há 800 erros de impresão. Qual a probabilidade de queuma página escolhida ao acaso contenha pelo menos 3 erros?Solução: Seja X a variável aleatória que conta o número de erros por página, assim

λ= E (X ) =800

800= 1

Portanto,

PX (X ≥ 3) = 1−PX (X < 3) = 1− [PX (0)+PX (1)+PX (2)]

= 1−

e−110

0!+

e−111

1!+

e−112

2!

= 1− e−1

1+1+1

2

= 1−2, 5e−1

= 0, 0803

Exemplo 3.8. Numa central telefônica chegam 300 telefonemas por hora. Qual a probabilidade deque:

(a) Num minuto não haja nemhum chamado?

(b) Em 2 minutos haja 2 chamadas?

(c) Em t minutos, não haja chamadas?

Solução:(a) Seja X a variável aleatória que conta o número de chamadas por minuto. Assim,

λ= E (X ) =300

60= 5

Portanto,

PX (0) =e−550

0!= e−5 = 0, 0067

(b) Seja X2 a variável aleatória que conta o número de chamadas por cada 2 minuto. Assim,

λ2 = E (X2) =300

30= 10

Portanto,

PX2(2) =e−10102

2!= 50e−10 = 0, 0023

(c) Seja X2 a variável aleatória que conta o número de chamadas por cada t minuto. Assim,

λt = E (X t ) =300

60t

= 5t

Portanto,

PXt (0) =e−5t (5t )0

0!= e−5t .

Observação 3.2. Do exemplo anterior pode-se concluir que a probabilidade de ocorrência de umdeterminado evento A em t unidades é dada por,

PXt (x ) =

(

e−λ t (λ t )x

x !se x = 0, 1, . . . ,

0 caso contrário

3.8.2 Relação entre Poisson e Binomial

Seja uma seqüência de experimentos de Bernoulli. Seja X uma variável aleatória que conta onúmero de ocorrência de um evento de interesse A nessa seqüência de experimentos de Bernoulli,suponha ainda que

E (X ) = limn→∞

np =λ.⇒ p = limn→∞

λ

nEntão,

P(X = x ) = limn→∞

n

x

p x × (1−p )n−x

= limn→∞

n

x

λ

n

x

×

1−λn

n−x

=λx

x !limn→∞

n × (n −1)× · · ·× (n −x +1)nx

1−λ

n

−x

1−λ

n

n

Agora note que,

limn→∞

1−λ

n

−x

= 1

limn→∞

n × (n −1)× · · ·× (n −x +1)nx

= limn→∞

nx +T (nx−1)nx

= 1−T (nx−1)

nx= 1

e

limn→∞

1−λ

n

n

= e−λ

Logo,

P(X = x ) =λx

x !e−λ

Capítulo 4

Modelos Probabilísticos para variáveisaleatórias Contínuas

Neste capítulo vamos apresentar alguns dos modelos mais usuais para variáveis aleatórias con-tínuas a saber: uniforme, normal, exponencial, t-Student, gama, qui-quadrado, e F de Fisher. Exis-tem ainda muitos outros modelos, entretanto, estes são os mais conhecidos.

4.1 Distribuição Uniforme

Seja X uma variável aleatória contínua cuja função densidade é dada por,

f (x ) =1

b −aI [a ,b ](x )

então X tem distribuição uniforme no intervalo [a ,b ]. Deste modo, sua função de distribuição é,

1. para x < a , F (x ) =∫ x

−∞f (x )d x =

∫ x

−∞0d x = 0;

2. para a ≤ x ≤b ,

F (x ) =

∫ a

−∞

0d x +

∫ x

a

1

b −ad x =

x

b −a

b

a

=x −a

b −a.

3. para x >b ,

F (x ) =

∫ a

−∞

0d x +

∫ b

a

1

b −ad x +

∫ ∞

b

0d x =b −a

b −a= 1.

Assim,

F (x ) =

0 se x < ax−ab−a

se a ≤ x ≤b

1 se x >b

Note que, F é contínua, pois F (a−) = F (a+) = F (a ) = 0, F (b−) = F (b+) = F (b ) = 1 e nas regiõesrestantes ela é também contínua, pois as funções, F (x ) = 0, F (x ) = 1 e F (x ) = x−a

b−asão também

contínuas.Notação: X ∼U [a ,b ].

63

4.1.1 Esperança, variância e função geradora de momentos

Se X ∼U (a ,b ) então:

E (X ) =

∫ ∞

−∞

x d F (x ) =

∫ b

a

x1

b −ad x =

1

b −a

x 2

2

b

a

=b 2−a 2

2(b −a )=(b −a )(b +a )

2(b −a )=

b +a

2.

E (X 2) =

∫ ∞

−∞

x 2d F (x ) =

∫ b

a

x 2 1

b −ad x =

1

b −a

x 3

3

b

a

=b 3−a 3

3(b −a )=(b −a )(b 2+ab +a 2)

3(b −a )=

b 2+ab +a 2

b −a

Assim,

V a r (X ) =b 2+ab +a 2

b −a−

b +a

2

2

=(b −a )2

12.

A FGM é dada por,

M X (t ) =

∫ b

a

e t x d F (x ) =

∫ b

a

e t x 1

b −ad x =

1

b −a

1

te t x

b

a

=e b t − e a t

(b −a )t

Observação 4.1. Para a = 0 e b = 1, tem-se X ∼U [0, 1] e

F (x ) =

0 se x < 0

x se 0≤ x ≤ 1

1 se x > 1

Exemplo 4.1. Considere o experimento de medir a corrente em um fio de cobre. Seja X a variávelaleatória que denota a corrente medida. Supondo que 0≤X ≤ 20 m A e que

f (x ) =

(

0, 05 se 0≤ x ≤ 20

0 caso contrário

Qual a probabilidade da corrente medida está entre 5 e 10 miliamperes? Qual o valor esperado e avariância da corrente medida?

Solução: Tem-se que a = 0 e b = 20, assim

P(5≤X ≤ 10) = F (10)− F (5) =

∫ 10

5

0, 05d x = 0, 05× (10−5) = 0, 25

E (X ) =20+0

2= 10

e

V a r (x ) =(20−0)2

12= 33, 33

Proposição 4.1. Sejam X e U variáveis aleatórias com funções de distribuição FX e uniforme em[0, 1] respectivamente. Então,

(i) Se FX for contínua, Y = FX (X ) terá distribuição uniforme em [0, 1], isto é, FX (X )∼U [0, 1];

(ii) Se FX for contínua à direita, Y = F−1X (U ) terá função de distribuição FX , em que F−1

X (u ) = infx ∈R : FX (x )≥ u é a inversa generalizada de FX .

Demonstração. Note que Y = FX (X ) será um valor entre 0 e 1, pois FX :R→ [0, 1], assim para y < 0tem-se que FY (y ) = P(Y ≤ y ) = 0 e para y > 1 tem-se FY (y ) = 1. Agora para 0≤ y ≤ 1 tem-se,

FY (y ) = P(Y ≤ y ) = P

FX (X )≤ y

= P

X ≤ F−1X (y )

, pois FX é não decrescente

= FX

F−1X (y )

em que F−1X é a inversa generalizada de FX . Pode-se provar que para o caso em que FX é continua

e F−1X é a inversa generalizada de FX que FX

F−1X (y )

= y veja (NASCIMENTO, 2006 - p. 151)assimFY (y ) = y , logo Y ∼U [0, 1].

Suponha agora que FY é contínua à direita e Y = F−1X (U ), então

FY (y ) = P(Y ≤ y ) = P

F−1X (U )≤ y

= P

U ≤ FX (y )

= FX (y ).

Exemplo 4.2. Seja X ∼b e r (0, 3), assim

FX (x ) =

0 se x < 0

0, 7 se 0≤ x < 1

1 se x ≥ 1

Suponha que os seguintes valores são de uma variável aleatória com distribuição uniforme em [0, 1],

U 0,65 0,40 0,27 0,89 0,62 0,46 0,14 0,61 0,69 0,77

Agora note que

F−1X (u ) = infx ∈R : FX (x )≥ u =

(

inf[0,∞)= 0 se 0≤ u ≤ 0, 7

inf[1,∞)= 1 se 0, 7< u ≤ 1

Assim, o conjunto de valores para X ∼b e r (0, 3) é:

U 0,65 0,40 0,27 0,89 0,62 0,46 0,14 0,61 0,69 0,77X 0 0 0 1 0 0 0 0 0 1

4.2 Distribuição Normal

Dizemos que uma v.a. X tem distribuição normal com média µ e variância σ2 se sua funçãodensidade de probabilidade é dada por

f (x ) =1

p2πσ2

exp

−(x −µ)2

2σ2

para todo x ∈R. Notação: X ∼N (µ,σ2).

4.2.1 Esperança, variância e função geradora de momentos

Se X ∼N (µ,σ2) então,

E (X ) =

∫ ∞

−∞

x1

p2πσ2

exp

−(x −µ)2

2σ2

d x

fazendo a transformação,

y =x −µσ⇒ x =σy +µ

tem-se que,

d x =σd y

assim,

E (X ) =

∫ ∞

−∞

(σy +µ)1

p2πσ2

exp

−y 2

2

σd y

=

∫ ∞

−∞

σy1p

2πexp

−y 2

2

d y +

∫ ∞

−∞

µ1p

2πexp

−y 2

2

d y

∫ ∞

−∞

yp

2

1pπ

exp

−y 2

2

︸ ︷︷ ︸

=g (y )

d y +µ

∫ ∞

−∞

1p

2πexp

−y 2

2

d y

︸ ︷︷ ︸

=1

Agora note que,

g (−y ) =−yp

2

1pπ

exp

−(−y )2

2

=−yp

2

1pπ

exp

−y 2

2

=−g (y )

logo, g (y ) é uma função impar, portanto,

∫ ∞

−∞

g (y )d y =

∫ 0

−∞

g (y )d y +

∫ ∞

0

g (y )d y =−∫ ∞

0

g (y )d y +

∫ ∞

0

g (y )d y = 0

Deste modo, E (X ) =µ.Do mesmo modo,

V a r (X ) =

∫ ∞

−∞

(x −µ)21

p2πσ2

exp

−(x −µ)2

2σ2

d x fazendo y =x −µσ

=

∫ ∞

−∞

σ2y 2 1p

2πexp

−y 2

2

d x

=σ2

e

M X (t ) = e tµ+ t 2σ2

2 .

4.2.2 Principais Características

1. A curva é simétrica em torno de x = µ, isto implica que dado um a ∈ R tem-se que f (µ−a ) = f (µ+ a ), logo F (µ− a ) = P(X ≤ µ− a ) = P(X ≥ µ+ a ) = 1− F (µ+ a ) se µ = 0 entãoF (−a ) = 1− F (a );

2. A moda, mediana e a média são iguais. De fato, a mediana é o ponto(m) para o qual para ocaso em que X é contínua, PX (X ≤m ) = PX (X ≥m ) = 0, 5. Assim, para a = 0 em F (µ− a ) =1− F (µ+a ) tem-se,

P(X ≤µ−0) = P(X ≤µ) = F (µ) = P(X ≥µ) = 1− F (µ)

logo, 2F (µ) = 1 assim F (µ) = 0, 5. Portanto, m =µ= E (X ). A moda é dada por,

∂ ln( f (x ))∂ x

=∂

∂ x

ln

1p

2πσ2

−(x −µ)2

2σ2

=−x −µσ2

= 0

logo, xmax =µ= E (X ).

Problema: Dificuldade no cálculo de PX . Existem tabelas apenas para X ∼N (0, 1).Solução: Fazendo a transformação,

z = h(x ) =x −µσ

⇒ h−1(z ) =σz +µ

segue que o jacobiano da transformação é dado por

J (x , z ) =∂ h−1(z )∂ z

assim,

fZ (z ) = f X

h−1(z )

J (x , y ) =1

p2πσ2

exp

−(σz +µ−µ)2

2σ2

×σ=1p

2πexp

−σ2z 2

2σ2

=1p

2πexp

−z 2

2

.

Portanto a variável aleatória Z tem distribuição normal com média 0 variância 1. Deste modopode-se utilizar as tabelas para distribuições normais com média zero e variância 1 para calculara probabilidade de variáveis com distribuições normais com média µ e variânciaσ2. Deste modo,

P(X ≤ x ) = P

X −µσ≤

x −µσ

= P

Z ≤x −µσ

.

Notação: a distribuição de Z é chamada de normal padrão e sua função de distribuição deno-tada por Φ, assim P(Z ≤ z ) = Φ(z ).

Exemplo 4.3. Seja X ∼N (100, 25), calcular:

(a) P(100≤X ≤ 106);

(b) P(X ≥ 108);

(b) P(X ≥ x ) = 0, 025;

Solução:(a) Tem-se queσ=

p25= 5, assim,

P (100≤X ≤ 106) = P

100−100

5≤Z ≤

106−100

5

= P(0≤Z ≤ 1, 2) = Φ(1, 2)−Φ(0).

Da tabela: Φ(0) = 0, 5 e Φ(1, 2) = 0, 8849, assim P (100≤X ≤ 106) = 0, 8849−0, 5= 0, 3849.(b)

P(X ≥ 108) = P

Z ≥108−100

5

= P(Z ≥ 1, 6) = 1−P(Z ≤ 1, 6) = 1−Φ(1, 6) = 1−0, 9452= 0, 0548.

(c) P(X ≥ x ) = P

Z ≥ x−1005

= 1− P

Z ≤ x−1005

= 1−Φ(z ) = 0, 025 portanto Φ(z ) = 0, 975 databela tem-se que: z = 1, 96, logo

1, 96=x −100

5⇒ x = 5×1, 96+100= 109, 8.

Notação: Denotaremos por zα a seguinte quantidade P(Z ≥ zα) = α, logo pela simetria P(Z ≤−zα) = α. Assim do exemplo anterior teríamos x = 5× z 0,025+100. zα) é chamado de α quantil danormal padrão.

4.2.3 Convergência em Distribuição de Variáveis Aleatórias

Definição 4.1 (Convergência em distribuição). Sejam Xn , n ≤ 1 e X duas variáveis aleatórias comfunções de distribuição Fn , n ≤ 1 e F , respectivamente. Então Xn converge em distribuição para Xse para todo x ∈R em que F é continua, tivermos

limn→∞

Fn (x ) = F (x ).

Notação: Xnd−→ X .

Teorema 4.1 (Teorema Central do Limite - variáveis aleatórias i.i.d.). Seja Xn , n ≥ 1 uma seqüên-cia de variáveis aleatórias independentes e identicamnte distribuídas, com média µ e varianciaσ2 <∞. Então, para Sn =

∑ni=1 Xn , tem-se

Sn −E (Sn )p

V a r (Sn )=

Sn −nµ

σp

nd−→Z ∼ N (0, 1)

Demonstração. Tem-se para Yi =X i−µσ

que,

Sn −nµ

σp

n=

∑ni=1 Yip

n

em que, Yi , i ≥ 1 é uma seqüência de variáveis aleatórias independentes e identicamente distri-buídas, com média 0 e variância 1, e função geradora de momentos M Y (t ). Assim,

M ∑ni=1 Yip

n

(t ) =M∑ni=1 Yi

tp

n

=n∏

i=1

M Y

tp

n

=

M Y

tp

n

n

Fazendo a expansão em séries de Taylor ao redor de zero até o termo de 2a. ordem tem-se que,

M Y

tp

n

=M Y (0)+tp

nM

Y (0)+1

2!

t 2

nM

′′

Y (0)+o

t 2

n

em que o(x ) é uma função tal que

limx→∞

o(x )x= 0.

Agora note que pelas propriedades da fgm que: M Y (0) = 1, M′

Y (0) = E (Yn ) = 0 e

M′′

Y (0) = E (Y 2n ) =V a r (Yn )+E (Yn ) = 1

assim,

M Y

tp

n

= 1+t 2

2

n+o

t 2

n

= 1+t 2

2

n

1+2o

t 2

n

t 2

n

Agora note que,

limn→∞

1−2o

t 2

n

t 2

n

!

= 1

assim

limn→∞

M Y

tp

n

n

= limn→∞

1−t 2

2

n

1−2o

t 2

n

t 2

n

!n

= e−t 2

2 .

Logo pelo Teorema da Continuidade de Levy tem-se que,

Sn −nµσpn

d−→N (0, 1).

Teorema 4.2 (Moivre-Laplace). Seja Xn , n ≥ 1 uma seqüência de variáveis aleatórias indepen-dentes e identicamente distribuídas, com distribuição de Bernoulli de parâmetro p. Então,

Sn −npp

np (1−p )

d−→Z

Na prática se max

np , n (1−p )

≥ 10 então a aproximação é aceitável. Alguns autores consi-

deram max

np , n (1−p )

≥ 5.

Exemplo 4.4. Suponha que 25% de todos os motoristas habilitados de um determinado estado nãopossuam seguro. Seja X o número de motoristas sem seguro em uma amostra aleatória de 50 moto-ristas. Qual a probabilidade de no máximo 5 terem seguro? e no máximo 10?

Solução: Os valores exatos são 0, 007046 e 0, 2622. Utilizando a aproximação normal tem-se que

P(X ≤ 5)≈Φ

Z ≤5−50×0, 25

p

50×0, 25×0, 75

!

= P(Z ≤−2.449) =

e

P(X ≤ 10)≈Φ

Z ≤10−50×0, 25

p

50×0, 25×0, 75

!

= P(Z ≤−0.816) =

4.3 Distribuição Exponencial

Seja X uma variável aleatória contínua cuja função densidade é dada por,

f (x ) =λe−λx I [0,∞(x )

então X tem distribuição exponencial com parâmetro λ. Notação: X ∼ Exp(λ).Sua função de distribuição é,

1. Para x < 0, tem-se F (x ) = 0;

2. Para x ≥ 0

F (x ) =

∫ x

−∞

f (x )d x =

∫ 0

−∞

0d x +

∫ x

0

λe−λx d x = 1− e−λx

Assim,

F (x ) =

(

0 se x < 0

1− e−λx se x < 0

4.3.1 Esperança, variância e função geradora de momentos

Se X ∼ Exp(λ) então:

E (X ) =1

λ, V a r (X ) =

1

λ2

e

M X (t ) =λ

λ− t

para t <λ.

Observação 4.2. Algumas aplicações da distribuição exponencial incluem modelar tempo de vidade equipamentos e o tempo entre ocorrências de eventos em um experimento de Poisson.

Exemplo 4.5. Suponha que o tempo de resposta para uma consulta feita em um terminal tenhauma distribuição de poisson com com tempo de resposta médio igual a 5 s . Qual a probabilidadeque o tempo de resposta exceda 10 s ?

Solução: Seja X o tempo de resposta, então

E (X ) = 5=1

λ, logo λ= 0, 2

Assim,P(X > 10) = 1−P(X ≤ 10) = 1− [1− e−0,2×10] = e−2 = 0, 135.

4.3.2 Relação entre Exponencial e Poisson

Seja X uma variável aleatória que conta o número de vezes que um evento de interesse ocorreem um certo intervalo unitário de tempo, supondo que X tem distribuição de Poisson com parâ-metroλ, então a variável aleatória que conta o número de vezes que um evento de interesse ocorreem t unidades de tempo terá distribuição de Poisson com parâmetro λt , isto é, X t ∼P (λt ). SejaT o tempo decorrido entre duas ocorrências do parâmetro de interesse, então note que

T > t = Nenhuma ocorrência do evento de interesse em t unidades de tempo= X t = 0

Logo,

P(T ≤ t ) = 1−P(T > t ) = 1−P(X t = 0) = 1−e λt (λt )0

0!= 1− e λt

Portanto, T ∼ Exp(λ).

Exemplo 4.6. Considere que o número de chamadas em um serviço de suporte técnico 24 horasde uma empresa tenha uma distribuição de Poisson com média de 0, 5 chamada por dia. Qual aprobabilidade de passar mais de dois dias até ocorrer uma chamada?

Solução: Para X = número de chamada por dia, tem-se que X ∼P (0, 5), logo para um períodode t dias X t ∼P (λt ). Assim para T = tempo entre duas chamadas, obtemos

P(T > 2) = P(X2 = 0) =e−0,5×2× (0, 5×2)0

0!= e−1 = 0, 3679

Proposição 4.2 (Falta de Memória). Seja T uma variável aleatória com função densidade f , entãopara s , t ≥ 0

P(T ≥ t + s |T ≥ s ) = P(T ≥ t )

se, e somente se, T ∼ Exp(λ).Solução: Vamos mostrar apenas a primeira parte: Se T ∼ Exp(λ) então T tem a propriedade de

falta de memória, para demonstração completa veja (NASCIMENTO, 2006). De fato,

P(T ≥ t + s |T ≥ s ) =P (T ≥ t + s , T ≥ s )

T ≥ s

=P (T ≥ t + s )

P(T ≥ s )=

P (T > t + s )P(T > s )

=P (X t+s = 0)P (Xs = 0)

=e−(t+s )λ

e−sλ

= e−(t+s )λe sλ = e−tλ = P(T > t ).

4.4 Distribuição Gama

Diz-se que uma variável aleatória X tem distribuição Gama com parâmetros α e β se sua den-sidade é dada por,

f (x ) =βα

Γ(α)xα−1e−βx I (0,∞)(x )

em que α,β > 0 e

Γ(α) =

∫ ∞

0

xα−1e−x

é a função gama. Notação: Se X ∼Gama(α,β ).

4.4.1 Propriedades da função gama

Algumas propriedades da função gama são:

1. Γ(α+1) =αΓ(α);

2. Se α for um inteiro positivo então Γ(α+1) =α!;

3. Γ

12

=pπ.

Casos especias da distribuição Gama

1. Se α= 1 então X ∼ E x p (β );

2. Se α= ν/2, ν inteiro e β = 1/2 então X ∼χ2(ν ), isto é, x tem distribuição qui-quadrado comν graus de liberdade;

3. Se α= k , k inteiro então X ∼ E r l k (β ), isto é, x tem distribuição Erlang de ordem k.

4.4.2 Esperança, variância e função geradora de momentos

Se X ∼Gama(α,β ) então:

E (X ) =α

β, V a r (X ) =

α

β 2

e

M X (t ) =

β

β − t

α

.

4.5 Distribuição Qui-quadrado

Diz-se que uma variável aleatória X tem distribuição Qui-quadrado com ν graus de liberdadese sua densidade é dada por,

f (x ) =

12

ν/2

Γ(ν/2)x ν/2−1e−

x2 I (0,∞)(x )

para ν inteiro. Notação: Se X ∼χ2(ν ).

4.5.1 Esperança, variância e função geradora de momentos

Se X ∼χ2(ν ) então:E (X ) = ν , V a r (X ) = 2ν

e

M X (t ) =

12

12− t

!ν2

= (1−2t )−ν2

Exemplo 4.7 (Ex.57,seção 4.4-Devore). Suponha que o tempo gasto por um aluno, selecionado ale-atoriamente, que usa um terminal conectado a um servidor com "‘time-sharing"’, tem uma distri-buição gama com média 20 min e variância de 80 min2.

(a) Quais são os valores de α e β?

(b) Qual a probabilidade de um aluno usar o terminal por no máximo 24 minutos?

(c) Qual a probabilidade de um aluno passar entre 20 e 40 minutos usando o terminal?

Solução:

(a) Tem-se que,

E (X ) =α

β= 20 e V a r (X ) =

α

β 2= 80

Assim, α= 5 e β = 14

;

(b) Deseja-se utilizar a tabela de Qui-quadrado, assim fazendo a transformação Y = k X em queX ∼Gama(α,β ), então

V a r (Y ) = 2ν =V a r (k X ) = k 2 α

β 2assim k =β

Ç

α

portanto,ν′= E (Y ) = E (k X ) = k E (X ) =

p2αν .

Deste modo, Y ∼χ2p

2αν

. Assim,

P(X ≤ x ) = P(Y ≤ k x ) = P

Y ≤βÇ

αx

Logo, para α= 5, β = 14

e escolhendo ν = 10, tem-se que k = 0, 5 e ν ′ = 10, assim

P(X ≤ 24) = P(Y ≤ 0, 5×24) = P(Y ≤ 12) = 0, 7149.

Melhor fazer a seguinte transformação,

Proposição 4.3. Seja X1, . . . , Xn uma amostra aleatória de uma distribuição normal com parâme-tros µ eσ2, então

(n −1)S2

σ2=

∑ni=1(X i −X )2

σ2∼χ2(n −1)

4.6 Distribuição t-Student

A distribuição t de Student foi descoberta por William S. Gosset em 1908. Esta distribuiçãosurgiu na seguinte situação: Suponha uma amostra X1, . . . , Xn i.i.d. de uma distribuição normalcom média µ e desvio padrãoσ. Seja,

X =

∑ni=1 X i

ne S2 =

∑ni=1

X i −X2

n −1

a média amostral e o desvio padrão amostral, então pode-se provar que

X −µÆ

S2

n−1

tem distribuição t com n-1 graus de liberdade.

Observação 4.3. Quando a amostra é de uma população com distribuição normal, pode-se provarainda que X e S2 são independentes.

A função densidade de probabilidade é dada por

f (x ) =1pνπ

Γ

ν+12

Γ

ν2

1+x 2

ν

− ν+12

para todo x ∈R. Notação: X ∼ tν .

4.6.1 Esperança, variância e função geradora de momentos

Se X ∼ tν então E (X ) = 0 para ν > 1 e

V a r (X ) =ν

ν −2

para ν > 2. A fgm não existe para esta distribuição.Se ν = 1 então

f (x ) =1

π(1+x 2)

para todo x ∈ R. Esta distribuição é denominada distribuição de Cauchy. Note que uma variávelaleatória com esta distribuição não possue momentos.

Principais características:

1. A moda, mediana e a média são iguais a 0;

2. A curva é simétrica em torno do 0, isto implica que dado um a ∈ R tem-se que f (−a ) =f (+a ), logo PX (≤−a ) = PX (≥ a );

3. quando os graus de liberdade aumentam a distribuição tν se aproxima da distribuição nor-mal com média zero e variância 1.

Exemplo 4.8. Seja X ∼ t5, calcular:

(a)

PX (−2, 57≤X ≤ 2, 57) = P(X ≤ 2, 57)−P(X ≤−2, 57) = [1−P(X > 2, 57)]−P(X > 2, 57)

= 1−2×P(X > 2, 57) = 1−2×0, 025= 0, 95;

(b) PX (X ≥ x ) = 0, 01 isto implica x = 3, 365.

Referências Bibliográficas

GRAUNT, J. (1662). Natural and Political Observations Mentioned in a Fol-lowing Index and Made upon the Bills of Mortality. London. Disponível em<http://www.ac.wwu.edu/ stephan/Graunt/bills.html>. Acesso em: 5 de novembro de2007.

FUNDAÇÃO INSTITUTO BRASILEIRO DE GEOGRAFIA E ESTATÍSTICA (IBGE). Normas de apre-sentação tabular. 3. ed. Rio de janeiro, 1993. 63p.

KOLMOGOROV, A. N. Foundations of the Theory of Probability. 2. ed.,New York: Chelsea Publishing Company, 1956. 84p. Disponível em<http://www.kolmogorov.com/Foundations.html>. Acesso em: 5 de novembro de 2007.

77