Post on 08-Mar-2021
PROBABILIDADES
RICARDO S. EHLERS
Departamento de Matematica Aplicada e Estatıstica
Universidade de Sao Paulo.
Definicao de probabilidade
A cada possıvel evento A ⊆ S (espaco amostral) pode-
mos associar um numero real Pr(A) denominado probabil-
idade do evento A tal que,
1. 0 ≤ Pr(A) ≤ 1,
2. Pr(S) = 1,
3. Pr(A1 ∪ A2) = Pr(A1) + Pr(A2) se A1 ∩ A2 = ∅.
A propriedade (3) pode ser generalizada,
Pr(A1∪A2∪· · ·∪An) = Pr(A1)+Pr(A2)+· · ·+Pr(An),
se Ai ∩ Aj = ∅, para todo i 6= j.
Outras propriedades,
1. Pr(A) = 1− Pr(A) onde A e o complementar de A.
2. Pr(A ∪ A) = 1 e Pr(∅) = 0.
3. Se A ⊂ B entao Pr(A) ≤ Pr(B).
4. Pr(A ∪B) = Pr(A) + Pr(B)− Pr(A ∩B).
1
Probabilidade Condicional
Para dois eventos A e B, sendo que Pr(B) > 0,
Pr(A|B) =Pr(A ∩B)
Pr(B).
Todas as propriedades continuam validas. Por exemplo,
Pr(A | B) = 1− Pr(A | B).
Regra do produto de probabilidades,
Pr(A ∩B) = Pr(A|B)Pr(B).
� Pr(A ∩ B) ou Pr(A,B) e a probabilidade conjunta
dos eventos A e B.
� Pr(A) e Pr(B) sao as probabilidades marginais.
2
Independencia
Dois eventos A e B sao independentes se e somente se
Pr(A|B) = Pr(A) e Pr(B|A) = Pr(B)
ou equivalentemente,
Pr(A ∩B) = Pr(A)Pr(B).
O conceito de independencia pode ser estendido a um
numero qualquer de eventos,
Pr(A1 ∩ · · · ∩ Ak) = Pr(A1) . . . P r(Ak)
se somente se os eventos A1, . . . , Ak forem independentes.
3
Teorema de Bayes
Sejam A1, A2, . . . , Ak tais que,
A1 ∪ A2 ∪ · · · ∪ Ak = S e Ai ∩ Aj = ∅, i 6= j.
Qualquer outro evento B pode ser escrito como
B = (B ∩ A1) ∪ (B ∩ A2) ∪ · · · ∪ (B ∩ Ak)
e Pr(B∩Aj) = Pr(B|Aj)Pr(Aj), j = 1, . . . k e portanto
podemos escrever que
Pr(B) = Pr(B ∩ A1) + Pr(B ∩ A2) + · · · + Pr(B ∩ Ak)
= Pr(B|A1)Pr(A1) + Pr(B|A2)Pr(A2) + . . .
+ Pr(B|Ak)Pr(Ak)
=
k∑
j=1
Pr(B|Aj)Pr(Aj).
Em muitas aplicacoes conhecemos as probabilidades do
lado direito desta igualdade e estaremos interessados em
calcular a probabilidade de um dos eventos Ai ocorrer dado
que B ocorreu, isto e
Pr(Ai|B) =Pr(Ai ∩ B)
Pr(B)=
Pr(B|Ai)Pr(Ai)∑k
j=1 Pr(B|Aj)Pr(Aj).
Chamamos esta ultima igualdade de Teorema de Bayes
ou regra de Bayes, que nos mostra como atualizar a nossa
crenca no evento Ai apos receber novas informacoes (i.e.
4
que B ocorreu).
5
Assim,
� Pr(Ai) e a probabilidade a priori do eventoAi, porque
antecede a informacao sobre o evento B.
� Pr(Ai|B) e a probabilidade a posteriori do evento Ai
porque e calculada apos termos informacao sobre B.
� Para um valor especıfico de B, Pr(B|Ai) e chamada
funcao de verossimilhanca de Ai.
6
Variaveis Aleatorias Discretas
Uma v.a. discreta caracteriza-se por sua funcao de prob-
abilidade e assume valores (x1, x2, . . . ) em um conjunto
finito ou infinito enumeravel.
� Pr(X ∈ A) =∑
xi∈APr(X = xi), para um conjunto A
qualquer.
�
∑
i Pr(X = xi) = 1.
� E(Xm) =∑
i xmi Pr(X = xi)
� E(X) =∑
i xiPr(X = xi) = µX .
� V ar(X) =∑
i Pr(X = xi) (xi − µX)2.
� Funcao de distribuicao acumulada,
F (x) = Pr(X ≤ x) =∑
xi≤x
Pr(X = xi), ∀x ∈ R.
7
Variaveis Aleatorias Contınuas
Uma v.a. contınua X caracteriza-se por sua funcao de
densidade de probabilidade (f.d.p.) f (x) e assume valores
em um conjunto infinito.
� f (x) ≥ 0.
�
∫ ∞
−∞f (x)dx = 1.
� Pr(X ∈ A) =
∫
A
f (x)dx, A ⊂ R.
� Pr(X = x) = 0, para qualquer valor x fixo.
� E(Xm) =
∫ ∞
−∞xm f (x)dx.
� E(X) = µX =
∫ ∞
−∞x f (x)dx.
� V ar(X) =
∫ ∞
−∞f (x) (x− µX)
2dx.
� Funcao de distribuicao acumulada,
F (x) = Pr(X ≤ x) =
∫ x
−∞f (t)dt, ∀x ∈ R.
8
A distribuicao Uniforme Discreta
Suponha um experimento com um numero finito de pos-
sıveis resultados, todos com a mesma probabilidade de ocor-
rer. Definindo uma v.a. X cujos possıveis valores {x1, . . . , xk}estao associados aos resultados deste experimento, entao
Pr(X = xi) =1
k, i = 1, . . . , k.
E(X) =1
k
k∑
i=1
xi
V ar(X) =1
k
k∑
i=1
[xi − E(X)]2
=1
k
[
k∑
i=1
x2i − kE(X)2
]
.
9
A distribuicao de Bernoulli
Estamos interessados na ocorrencia de um sucesso ou
falha com
Pr(sucesso) = p e Pr(fracasso) = 1− p
Definindo-se
X =
{
1, se ocorre sucesso
0, se ocorre fracasso
entao
Pr(X = x) =
{
px(1− p)1−x se x = 0, 1
0 caso contrario.
X ∼ Bernoulli(p), 0 < p < 1.
E(X) = p e V ar(X) = p(1− p).
10
A distribuicao Binomial
� Sejam n ensaios de Bernoulli independentes, com n fixo
e Pr(sucesso) = p.
� Seja Y o numero total de sucessos obtidos, indepen-
dente da ordem em que eles ocorrem.
� Entao, Y ∼ Binomial(n, p), com funcao de probabili-
dade,
Pr(Y = k) =
(
n
k
)
pk(1− p)n−k, k = 0, 1, . . . , n
sendo(
n
k
)
=n!
k!(n− k)!
e m! =∏m
i=1 i (define-se 0! = 1).
� E(X) = np e V (X) = np(1− p)
11
0 3 6 9 12 16 20
p = 0.2
Pro
babi
lidad
es
0.00
0.05
0.10
0.15
0.20
0 3 6 9 12 16 20
p = 0.5P
roba
bilid
ades
0.00
0.05
0.10
0.15
0 3 6 9 12 16 20
p = 0.7
Pro
babi
lidad
es
0.00
0.05
0.10
0.15
0 3 6 9 12 16 20
p = 0.9
Pro
babi
lidad
es
0.00
0.05
0.10
0.15
0.20
0.25
Figura 1: Graficos da probabilidades binomiais com n=20, parap =0.2, 0.5, 0.7 e 0.9.
12
Distribuicao Geometrica
� Suponha que ensaios de Bernoulli sao realizados de
forma independente e com a mesma probabilidade de
sucesso (p).
� Seja X o numero de experimentos necessarios antes de
ocorrer primeiro sucesso. Por exemplo,
– Numero de inspecoes necessarias antes de encontrar-
se um item defeituoso em um lote.
– Numero de nascimentos antes de nascer ummenino.
� X ∼ Geometrica(p),
� Pr(X = k) = (1− p)kp, k = 0, 1, 2, . . . .
� E(X) = (1− p)/p e V (X) = (1− p)/p2.
Exemplo: Um motorista ve uma vaga de estacionamento
em uma rua. Ha 5 carros na frente dele, e cada um deles tem
probabilidade 0.2 de tomar a vaga. Qual a probabilidade
da vaga ser tomada pelo carro que esta imediatamente a
frente dele?
Seja a v.a. X o numero de carros que passam pela vaga
antes que ela seja tomada (sucesso). Cada motorista toma
a vaga ou nao de forma independente. Entao,
Pr(X = 5) = (0.8)4 0.2 = 0.08192.
13
0 3 6 9 12 16 20
p = 0.2P
roba
bilid
ades
0.00
0.05
0.10
0.15
0.20
0 3 6 9 12 16 20
p = 0.5
Pro
babi
lidad
es
0.0
0.1
0.2
0.3
0.4
0.5
0 3 6 9 12 16 20
p = 0.7
Pro
babi
lidad
es
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0 3 6 9 12 16 20
p = 0.9P
roba
bilid
ades
0.0
0.2
0.4
0.6
0.8
Figura 2: Graficos das probabilidades geometricas para p =0,2, 0,5,0,7 e 0,9.
14
Distribuicao Binomial Negativa
X tem distribuicao de binomial negativa com parametros
r e p, denotando-se X ∼ BN(r, p), se sua funcao de prob-
abilidade e dada por
p(x|r, p) =(
r + x− 1
x
)
pr(1− p)x, x = 0, 1, . . .
para r ≥ 1 e 0 < p < 1.
E(X) = r(1− p)/p e V (X) = r(1− p)/p2.
Um caso particular e quando r = 1 e neste caso diz-se que
X tem distribuicao geometrica com parametro p.
15
A distribuicao de Poisson
Usada para modelar o numero de ocorrencias de um certo
fenomeno, durante um intervalo fixo de tempo ou regiao fixa
do espaco.
Exemplos:
� o numero de chamadas recebidas por uma central tele-
fonica durante uma hora,
� o numero de defeitos por unidade de comprimento de
uma fita magnetica,
� o numero de nmetoides encontrados por unidade de
superfıcie de solo,
� o numero diario de novos casos de cancer de mama, etc.
Seja a v.a. X o numero de ocorrencias por intervalo fixo
(de tempo ou espaco). Entao, X ∼ Poisson(λ), com funcao
de probabilidade,
Pr(X = k) =λke−λ
k!, λ > 0, k = 0, 1, . . . .
(e = 2, 71828 . . . ).
A constante λ pode ser interpretada como o numero es-
perado (ou numero medio) de ocorrencias por unidade de
tempo ou espaco.
16
0 2 4 6 8 10
λ = 1
Pro
babi
lidad
es
0.000.050.100.150.200.250.300.35
0 2 4 6 8 10
λ = 2P
roba
bilid
ades
0.00
0.05
0.10
0.15
0.20
0.25
0 2 4 6 8 11 14
λ = 5
Pro
babi
lidad
es
0.00
0.05
0.10
0.15
0 4 8 12 17 22 27
λ = 15
Pro
babi
lidad
es
0.00
0.02
0.04
0.06
0.08
0.10
Figura 3: Graficos das probabilidades Poisson para λ=1, 2, 5 e 15.
17
Distribuicao Hipergeometrica
Suponha que temos uma amostra e uma populacao tais
que,
� Populacao: tem r elementos do tipo I, N − r do tipo
II.
� Amostra: tem k elementos do tipo I, n− k do tipo II.
Suponha que itens sao sorteados sem reposicao. Seja a
v.a. X o numero de elementos do tipo I na amostra. Dize-
mos que X tem distribuicao hipergeometrica com funcao
de probabilidade,
Pr(X = k) =
(
r
k
)(
N − r
n− k
)
(
N
n
) , k = 0, . . . ,min(r, n)
Exemplo: Um fabricante garante que produz 10% de itens
defeituosos. De um lote com 100 itens serao selecionados 5
ao acaso. Qual a probabilidade de nenhum ser defeituoso?
Populacao: N = 100, r=10 (itens defeituosos)
Amostra: n = 5, k = 0
X : numero de defeituosos na amostra
Pr(X = 0) =
(
10
0
)(
90
5
)
(
100
5
) ≈ 0, 584
18
Distribuicao Normal
Se uma v.a. X tem distribuicao normal com parametros
µ e σ2, sua f.d.p. e,
f (x) =1√2πσ2
exp
{
−(x− µ)2
2σ2
}
, µ ∈ R, σ2 > 0, x ∈ R.
Notacao: X ∼ N(µ, σ2).
0 5 10
0.0
0.2
0.4
0.6
0.8
x
f(x) N(0,1) N(3,1)
N(6,0.25)
N(6,4)
Figura 4: Graficos da curva normal para alguns valores de µ e σ.
19
Distribuicao Exponencial
Se uma v.a. X tem distribuicao Exponencial com parametro
λ, sua f.d.p. e,
f (x) = λe−λx, x > 0, λ > 0.
Notacao: X ∼ Exponencial(λ).
0 2 4 6 8
0.0
0.5
1.0
1.5
2.0
x
f(x)
λ = 2λ = 1λ = 0.5
Figura 5: Graficos das funcoes de densidade exponenciais comparametro λ.
20
Propriedades de Algumas Distribuicoes de Probabilidade
Nos resultados a seguir assume-se que X1, . . . , Xk sao k
variaveis aleatorias independentes.
� Se Xi ∼ Bernoulli(p), i = 1, . . . , k. Entao
Y =
k∑
i=1
Xi ∼ Binomial (k, p) .
� Se Xi ∼ Binomial(ni, p), i = 1, . . . , k. Entao
Y =
k∑
i=1
Xi ∼ Binomial
(
k∑
i=1
ni, p
)
.
� Se Xi ∼ Poisson(λi), i = 1, . . . , k. Entao
Y =
k∑
i=1
Xi ∼ Poisson
(
k∑
i=1
λi
)
.
� Se Xi ∼ Geometrica(p), i = 1, . . . , k. Entao
Y =
k∑
i=1
Xi ∼ Binomial −Negativa(k, p).
� Se Xi ∼ Normal(µi, σ2i ), i = 1, . . . , k. Entao para
constantes a1, . . . , ak e b diferentes de zero,
Y = b+k∑
i=1
aiXi ∼ Normal
(
b +k∑
i=1
aiµi,k∑
i=1
a2iσ2i
)
.
21
� Se Xi ∼ Gama(αi, β), i = 1, . . . , k. Entao
Y =
k∑
i=1
Xi ∼ Gama
(
k∑
i=1
αi, β
)
.
� Se Xi ∼ Exponencial(β), i = 1, . . . , k. Entao
Y = min{Xi} ∼ Exponencial(kβ).
22
Algums Outras Distribuicoes
� Univariadas: Weibull, Gama, Gama Invertida, Erlang,
Gama generalizada, Qui-quadrado, Qui-quadrado in-
versa, t-Student, Cauchy, F , Log-normal, normal trun-
cada, normal inversa (Wald), normal generalizada, Von
Mises, VonMises-Fisher, hiperbolica, Irwin-Hall, Laplace
(exponencial dupla), Exponencial potencia (erro gener-
alizado), Levy, Pareto, Triangular, Log-logistica, Valor
extremo, Rayleigh, etc.
� Multivariadas: Normal multivariada, Wishart, Wishart
inversa, Dirichlet, t-student multivariada, hipergeometrica
multivariada, multinomial, etc.
� Matriz variadas: Normal matricial, t-Student matri-
cial, etc.
� Distribuicoes truncadas.
� Misturas de distribuicoes.
23
Distribuicoes e Esperanca condicionais
24