TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação -...

76
TEORIA DE INFORMAÇÃO – UM NANOCURSO Set. 2016 Max H. M. Costa Unicamp Centenário de Shannon - SBrT - Santarém

Transcript of TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação -...

Page 1: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

TEORIA DE INFORMAÇÃO –

UM NANOCURSO

Set. 2016

Max H. M. Costa

Unicamp

Centenário de Shannon - SBrT - Santarém

Page 2: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Dedicação: a memória de Claude Shannon

Claude Shannon – 1916-2001 – matemático,

engenheiro eletrônico, inventor da Teoria de Informação

Page 3: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Sumário

Introdução

o Teoria de Informação - Interdisciplinaridade

o Entropia, Divergência de K-L, Informação Mútua

o Compressão de dados

o Transmissão por Canais Ruidosos (Codificação de Canal)

o Entropia Diferencial, Canais Gaussianos

o Aplicações de Múltiplos Usuários

o Fechamento

Page 4: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Algumas referências:

[1] T. Cover and J. Thomas, Elements of Information

Theory, Wiley, 2nd ed., 2006 (1991).

[2] R. Ash, Information Theory, Dover, 1990.

[3] R. Gallager, Information Theory and Reliable

Communication, Wiley, 1968.

[4] A. El Gamal and Y-H. Kim, Network Information

Theory, Cambridge, 2011.

Page 5: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Teoria de Informação e Áreas Afins

A paisagem em

torno de TI:

TI

Teoria de

Comunicações

Probabilidade

Estatística

Matemática

Economia

Biologia

Física

Ciência de

Computação

Page 6: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Entropia

Definição: H(X) = A Entropia de X

Seja X uma variável aleatória discreta com valores

em {x1, x2, ..., xM} com probabilidades

p = {p1, p2, ..., pM}.

H(X) = H(p) = 𝑝 𝑥𝑘 𝑙𝑜𝑔21

𝑝(𝑥𝑘)𝑀𝑘=1 (bits) =

= E ( 𝑙𝑜𝑔21

𝑝(𝑋) ) bits

H(X) é uma medida da incerteza de X.

Page 7: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Mudança de base

Hb(X)= E ( 𝑙𝑜𝑔𝑏1

𝑝(𝑋) ) = 𝑙𝑜𝑔𝑏a Ha(X)

Unidades de Entropia:

Base 2 bits

Base 10 dits ou Hartleys

Base e nats

Base 3 trits (porque não?)

Page 8: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Exemplos

Ex. 1) X {0,1}, p(X=0)=0, p(X=1)=1

H(X) = - 0 log 0 - 1 log 1 = 0

Note: lim p log p = 0 por l’Hôpital P0

Nenhuma incerteza ! X é determinística

Page 9: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Exemplos (continuação)

Ex. 2) X {0,1}, p(X=0)=p, p(X=1) =1-p,

H(X) = – p log p – (1-p) log (1-p)

= h(p)

h(p) é a função binária de entropia

h(p)

0 12 1

p

Page 10: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Lema

ln x ≤ x-1, x>0

Prova: Série de Taylor com resto

0 1

x-1 ln x

x

Page 11: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Divergência de Kulbach-Leibler

Sejam p(x) e q(x) duas funções de massa de

probabilidade definidas no alfabeto X.

A divergência de Kullbach-Leibler

de p em relação a q é dada por

D(p q) = 𝑝 𝑥 log𝑝(𝑥)

𝑞(𝑥)

X

Page 12: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Proposição: Desigualdade da Informação

D(p q) ≥ 0 com igualdade se e somente se (sse) pq

Prova: Seja A = {x : p(x) > 0}

Use ln x ≤ x-1 (Lema)

Page 13: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Observação

A divergência de K-L é muito útil em T I,

mas não é uma métrica.

Ela não é simétrica e não satisfaz a desigualdade

do triângulo.

Page 14: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Aplicação

Seja q a distribuição uniforme

qi = 1/n for i=1,...,n

p = {p1, p2, ..., pn}

Então D(p q) ≥ 0

𝑝𝑖 log𝑝𝑖𝑞𝑖

≥ 0

𝑝𝑖 log 𝑝𝑖 ≥ 𝑝𝑖 log 𝑞𝑖

= 𝑝𝑖 log 1/𝑛

Portanto H(p) ≤ log n

A distribuição uniforme tem máxima entropia.

Page 15: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Distribuições conjunta, marginais e condicionais

Distribuição conjunta:

X Y

yN

y2

y1

xM x2 x1 ....

p(xi,yj)

p(xi)

p(yj)

𝑝(𝑦𝑗) = 𝑝 𝑥𝑖, 𝑦𝑗

𝑝(𝑥𝑖) = 𝑝 𝑥𝑖, 𝑦𝑗

Distribuições marginais

𝑥𝑖

𝑦𝑗

p(x1) ... p(xM)

p(y1)

p(yN)

Page 16: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Distribuições Condicionais:

𝑝 𝑦𝑗 𝑥𝑖 = 𝑝(𝑥𝑖,𝑦𝑗)

𝑝(𝑥𝑖)

𝑝 𝑥𝑖 𝑦𝑗 = 𝑝(𝑥𝑖,𝑦𝑗)

𝑝(𝑦𝑗)

A distribuição conjunta determina as

distribuições marginais e condicionais.

Note: As marginais não determinam a

distribuição conjunta.

Page 17: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Entropia Conjunta

H(X,Y) = H(p( . , . )) = 𝑝 𝑥𝑖, 𝑦𝑗 𝑙𝑜𝑔1

𝑝(𝑥𝑖,𝑦𝑗)

𝑥𝑖 , 𝑦𝑗

Page 18: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Entropias Condicionais

H(X|Y) = 𝑝 𝑥𝑖 , 𝑦𝑗 𝑙𝑜𝑔1

𝑝(𝑥𝑖|𝑦𝑗) = - E (𝑙𝑜𝑔 𝑝(𝑋|𝑌) )

H(Y|X) = 𝑝 𝑦𝑗 , 𝑥𝑖 𝑙𝑜𝑔1

𝑝(𝑦𝑗|𝑥𝑖) = - E (𝑙𝑜𝑔 𝑝(𝑌|𝑋) )

Page 19: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Regra da Cadeia (como descascar cebola)

H(X,Y) = H(X) + H(Y|X)

= H(Y) + H(X|Y)

Prova: Sugestão para casa.

Simples manipulação algébrica.

Corolário (forma condicional):

H(X,Y|Z) = H(X|Z) + H(Y|X,Z)

= H(Y|Z) + H(X|Y,Z)

Page 20: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Informação Mútua

A Informação Mútua entre X e Y é

a divergência de K-L entre a distribuição

conjunta p(x,y) e o produto das marginais p(x) p(y).

I(X;Y) = D(p(x,y) p(x) p(y) )

= 𝑝 𝑥, 𝑦 log𝑝(𝑥,𝑦)

𝑝 𝑥 𝑝(𝑦)

X Y

Page 21: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Propriedades de I(X;Y)

1) Não-negatividade: I(X;Y) ≥ 0 , com igualdade

sse X and Y forem independentes.

Prova: I(X;Y) é uma divergência de K-L .

2) Simetria:

I(X;Y) = I(Y;X)

Prova: Trivial (p(x)p(y) = p(y)p(x))

Page 22: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Informação Mútua e Entropia

I(X;Y) = 𝑝 𝑥, 𝑦 log𝑝(𝑥,𝑦)

𝑝 𝑥 𝑝(𝑦)

= H(X) + H(Y) – H(X,Y) (simplificando)

= H(X) – H(X|Y) (regra da cadeia)

= H(Y) – H(Y|X) (forma alternativa)

Note: A Informação mútua entre duas variáveis

aleatórias é a incerteza residual sobre uma

variável quando a outra é revelada.

Page 23: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Informação Mútua

A informação mútua entre X e Y é a diferença entre

as entropias de X antes e depois de conhecer Y:

I(X;Y) = H(X) – H(X|Y)

Também

I(X;Y) = H(Y) – H(Y|X)

Page 24: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Diagrama de Venn

H(Y|X)

H(X)

H(X|Y)

H(Y)

I(X;Y)

Page 25: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Informação não atrapalha

Condicionamento não aumenta entropia:

H(X|Y) ≤ H(X)

Prova: I(X;Y) = H(X) – H(X|Y) ≥ 0

Na média o conhecimento de Y não pode aumentar

a incerteza sobre X.

Page 26: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Passando informação adiante:

Sejam X e Y variáveis aleatórias dependentes

Proposição: I(X;Y) ≥ I(X; (Y))

Prova: I(X;Y) = H(X) – H(X|Y)

= H(X) – H(X|Y, (Y))

≥ H(X) – H(X|(Y)) = I(X; (Y))

Desigualdade de Processamento de dados.

X Y

(Y) Mecanismo

aleatório (•)

Condicionamento

reduz entropia

Page 27: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Propriedade da Equipartição Assintótica

Sejam X1, X2, …, Xn i.i.d. segundo p(x)

Espaço amostra = conjunto de

todas sequências (x1, x2, …, xn)

A= Conjunto de

sequências típicas

• •

• • •

• 1) Pr{A} ≥ 1- 2) p(x) 2–nH(X)

3) A 2nH(X)

P.E.A. { P.E.A é o DNA de T.I. !

Page 28: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Exemplo de sequências típicas

Seja X uma moeda viciada com

P(Cara)=0.9 e P(Coroa) = 0.1

Considere o conjunto de 1000 lançamentos da moeda.

Sequências típicas são aquelas aproximente 900 Caras

e 100 Coroas.

Note: A sequência mais provável, qual seja a de

1000 Caras, não é típica !

Page 29: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Conclusão da P.E.A. :

Melhor apostar em A !

Page 30: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Compressão de dados

(Codificação de fonte)

Objetivo: representar a fonte eficientemente.

Fonte Codificador

de fonte

índice X

Espaço da fonte Espaço da reprodução

𝑋 Decodifica-

dor de fonte

Page 31: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Código eficiente: Código de Shannon

Seja l 𝑖 = 𝑙𝑜𝑔𝐷1

𝑝𝑖 ,

Use uma palavra de código com este comprimento.

Este código satisfaz

HD(X) ≤ L ≤ HD(X) +1

Page 32: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Código eficiente: Huffmann (1952)

O código de Huffman é o código ótimo de prefixo (menor comprimento esperado) para uma dada distribuição p(x).

Exemplo:

X p(x) Código

1 0.25 0.3 0.45 0.55 1 01

2 0.25 0.25 0.3 0.45 10

3 0.2 0.25 0.25 11

4 0.15 0.2 000

5 0.15 001

Este código tem comprimento médio de 2.3 bits/símbolo.

0

1

Page 33: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Códigos eficientes:

Outros códigos eficientes:

Códigos Shannon-Fano-Elias

Códigos Aritméticos

Códigos de Lempel-Ziv (Universal – aprende a

distribuição da fonte)

Códigos de corridas + códigos de Golomb (muito simples)

Page 34: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Transmissão por Canais Ruidosos

O Problema da codificação de canal:

W {1,2,…,2𝑛𝑅} = conjunto de mensagens (Taxa R)

X = (x1 x2 … xn) = palavra-código de entrada no canal

Y = (y1 y2 … yn) = palavra-código de saída do canal

𝑊 = mensagem decodificada P(erro) = P{W𝑊}

𝑊 W

X Y Codificador

de Canal

Canal

𝑝(𝑦|𝑥)

Decodificador

de Canal

Page 35: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Exemplos

Máquina de escrever sem ruído:

4

3

2

1

4

3

2

1

Pode-se transmitir R = 𝑙𝑜𝑔2 4 = 2 bits/transmissão

Número de símbolos sem ruído = 4

Saída Y Entrada X

Page 36: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Exemplos simples

Máquina de escrever ruidosa (tipo 1):

4

3

2

1

4

3

2

1

Pode-se transmitir R = 𝑙𝑜𝑔2 2 = 1 bit/transmissão

Número de símbolos sem ruído = 2

Saída Y Entrada X

0.5

0.5

0.5

0.5

Page 37: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Exemplos simples

Máquina de escrever ruidosa (tipo 2):

4

3

2

1

4

3

2

1

Pode-se transmitir R = 𝑙𝑜𝑔2 2 = 1 bit/transmissão

Número de símbolos sem ruído = 2

Saída Y Entrada X

0.5

0.5

0.5

0.5

Page 38: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Exemplos simples

Máquina de escrever ruidosa (tipo 3):

4

3

2

1

4

3

2

1

Pode-se transmitir R = 𝑙𝑜𝑔2 2 = 1 bit/transmissão

Número de símbolos sem ruído = 2 Use só X=1 e X=3

Saída Y Entrada X

0.5

0.5

0.5

0.5

0.5

0.5

0.5

0.5

Page 39: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Exemplos simples

Máquina de escrever mais complicada:

4

3

2

1

3

2

1

Saída Y Entrada X

4

5 5

0.5

0.5

0.5

0.5

0.5

Quantos símbolos livres de ruído?

Claramente pelo menos 2, talvez mais.

Page 40: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Exemplos

Considere dois usos consecutivos do canal:

4

X1

X2 2 1

4

3

2

1

5

5

Código:

Que quadrados

Escolher ?

3

Page 41: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Exemplos simples

Dois usos consecutivos do canal:

4

X1

X2

3 2 1

4

3

2

1

5

5

Sejam os pontos

{X1,X2} =

{(1,1), (2,3),

(3,5), (4,2),

(5,4)}

Page 42: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Relembrando o canal

Máquina de escrever complicada:

4

3

2

1

3

2

1

Saída Y Entrada X

4

5 5

0.5

0.5

0.5

0.5

0.5

Quantos símbolos livres de ruído?

Mais de 2 ?

Page 43: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Exemplos simples

Olhando as saídas do canal:

4

Y1

Y2

3 2 1

4

3

2

1

5

5

Sejam {X1,X2} =

{(1,1), (2,3),

(3,5), (4,2),

(5,4)}

Page 44: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Exemplo simples - observações

Pode-se transmitir 5 símbolos livres de ruído em n=2 transmissões.

Portanto tem-se taxa de 𝑙𝑜𝑔25

2 = 1.16 bits/transmissão

com P(erro) = 0.

Pode-se usar códigos mais longos (n) para

obter log2 (5/2) =1.32 bits/transmissão, a

capacidade do canal.

Page 45: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Exemplos: Canal Binário Simétrico (BSC)

Quantos símbolos livres de ruído ?

0

1- 0

1 1

X

1-

A.: Claramente para n=1 não há nenhum.

Que tal para n grande ?

Y

Page 46: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Exemplo: Canal Binário Simétrico (BSC)

C = max (H(Y) – H(Y|X))

= 1 – h() bits/transmissão

Note: C=0 para = ½

0

1- 0

1 1

X

1-

Y

C()

1 0 ½

1

Page 47: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Segundo Teorema de Shannon

Usa-se o canal 𝑛 vezes:

Xn Yn

• •

• •

Page 48: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Segundo Teorema de Shannon

A Capacidade de um canal discreto sem memória

é

𝐶 = max 𝐼(𝑋; 𝑌).

Note:

𝐼 𝑋; 𝑌 é uma function de 𝑝 𝑥, 𝑦 = 𝑝 𝑥 𝑝 𝑦 𝑥 .

Mas 𝑝 𝑦 𝑥 é fixada pelo canal.

𝑝(𝑥)

Page 49: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Segundo Teorema de Shannon

Prova (esboço usando P.E.A.):

Xn Yn

• •

• •

Yn 2𝑛𝐻(𝑌)

bola típica 2𝑛𝐻(𝑌|𝑋)

Page 50: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Entropia Diferencial

Seja 𝑋 uma variável aleatória contínua com

densidade de probabilidade 𝑓 𝑥 e suporte 𝑆.

A entropia diferencial de 𝑋 é dada por

ℎ 𝑋 = − 𝑓 𝑥 log 𝑓 𝑥 𝑑𝑥

𝑆 (se existir).

Note: Também é denotada por ℎ 𝑓 .

Page 51: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Exemplos: Distribuição Uniforme

Seja 𝑋 uniforme no intervalo 0, 𝑎 . Então

𝑓 𝑥 =1

𝑎 no interval e 𝑓 𝑥 = 0 fora dele.

ℎ 𝑋 = − 1

𝑎 𝑙𝑜𝑔

𝑎

0

1

𝑎 𝑑𝑥 = log 𝑎

Note que ℎ 𝑋 pode ser negativa (quando 𝑎 < 1).

No entanto, 2ℎ(𝑓) = 2log 𝑎 = 𝑎 é o tamanho do

conjunto-suporte, que é não-negativo.

Page 52: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Exemplo: Distribuição Gaussiana

Seja 𝑋 ~ 𝑥 = 1

22 𝑒𝑥𝑝 (

−𝑥2

22)

Então ℎ 𝑋 = ℎ = − 𝑥 [−𝑥2

22 − 𝑙𝑛 22] 𝑑𝑥

= 𝐸𝑋2

22 +

1

2 𝑙𝑛 22

=1

2 𝑙𝑛 2e2 nats

Mudando a base tem-se ℎ 𝑋 =1

2 𝑙𝑜𝑔2 2e2 bits

Page 53: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Relação entre Entropias Diferencial e Discreta

Considere uma quantização de X, denotada por X

Seja X = 𝑥𝑖 dentro do intervalo 𝑖.

Então 𝐻(𝑋) = - 𝑝𝑖 𝑖 𝑙𝑜𝑔 𝑝𝑖

= - 𝑓(𝑥𝑖) 𝑖 𝑙𝑜𝑔 𝑓(𝑥𝑖)

- 𝑙𝑜𝑔

ℎ 𝑓 − log

Page 54: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Entropia diferencial de um vetor Gaussiano

Teorema: Seja 𝑿 um vetor Gaussiano

n-dimensional com média e matriz covariância 𝐾.

Então

ℎ 𝑿 = 1

2log ((2𝑒)𝑛 𝐾 )

onde 𝐾 denota o determinante de 𝐾.

Prova: Manipulação algébrica.

Page 55: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

O Canal Gaussiano

O Problema do canal Gaussiano:

W {1,2,…,2𝑛𝑅} = conjunto de mensagens de taxa R

X = (x1 x2 … xn) = entrada do canal

Y = (y1 y2 … yn) = saída do canal

𝑊 = mensagem decodificada P(erro) = P{W𝑊}

𝑊 W X Y

Codificador

Decodi-

ficador

Z~N (0, N I)

+

Restrição de potência: EX2≤P

Page 56: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

O canal Gaussiano

C𝑎𝑝𝑎𝑐𝑖𝑑𝑎𝑑𝑒 𝐶 = max 𝐼(𝑋; 𝑌)

𝐼 𝑋; 𝑌 = ℎ 𝑌 − ℎ 𝑌 𝑋 = ℎ 𝑌 − ℎ 𝑋 + 𝑍|𝑋

= ℎ 𝑌 − ℎ 𝑍 ≤1

2 log 2e 𝑃 + 𝑁 −

1

2 log 2e𝑁

=1

2log 1 +

𝑃

𝑁 bits/transmissão

f(x): EX2≤P

Page 57: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

O Canal Gaussiano

C𝑎𝑝𝑎𝑐𝑖𝑑𝑎𝑑𝑒: 𝐶 = max 𝐼(𝑋; 𝑌)

𝐶 =1

2log 1 +

𝑃

𝑁 bits/transmissão

f(x): EX2≤P

Page 58: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

O Canal Gaussiano de Banda Limitada

𝐶 = 𝑊 log (1+ 𝑃

𝑁0𝑊 ) bits/segundo

Note: Se W

tem-se C = 𝑃

𝑁0 𝑙𝑜𝑔2𝑒 bits/segundo.

Page 59: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Canal Gaussiano de Banda W

Seja 𝑅

𝑊 a eficiência espectral em bits por segundo

por Hertz. Também seja 𝑃 = 𝐸𝑏𝑅 onde 𝐸𝑏 é a

energia disponível por bit de informação.

Obtem-se

𝑅

𝑊≤ 𝐶

𝑊 = log (1+

𝐸𝑏𝑅

𝑁0𝑊 ) bits/segundo.

Portanto

𝐸𝑏

𝑁0≥2−1

Esta relação define o chamado Limitante de Shannon.

Page 60: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

O Limitante de Shannon

𝐸𝑏

𝑁0≥2−1

𝐸𝑏𝑁0

𝐸𝑏

𝑁0 (dB)

0 0.69 -1.59

0.1 0.718 -1.44

0.25 0.757 -1.21

0.5 0.828 -0.82

1 1 0

2 1.5 1.76

4 3.75 5.74

8 31.87 15.03

𝐸𝑏

𝑁0 (dB)

Shannon Bound

0

5

4

3

2

1

6 5 4 3 2 1 -1

Page 61: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Solução de “Water-Filling” (Shannon)

Page 62: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Canais Gaussianos Paralelos

Page 63: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Exemplo de “Water Filling”

Canais com níveis de ruído 2, 1 and 3.

Potência disponível = 2

Capacidade= 1

2 log (1+

0.5

2) +

1

2 log (1+

1.5

1) +

1

2 log (1+

0

3)

Nível de ruído mais potência de sinal = 2.5

Nenhuma potência alocada para o terceiro canal.

Page 64: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Teoria de informação de múltiplos usuários

Blocos constituintes:

Canal de Múltiplo Acesso (MACs)

Canais de Broadcast (BCs)

Canais de Interferência (IFCs)

Canais de Relay (RCs)

Note: Estes canais têm versões discretas sem memória e versões Gaussianas. Por simplicidade vamos ver apenas as versões Gaussianas.

Page 65: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Canal de Múltiplo Acesso (MAC)

Page 66: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Canal de Broadcast Gaussiano

Page 67: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Codificação por Superposição

N2

(1-)P

P

1

P

Page 68: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Canal de interferência Gaussiano padrão

Power P1

Power P2

a

b

W1

W2

W1

W2

^

^

Page 69: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Canal de interferência Gaussiano simétrico

Power P

Power P

Page 70: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Canal de Interferência em Z

Page 71: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Canal de Interferência: estratégias

O que se pode fazer com interferência:

1. Ignorar (tomar a interferência como ruído,

2. Evitar (dividir o espaço de sinal (TDM/FDM)),

3. Parcialmente decodificar os dois sinais de interferência,

4. Parcialmente decodificar um e totalmente o outro,

5. Decodificar os dois sinais de interferência (a melhor

opção para interferência forte, a≥1).

Page 72: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Canal de Relay

O canal de relay é dito fisicamente degradado se p(y,y1|x,x1)=p(y1|x,x1) p(y|y1,x1).

Portanto Y é uma versão degradada do sinal de relay Y1 .

Teorema: C = sup min { I(X,X1;Y1), I(X;Y1|X1)}

Y1 : X1

X Y

p(x,x1)

Page 73: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Codificação de Fonte de Slepian Wolf

X,Y variáveis aleatórias correlatadas ~ p(x,y)

DE

Cod. X

Cod. Y

X

Y

^ ^ X , Y

j

k

Decodifi-

cador

conjunto

Índices j e k com taxas Rx and Ry, resp.

Page 74: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Slepian Wolf (continuação)

Ry

Rx

H(Y)

H(Y|X)

H(X) H(X|Y)

Região

atingível

Page 75: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Fechamento

Muitas frentes de pesquisa:

Codificação conjunta de fonte e canal

Codificação para canais com informação lateral

Codificação distribuída de fonte

Estratégias de codificação para redes

“Casamento” de “Network Coding” e T I de múltiplos

usuários.

Page 76: TEORIA DE INFORMAÇÃO UM NANOCURSO€¦ · Sumário Introdução o Teoria de Informação - Interdisciplinaridade o Entropia, Divergência de K-L, Informação Mútua o Compressão

Obrigado !

[email protected]