CDI – Comunicação Digitalmdoniak/CDI_20705/CDI_Cap1.pdf · É sempre bom lembrar o que levou os...
Transcript of CDI – Comunicação Digitalmdoniak/CDI_20705/CDI_Cap1.pdf · É sempre bom lembrar o que levou os...
CDI – Comunicação Digital
Revisão de Sinais e Espectro
“Digital Communications – Fundamentals and Applications”Bernard Sklar
2ª edição – Prentice Hall
Marcio Doniak
www.sj.ifsc.edu.br/[email protected]
CDI 20705 – Comunicação Digital 1/35
1. Introdução
A principal característica de um sistema de comunicação digital (DCS) é o envio de uma
forma de onda, selecionada dentro de um grupo, com uma duração de tempo predeterminada. Ao
contrário de um sistema analógico, que envia uma forma de onda, selecionada a partir de uma
infinidade de outras, com resolução infinita do ponto de vista teórico. Em um DCS o objetivo no
receptor não é reproduzir exatamente a forma de onda transmitida, mas sim determinar a partir
da relação sinal-ruído qual foi a forma de onda transmitida dentre as possíveis. Para isso, uma
importante medida de desempenho de um DCS é a probabilidade de erro.
É sempre bom lembrar o que levou os sistemas de comunicação serem todos digitais:
• A principal vantagem é a facilidade com que os sistemas digitais conseguem
regenerar o sinal, conforme está ilustrado na Figura 1. Essa distorção ocorre porque
tanto os circuitos quanto as linhas de transmissões possuem uma função de
tranferência que não é ideal, além do ruído elétrico e outros sinais interferentes.
Figura 1: Degradação e Regeneração.
• DCS são menos susceptíveis a interferência e distorções, devido a sua forma, por
exemplo, ligado e desligado, a perturbação deve ser grande o suficiente para
conseguir modificar a informação transmitida.
CDI 20705 – Comunicação Digital 2/35
• DCS são mais confiáveis e podem ser produzidos com custos mais baixos. Podem ser
usados diversos componentes de propósito geral produzidos e testados em larga
escala.
• DCS oferecem uma maior segurança para a informação. Esta pode ser agrupada em
pacotes.
• Entretando, DCS exigem um maior processamento do sinal, e necessitam alocar
muitos recursos para estabelecer o sincronismo.
2. Revisão de Sinais
2.1. Série de Fourier:
Considere um conjunto de funções { e jwn t }, n ∈ ℤ , wn=(2π/T )n , T ∈ ℝ+ . e
duas importantes propriedades:
1ª) e jwn (t+ kT ) = e jwn t⋅e jwn kT
Como, wn=2/T n , então:
e jwn ( t+ kT ) = ej 2πT nt
⋅ej 2πT nkT
ej 2πT nkT
= e j 2πnk = cos(2πnk )+ jsen(2πnk ) = cos(2πnk )
Logo, e jwn (t+ kT ) = e jwn t → as funções são periódicas!
2ª) ∫−T /2
T /2
e jw n t e− jwm t dt = ∫−T /2
T /2
e j wn−wm tdt = ∫−T /2
T /2
ej 2T n−m t
dt =
= 1
j 2πT
(n−m)(e jπ(n−m )−e− jπ(n−m )) = 1
πT(n−m)
(e j π(n−m)−e− jπ(n−m))2j
=
= T sen [n−m]n−m
= T sinc [n−m] = 0, p / n ≠ m1, p / n = m
Seja f(t) uma função periódica com período T. Assim, f(t) pode ser expressa por:
f (t) = 1T ∑
n=−∞
+ ∞
cn e jw n t (1)
CDI 20705 – Comunicação Digital 3/35
cn = ∫−T /2
T /2
f (t )e− jw nt dt (2)
Exemplo 1:
Figura 2: Exemplo 1, sinal no tempo.
cn = ∫−T /2
T /2
A.e− jw n tdt = ∫−/2
/2
A. e− jw n tdt = −Ajw n
e− jw n/2−e jw n/2 =
=2Awn
. e jwn/2−e− jwn /2
2j =2Awn
. sen wn/2 = A. .sen w n/2wn/2
=
= A. . sincwn/2
Figura 3: Função sinc.
wn = wn − wn−1 = 2T
.n− n−1 = 2T
= wn (3)
CDI 20705 – Comunicação Digital 4/35
Esse valor é válido para qualquer f(t), e não apenas para esse exemplo.
Exemplo 2:
f t = cos 2T
. t = 12e
j 2T .t
e− j 2
T . t
wn=2/T n ,
Neste caso:
c1 = T2, c−1 = T
2e cn = 0, para n ≠±1.
2.2. Transformada de Fourier
Aplicando a equação (3) em (1) e (2), temos:
f t = 12
. ∑n=−∞
∞
cn . e jwn t .w
No limite, quando T ∞ , temos:
w dw , wn w , cn F w , assim, temos a Transformada de Fourier para
um sinal não periódico.
f t = 12
.∫−∞
∞
F w .e jwt .dw
F w = ∫−∞
∞
f t . e− jwt .dt
Exemplo 3:
Se, f t = t , qual é a F(w)?
F w = ∫−∞
∞
t .e− jwt .dt = 1.
CDI 20705 – Comunicação Digital 5/35
Figura 4: Transformada de Fourier da função impulso unitário.
Algumas propriedades:
a) Dualidade:
f t F wF t 2 f −w
Ƒ-1{2πf(-w)} = 12
.∫−∞
∞
2 f −w .e jwt .dw , fazendo = −w
Ƒ-1{2πf(-w)} = ∫−∞
∞
f . e− j t . d
b) Deslocamento no tempo e na frequência
f t ↔ F w
f t − t 0 ↔ e− jwt0 .F w
Exemplo 4: Foi visto que:
f t = t F w = 1
f t − t 0 = t − t0 F w = 1.e− jwt 0
Da propriedade da dualidade:
t 0 = w0 , então, e jw0 t ↔ 2 w−w0
ou de forma geral: f te jw0 t ↔ F w−w0
Aplicando em Série de Fourier:
Seja f(t) periódico com período T. Então,
f t = 1T
. ∑n=−∞
∞
cn. ejwn t ↔ F w
F w = 2T ∑
n=−∞
∞
cnw−wn
Assim, o espectro de um sinal periódico é discreto no tempo e contém impulsos. O
espaçamento entre os impulsos é w = 2T
, conforme está ilustrado na Figura 3.
CDI 20705 – Comunicação Digital 6/35
c) Simetria da Amplitude e da Fase
Considere um sinal f(t) real, então, F w = ∣F w∣. e j w apresenta as seguintes
simetrias:
∣F w ∣ → é par; e w → é ímpar.
F w = ∫−∞
∞
f t . e− jwt .dt
F w = ∫−∞
∞
f t . cos wt .dt − j∫−∞
∞
f t . sen wt .dt
∣F w∣2 = [∫−∞
∞
f t . coswt .dt ]2 [− j∫
−∞
∞
f t . sen wt .dt ]2
∣F w ∣2 = [∫−∞
∞
f t . cos wt .dt ]2 [∫
−∞
∞
f t . sen wt . dt ]2
→ é par
w = − arctan ∫−∞
∞
f t. sen wt .dt
∫−∞
∞
f t. cos wt .dt → é ímpar
d) Convolução
f t ∗g t ↔ F w.G w
f t .g t ↔1
2F w∗G w
Exemplo 5:
igual *
Figura 5: Exemplo 5, propriedade da convolução.
Em t = 0, a amplitude é A2 , que é a amplitude máxima do sinal.
CDI 20705 – Comunicação Digital 7/35
M = A2 A = M
A partir da propriedade da convolução:
x t ∗x t = y t ↔ Gw2
Gw = M
.2 . sen2w/2w/2
= A sen2w/2w/ 2
= Y w
2.3. Amostragem
Seja x(t) um sinal contínuo no tempo e em amplitude, com energia finita. Considere suas
amostras nos instantes de tempo: t=0, ±Ts, ±2Ts, … Onde,
Ts → é o intervalo entre as amostras
f s =1T s
→ é a taxa de amostragem dada em amostras/segundo.
Figura 6: Sinal x(t) contínuo.
Figura 7: Sinal x(t) amostrado.
O sinal amostrado será:
CDI 20705 – Comunicação Digital 8/35
xδ(t ) = ∑n=−∞
∞
x(nT s) .δ(t−nT s) = x (t ).δT s( t) , onde
δT s(t ) = ∑
n=−∞
∞
δ(t−nT s) .
Observe que δT s(t) é um sinal periódico, com período Ts. Vamos recorrer a Série de
Fourier:
δT s(t ) = 1
T s∑n=−∞
∞
cnejw n t , onde, wn = 2π
T s.n = 2π. f s .n
cn = ∫−T s/2
T s /2
δT s(t) . e jw n t dt = 1
Realizando a Transformada de Fourier para δT s(t ) , obtemos:
2πT s
∑n=−∞
∞
δ(w−wn) , cn = 1 e w = 2π f
= 1T s
∑n=−∞
∞
δ( f−nf s)
x (t ).δT s= xδ(t ) ↔ X δ( f )
Aplicando a propriedade da convolução na frequência em x(t), obtemos:
X δ( f ) = X ( f ) ∗ 1T s
∑n=−∞
∞
δ( f−nf s)
X δ( f ) = 1T s
∑n=−∞
∞
X ( f−nf s)
Figura 8: Transformada de Fourier do sinal periódico.
Se f m < f s/ 2 é possível recuperar o sinal original a partir das amostras.
CDI 20705 – Comunicação Digital 9/35
Para reconstruir o sinal original, considere novamente xδ(t ):
xδ(t ) = ∑n=−∞
∞
x(nT s)δ(t−nT s)
Realizando a Transformada de Fourier em ambos os lados, temos:
X δ( f ) = ∑n=−∞
∞
x (nT s)e− j2πnfT s
que pode ser visto como a Série de Fourier para a função periódica no domínio da frequência,
X δ( f ) , sendo x (nT s) os coeficientes da série.
Se a taxa de amostragem for 1/T s = 2f m , temos:
X δ( f ) = ∑n=−∞
∞
x ( n2f m
)e− jπnf / f m
E o sinal original corresponde a um período de X δ( f ) :
X ( f ) = T s X δ( f ) = 12 f m
X δ( f ) , ∣ f ∣< f m
X ( f ) = 12f m
∑n=−∞
∞
x ( n2f m
). e− jπnf / f m
Logo, X ( f ) é completamente determinada pelas amostras x ( n2f m
).
Tomando-se a Transformada Inversa de Fourier, temos:
x (t ) = ∫− f m
f m
X ( f )e j2π ft df
x (t ) = ∫− f m
f m 12f m
∑n=−∞
∞
x ( n2f m
) .e− jπnf / f m . e j2π ft df
x (t ) = 12f m
∑n=−∞
∞
x ( n2f m
)∫− f m
f m
ej2π f (t− n
2fm)df
Aplicando a fórmula da interpolação:
x t = ∑n=−∞
∞
x n2f m
sen 2f mt−n2f mt−n
= ∑n=−∞
∞
x n2f m
sinc 2f m t−n
CDI 20705 – Comunicação Digital 10/35
Algumas considerações importantes:
• Todo sinal com duração finita vai ter espectro infinito.
• Pelo Teorema de Nyquist, o espectro deve ser finito.
• Isso gera um conflito, pois, os sinais possuem duração finita.
• A rigor a energia do sinal deve ser finita, portanto, seu espectro deve ser finito.
Exemplo 6:
Seja x t = 2 sen 2t−12t−1
, com f s = 2f m = 2.
Figura 9: Função sinc no tempo.
Figura 10: Transformada de Fourier da função sinc.
• Duração no tempo é infinita
CDI 20705 – Comunicação Digital 11/35
• Espectro é finito
• Energia: ∫−∞
∞
∣x t ∣2dt = ∫−∞
∞
∣X f ∣2df (Teorema de Parseval), assim, a energia é
finita.
Alguns Aspectos Práticos da Amostragem
Impulsos não são fisicamente realizáveis, mas pulsos curtos, sim.
Figura 11: Exemplo de amostragem com pulsos curtos.
Amostras de duração finita, s1t = x t c t . Expressando c(t) pela Série de Fourier,
temos:
c t = TAT s
∑n=−∞
∞ sen nT /T snT /T s
ej2n TT s
t, f s =
1T s
, cn =sennT /T snT /T s
c t = TAT s
∑n=−∞
∞
cn ej2n TT s
t
Então:
s1 t = x t TAT s
∑n=−∞
∞ sen nT /T snT /T s
ej2n T
T st
Tomando-se a Transformada de Fourier de s1(t), temos:
CDI 20705 – Comunicação Digital 12/35
x t−t 0 ↔ e j2 ft0 X f
x t e jw0 t ↔ X w−w 0
S1 f = f sTA ∑m=−∞
∞ sen m f sT m f sT
X f −mf s
Figura 12: Sinal amostrado.
Como sen m f sT m f sT
não depende de f, não haverá distorção, e X(f) pode ser recuperado
por uma filtragem, assim como no caso ideal.
No caso de empregar amostas com pulso plano, Sample and Hold:
Figura 13: Sample and Hold.
s2t = [x t T st ] ∗ h t = x∗ ht
CDI 20705 – Comunicação Digital 13/35
s2t = [ ∑n=−∞
∞
x nT s t−nT s] ∗ ht
s2t = ∑n=−∞
∞
x nT s ht−nT s
Tomando-se a Transformada de Fourier, temos:
S2 f = X f H f = f s ∑m=−∞
∞
X f −mf sH f
onde, H f = T sen fT fT
e− j fT
Neste caso, haverá distorção em amplitude devido ao efeito de abertura. Para contornar ou
minimizar essa distorção, a solução é aplicar um equalizador. Sendo que se, T /T s0,1 a
equalização não é necessária.
3. Sinais Aleatórios
O principal objetivo de um sistema de comunicação é transmitir informação através de um
canal. Ao transmitir uma mensagem o transmissor a seleciona aleatoriamente, ou seja, o receptor
não sabe, a priori, qual mensagem, dentre as diversas possíveis, será transmitida. Associada a isto,
o canal impõe um ruído onde, normalmente, é variante no tempo. Ou seja, a cada nova
transmissão temos que considerar uma nova condição de ruído.
3.1 Variáveis Aleatórias
Seja:
Ω → espaço amostral que contém todos os possíveis pontos amostrais;
ξ → classe de eventos.
Por exemplo, o evento A consiste de 1 ponto amostral ou um conjunto de pontos amostrais.
A medida de probabilidade associada a cada evento A é definida como:
a) P(Ω) = 1;
b) 0 P A 1 ;
c) P A ∪ B = P A P B , se A∩ B =∅
CDI 20705 – Comunicação Digital 14/35
Variável aleatória:
É uma função do espaço amostral em uma faixa dos Reais.
Exemplo 1: moeda → Ω = {cara, coroa}
Seja A = cara e B = coroa
X(A) = 0 e X(B) = 1 → X(Ω) = {0, 1}
Exemplo 2: variável aleatória contínua
A = tensão > 5 V
X(A) > 5
Função Distribuição:
A função distribuição de uma variável aleatória X é dada por:
F X x = P X x ,
onde P X x é a probabilidade de que o valor tomado pela variável aleatória X ser menor ou
igual ao número real x.
A função distribuição possui as seguintes propriedades:
a) 0 F X x 1 ;
b) F X x1 F X x2 , se x1 x2 ;
c) F X −∞ = 0 ;
d) F X ∞ = 1.
Função Densidade de Probabilidade (PDF):
p X x =dF X x dx
Da mesma forma que a função distribuição, a função densidade de probabilidade é uma
função do número real x.
Seja:
CDI 20705 – Comunicação Digital 15/35
P x1 x x2 = P X x2 − P X x1
P x1 x x2 = F X x2 − F X x1
P x1 x x2 = ∫−∞
x2
p X x dx −∫−∞
x1
pX x dx
P x1 x x2 = ∫x1
x2
pX xdx
Propriedades:
a) p X x 0 → função não decrescente.
b) ∫−∞
∞
p X xdx = F X ∞− F X −∞ = 1− 0 = 1
Desta forma, a função densidade de probabilidade é sempre uma função não-negativa com
área total igual a 1.
Variáveis Aleatórias Discretas
∑iP X = x i = 1
Valor Médio
O valor médio ou valor esperado da variável aleatória X é:
mX = E {X } = ∫−∞
∞
x . p X x dx , onde E {⋅} é chamado de valor esperado.
O n-ésimo momento da PDF de uma variável aleatória X é:
E {X n} = ∫−∞
∞
xn . p X x dx
Para os propósitos de sistemas de comunicação, os momentos mais importantes são os dois
primeiros. O primeiro momento, quando n = 1, resulta na média e, quando n = 2, temos a variância
da variável aleatória X, definida como:
var X = E { X −mX 2} = ∫
−∞
∞
x − mX 2 . pX x dx
CDI 20705 – Comunicação Digital 16/35
E {X −mX 2} = E { X 2 − 2XmX mX
2 }
E {X −mX 2} = E {X 2}− E {2Xm X } E {mX
2 }
E {X −mX 2} = E {X 2}− 2mX E {X } mX
2 , como E {X } = mX
E {X −mX 2} = E {X 2}− 2mX
2 mX2
E {X −mX 2} = E {X 2}− mX
2 = X2
X2 → variância de X, E {X 2} = ∫
−∞
∞
x2 . p X x dx
4. Processos Estocásticos
Um processo aleatório X(A, t) pode ser visto como uma função de duas variáveis: um evento
A e o tempo. A Figura 14 ilustra um processo aleatório. Nesta figura existem N funções amostra no
tempo, {Xj(t)}. Cada uma das funções amostra pode ser considerada a saída para um determinado
ruído. Para um evento específico Aj, temos uma única função no tempo X(Aj, t) = Xj(t). O total de
funções amostras possíveis é chamado de conjunto (ensemble). Para um tempo específico tk, X(A,
tk) é uma variável aleatória X(tk) cujo valor depende do evento. E para um evento específico A = A j,
e para um tempo específico t = tk, X(Aj, tk) é um valor determinístico, ou seja, apenas um número.
CDI 20705 – Comunicação Digital 17/35
Figura 14: Processos aleatórios com ruído.
Média Estatística de um Processo Estocástico
De maneira geral, a forma da PDF de um processo estocástico será diferente para os
diferentes instantes de tempo. Em muitas situações não é conveniente determinar empiricamente
a PDF de um processo estocástico. Embora, uma descrição parcial consistindo da média e da
função de autocorrelação normalmente já são suficientes para as necessidades dos sistemas de
comunicações. A média de um processo estocástico pode ser definida como:
E {X t k } = ∫−∞
∞
x p X kx dx = mX t k ,
onde X t k é a variável aleatória obtida amostrando-se o processo estocástico em t = t k ,
e a PDF de X t k , a densidade dentre o conjunto de eventos no tempo tk, é denominado
p X kx .
A função de autocorrelação de um processo estocástico X(t) é definida como uma função de
CDI 20705 – Comunicação Digital 18/35
duas variáveis, t1 e t2, dada por:
RX t 1 , t 2 = E {X t 1 X t2} = E {X 1 X 2}
RX t 1 , t 2 = ∫−∞
∞
∫−∞
∞
x y p X 1 , X 2x , y dx dy
RX t 1 , t 2 mede o quanto as variáveis aleatórias X1 e X2 são correlacionadas.
Estacionaridade
a) No sentido estrito
Um processo estocástico X(t) é estacionário no sentido estrito se:
• X t1 , X t 2 , ... , X tN tem a mesma densidade de probabilidade. Ou seja,
P X kx é a mesma para todos instantes de tempo;
• p X 1 , X 2 ,... , X Nx1 , x2 ,... , x N independe dos instantes de tempo t 1 , t 2 , ... , tN e de
N.
b) No sentido amplo
Um processo estocástico X(t) é estacionário no sentido amplo se:
• apenas os dois primeiros momentos independem do deslocamento no tempo,
E {X t } = mX = constate ∀ t
• RX t 1 , t 2 = R X 0, t 2−t1 = RX t 2−t 1
RX t 1 , t 2 = R X , = t2 − t 1
Estacionaridade no sentido estrito implica em estacionaridade no sentido amplo. Mas o
inverso não é necessariamente verdade. Um processo estocástico estacionário no sentido amplo
nem sempre é estacionário no sentido estrito. Uma exceção é o processo estocástico Gaussiano.
Pois, ele é caracterizado apenas pela média e variância.
Autocorrelação de um Processo Estocástico Estacionário no Sentido Amplo
Assim como a variância proporciona uma medida de aleatoridade para variáveis aleatórias,
a função de autocorrelação proporciona uma medida similar para processos estocásticos. Em um
processo estacionário em sentido amplo, a função de autocorrelação é apenas uma função da
CDI 20705 – Comunicação Digital 19/35
diferença de tempo = t2 − t 1 .
RX = E {X t X t} , para −∞ ∞
Para um processo estacionário no sentido amplo (WSS) com média zero, RX indica a
extensão nos quais os valores do processo separados por segundos são estaticamente
correlacionados. Ou seja, RX nos traz uma ideia da resposta em frequência que está
associada com o processo estocástico. Se RX muda vagarosamente com o aumento de ,
isto indica que, na média, os valores amostrados de X(t) para t = t 1 e t = t 1 são
aproximadamente iguais. Assim, nós esparamos uma representação no domínio da frequência de
X(t) contendo preponderadamente baixas frequências. Por outro lado, se RX decrescer
rapidamente com o aumento de , nós esparamos que X(t) mude rapidamente com o tempo e
consequentemente, contenha predominantemente altas frequências.
Propriedades da função de Autocorrelação de um Processo Estacionário no Sentido Amplo
Seja X(t) um processo estocástico real:
(1) RX = RX −
(2) RX RX 0 , ∀
(3) RX ↔ GX f , densidade espectral de potência
(4) RX 0 = E {X 2t } → valor médio quadrático ou potência do processo estocástico
∫−∞
∞
RX . e− j2 f .d = G X f
∫−∞
∞
RX . e− j2 f .d = G X f
RX 0 = ∫−∞
∞
G X f .df → potência do processo estocástico
Médias Temporais e Ergodicidade
Para calcular mX e RX de um processo estocástico estacionário, precisamos
conhecer p X x e P X 1 , X 2x1 , x2 . Mas na prática, isso nem sempre é possível. Então,
recorremos as médias temporais.
CDI 20705 – Comunicação Digital 20/35
Um processo estocástico é dito ERGÓTICO se suas médias temporais, a partir de qualquer
função amostra, são iguais as suas médias estatísticas.
Processo ergótico em média:
mX = limT ∞
1T ∫
−T /2
T /2
X t .dt
Processo ergótico em função de autocorrelação:
RX = limT ∞
1T ∫
−T /2
T /2
X t . X t−.dt
Uma vez que um processo é dito ergótico, algumas relações entre os valores de parâmetros
elétricos do sinal, tais como, o valor da componente dc, valor rms, e potência média do sinal,
podem ser relacionadas aos momentos de um processo ergótico.
• O valor mX = E {X t} é igual ao nível dc do sinal.
• A quantidade mX2 é igual a potência normalizada da componente dc.
• O segundo momento de X(t), E {X 2t }, é igual a potência média total
normalizada.
• E {X 2t } é igual ao valor médio quadrático (rms) do sinal de tensão (ou de
corrente).
• A variância, X2 , é igual a potência média normalizada no tempo ou da
componente ac do sinal.
• Se o processo tem média zero, mX = mX2 = 0 , então X
2 = E {X 2t }, e a
variância é igual ao valor rms, ou a variância representa a potência total
normalizada.
• O desvio médio padrão, X , é o valor rms da componente ac do sinal.
• Se mX = 0 , então, o desvio médio padrão, X , é o valor rms do sinal.
Densidade Espectral de Potência de um Processo Estocástico
Um processo estocástico X(t) pode normalmente ser classificado como um sinal de potência
CDI 20705 – Comunicação Digital 21/35
com densidade espectral de potência, GX f , na forma: GX f = limT∞
1T∣X T f ∣
2 .
GX f é muito útil na análise de sistemas de comunicações, porque ela descreve a distribuição
de potência do sinal no domínio da frequência.
Propriedades para um processo estocástico real:
(1) GX f ≥ 0
(2) GX f = GX − f , para X t real
(3) GX f ↔ RX
(4) P X = ∫−∞
∞
G X f df → potência média total
O que significa o termo correlação? Quando nós indagamos sobre a correlação entre dois
fenômenos, nós estamos perguntando o quão próximo eles se correspondem em comportamento
ou aparência, o quão bem eles correspondem um ao outro. Matematicamente, uma função de
autocorrelação de um sinal (no domínio do tempo) descreve a correspondência do sinal consigo
mesmo. Assim, uma cópia exata do sinal é feita e posicionada no tempo em menos infinito. Então,
nós movemos a cópia no sentido positivo, e a cada incremento, perguntamos: “Como a cópia e o
sinal se correspondem agora?”. E assim por diante.
A Figura 15-1 (a) ilustra uma forma de onda amostrada de um processo estocástico (PE)
estacionário em sentido amplo (WSS), X(t). A forma de onda é uma sequência binária aleatória
com pulsos de amplitude unitária positiva e negativa, pulsos bipolar. A duração de cada pulso é de
T segundos, e a média mX , ou valor dc da sequência aleatória é zero. A Figura 15-1 (b) ilustra a
mesma sequência deslocada de 1 segundos, sendo definida como X t−1 . Vamos assumir
que o processo é ergótico na função de autocorrelação, assim, nós podemos trabalhar com a
média temporal ao invés da média estatística para encontrar RX . O valor de RX 1 é
obtido fazendo o produto das duas sequências X t e X t−1 , e encontrando o valor
médio entre elas, usando a equação: RX = limT ∞
1T ∫
−T /2
T /2
X t . X t−.dt . O resultado
desta equação é válido para um processo ergótico apenas no limite. Embora, integrá-la sobre um
número inteiro de períodos nos dá uma boa estimativa de RX . Note que RX 1 pode ser
CDI 20705 – Comunicação Digital 22/35
obtido com um deslocamento positivo ou negativo de X t . O cálculo de RX é mostrado
na Figura 15-1 (c) usando a sequência amostrada e sua réplica deslocada conforme ilustrado
previamente também na Figura 15-1.
Figura 15-1: Exemplo de Autocorrelação e Densidade Espectral de Potência para um sinal lento.
Na Figura 15-1 (c) as áreas com linhas diagonais abaixo do produto X t X t−1 resulta
em valores positivo do produto, já a área pintada de cinza resulta em valores negativo do produto,
e as áreas pintadas de branco indica que o produto é zero. A integral de X t X t−1 sobre
vários períodos de tempo resulta em um valor de área que é definido como RX 1 da função
RX . Então, as sequências podem ser deslocadas de 2 ,3 , ... , sendo que a cada
deslocamento é produzido um novo valor de área da função RX . O resultado de RX é
mostrado na Figura 15-2 (d), onde o valor de pico ocorre para =0, RX 0. Assim, podemos
CDI 20705 – Comunicação Digital 23/35
afirmar que RX R X 0 , ∀ , e RX decresce quando ∣∣ cresce.
A expressão analítica para a função de autocorrelação, RX , é:
Figura 15-2: Continuação do exemplo de Autocorrelação e Densidade Espectral de Potência para
um sinal lento.
Note que a função de autocorrelação nos traz informação sobre a frequência; ela nos diz
algo a respeito da largura de banda do sinal. Entretanto, a função de autocorrelação é uma função
no domínio do tempo, ou seja, não existe uma componente de frequência associada a ela. Então,
como esta função nos dá informação sobre a largura de banda do sinal?
Considere que é um sinal muito lento (pequena largura de banda). Como foi mostrado nas
figuras 15-1 e 15-2, para cada passo de é feita a pergunta: “O quão boa é a correlação entre a
amostra original e a sua cópia?”, e a correlação será boa por um instante. Ou seja, o formato
triangular da função de autocorrelação vai desacelerar gradualmente com . Mas se o sinal for
rápido (grande largura de banda) é possível que em um pequeno deslocamento de resulta na
correlação das funções. Neste caso, a função de autocorrelação terá uma aparência muito
íngreme. Logo, o formato da função de autocorrelação nos diz algo a respeito da largura de banda
CDI 20705 – Comunicação Digital 24/35
do sinal. Assim, se a função for íngreme, trata-se de um sinal com grande largura de banda. Por
outro lado, se a rampa desacelera gentilmente, então, é um sinal com uma pequena largura de
banda. As Figuras 15-1 e 15-2 ilustram o caso do sinal lento e as Figuras 15-3 e 15-4 ilustram o caso
de um sinal com grande largura de banda.
Figura 15-3: Exemplo de Autocorrelação e Densidade Espectral de Potência para um sinal rápido.
A função de autocorrelação nos permite expressar a densidade espectral de potência (PSD)
do sinal aleatório diretamente. Pois, a PSD e a função de autocorrelação são relacionadas pela
Transformada de Fourier. A PSD, GX f , da função de autocorrelação definida na Figura 15-2 (d)
é:
CDI 20705 – Comunicação Digital 25/35
GX f = T sen fT fT
2
= T sinc2 fT , onde sincx =sen x x
A PSD está ilustrada na Figura 15-2 (e) e na Figura 15-4 (j).
Figura 15-4: Continuação do exemplo de Autocorrelação e Densidade Espectral de Potência para
um sinal rápido.
Note que a área da função PSD representa a potência média do sinal. Uma medida
conveniente para a largura de banda do sinal é medir o espectro do lóbulo principal. Note também
que a largura de banda do sinal está inversamente relacionada a duração do símbolo ou largura do
pulso, como pode ser visto nas figuras 15-1 até 15-4. Assim, para um pulso de curta duração (taxa
de bit elevada) vai ter uma grande largura de banda.
• T pequeno → sinal tem uma faixa de frequência larga
• T grande → sinal tem uma largura de banda estreita
4. Ruído em Sistemas de Comunicação
O ruído se refere a um sinal elétrico indesejado que está sempre presente em sistemas
elétricos. A presença do ruído sobreposto ao sinal tende a mascarar o sinal, limitando o receptor
CDI 20705 – Comunicação Digital 26/35
em tomar a decisão correta sobre o símbolo transmitido, e assim, limita a taxa de informação
transmitida. O ruído surge a partir de uma variedade de fontes, como por exemplo: radiações
eletromagnéticas, variações de temperatura, etc.
Existe um tipo de ruído que não pode se consegue eliminar, ele é chamado de ruído
térmico. Este ruído é causado pela movimentação térmica dos elétrons em todos os componentes
dissipativos, tais como: resistores, cabos, etc. Os mesmos elétrons que são responsáveis pela
condução elétrica do sinal, também são os responsáveis pelo ruído térmico.
O ruído térmico pode ser descrito pelo processo estocástico Gaussiano com média zero. O
processo estocástico n(t), para qualquer instante t é uma variável aleatória Gaussiana com função
densidade de probabilidade (PDF):
p (n) = 1σ √2π
exp(− n2
2σ2 )
onde 2 é a variância de n, dada por: 2 = ∫−∞
∞
n2 pn ndn
A PDF do ruído Gaussiano normalizado com média nula é obtido assumindo uma variância
unitária. Esta PDF normalizada pode ser visualizada na Figura 17.
A Figura 16 ilustra a informação recebida após passar pelo canal de comunicação.
Figura 16: Sinal após passar pelo canal.
Assim, podemos determinar a média e a variância do sinal recebido, z.
E {z} = E {a+ n } = E {a }+ E {n }, mas como o ruído possui média nula, E {n} = 0
E {z} = E {a} = a , ou seja, o valor médio de z é o próprio sinal de informação.
E {(z−a)2} = E {[(a+ n)−a ]2} = E {n2} = σn2 = σz2
Logo, a PDF do sinal recebido, z, é dada por:
CDI 20705 – Comunicação Digital 27/35
p (z ) = 1σz√2π
exp(−(z−a )2
2σz2 )
Neste caso, a PDF ilustrada na Figura 17, está deslocada de a, ou seja, o valor de pico ocorre
quando z = a.
Figura 17: PDF do ruído Gaussiano normalizado.
Ruído Branco
Um modelo simplificado do ruído apresenta uma densidade espectral de potência (
G n( f ) ) plana para todas as frequências. Na pratica vai até a faixa de terahertz (1012 Hz).
G n( f ) =N 0
2[Watts /Hz]
O fator 2 na divisão de G n( f ) indica a PSD de dois lóbulos, ou dois lados. Assim, se uma
largura de banda B for alocada para as frequências positivas, terá uma banda B alocada também
nas frequências negativas.
Como as funções de autocorrelação e densidade espectral de potência estão relacionadas
pela Transformada de Fourier, podemos definir a função de autocorrelação para o ruído Gaussiano
CDI 20705 – Comunicação Digital 28/35
branco:
Rn( τ ) =N 0
2δ(τ )
As funções de densidade espectral de potência e de autocorrelação são apresentadas na
Figura 18.
Figura 18: (a) Densidade espectral de potência do ruído branco; (b) autocorrelação do ruído
branco.
Note que a potência média é infinita porque a largura de banda é infinita.
Pn = ∫−∞
∞ N 0
2df = ∞
Como fica a função de autocorrelação do ruído para uma dada largura de banda B?
Rn( τ ) = ∫BGn( f )df =
N 0
22B = N 0B
Embora a abstração do ruído branco seja muito útil, nenhum processo com ruído consegue
ser verdadeiramente branco. Entretanto, o ruído encontrado em muitos sistemas reais podem
assumir para serem aproximadamente branco, simplificando a análise. Para isso, basta observar o
ruído após este passar por um sistema real com largura de banda finita. Então, quanto maior for a
largura de banda do ruído, sendo muito maior do que a largura de banda do sistema, o ruído pode
ser considerado ter uma largura de banda infinita.
Na função de autocorrelação do ruído branco, a função delta que expressa que o ruído, n(t),
é totalmente descorrelacionado da sua cópia deslocada no tempo para qualquer τ> 0. Como
essas amostras são variáveis aleatórias (v.a.) podemos fazer as seguintes afirmações:
CDI 20705 – Comunicação Digital 29/35
• v.a. descorrelacionadas → v.a. independentes
• v.a. Gaussianas descorrelacionadas → v.a. Gaussianas independentes
• O ruído afeta cada símbolo transmitido independentemente → canal sem memória
• Usamos a sigla AWGN (Additive White Gaussian Noise).
5. Transmissão de Sinais e Processos Estocásticos através de Sistemas Lineares
Um sistema linear pode ser igualmente caracterizado tanto no domínio do tempo quanto
no domínio da frequência. O sinal de entrada, mostrado na Figura 19, pode descrito tanto no
domínio do tempo, x(t), como no domínio da frequência, X(f), tendo como sinal de saída,
respectivamente, y(t) e Y(f). O sistema linear é definido no domínio do tempo como a resposta ao
impulso, h(t); e no domínio da frequência é chamado de função de transferência, H(f). O sistema
além de ser linear, também é invariante no tempo.
Figura 19: Sistema linear considerando um sinal qualquer na entrada.
h(t) → resposta ao impulso
H(f) → função de transferência
y t = x t ∗ht = ∫−∞
∞
x ht−d
Y f = X f H f
H f =Y f X f
CDI 20705 – Comunicação Digital 30/35
Figura 20: (a) Sinal de entrada x(t) igual a função impulso; (b) sinal de saída y(t) é a resposta ao
impulso do sistema h(t).
Figura 21: Sistema linear de um processo estocástico.
Se um processo estocástico está na entrada de um sistema linear invariante no tempo, a
saída também será um processo estocástico, como ilustra a Figura 21. Logo, para cada função
amostra na entrada terá uma função amostra na saída. A densidade espectral de potência na
entrada GX f e a densidade espectral de potência na saída GY f são relacionada da
seguinte forma:
RX = E {x t x t−}
RY = E {y t y t−} = E {x t ∗h t x t−∗h t }
RY = RX ∗ht ∗conj h t = R X ∗ht ∗h −t
GY f = GX f H f conj H f
GY f = GX f ∣H f ∣2
Propriedade: Se x(t) for um processo estocástico (PE) Gaussiano, então y(t) também será
um PE Gaussiano. E se a média na entrada for zero, também será na saída.
CDI 20705 – Comunicação Digital 31/35
6. Canal de Comunicação Ideal (sem distorção)
O sinal de saída de uma transmissão por um canal ideal pode apresentar um certo atraso
comparado com o sinal de entrada, e também, uma amplitude diferente com relação à entrada,
sendo apenas uma mudança de escala. Mas de forma alguma deve apresentar distorção, ou seja, o
sinal de saída deve manter a mesma forma que o sinal de entrada. Assim, a saída pode ser descrita
da seguinte forma:
y t = K x t−t 0
onde K e t0 são constantes. Realizando a Transformada de Fourier em ambos os lados, temos:
Y f = K X f e− j2 ft0
Substituindo Y(f) em H f =Y f X f
, a função de transferência de um canal ideal pode
ser definida como:
H f =K X f e− j2 ft0
X f = K e− j2 ft0
Para alcançar uma transmissão ideal sem distorção a resposta sobre todo o sistema deve
ser uma resposta de magnitude constante e o deslocamento de fase deve ser linear com a
frequência. Assim, não é suficiente o sistema amplificar ou atenuar todas as componentes de
frequência igualmente. Mas todas as componentes de frequência devem também chegar ao
mesmo tempo, ou seja, com o mesmo atraso. Tendo em vista que o deslocamento de atraso do
sinal, t0, está relacionada a um deslocamento de fase e da frequência angular, w = 2 f , logo:
t 0 = [radianos ]
2 f [ radianossegundo
][ segundo]
A resposta em frequência de um canal ideal é mostrada na Figura 22.
É claro que o deslocamento de fase deve ser proporcional a frequência para que o atraso de
todas as componentes do sinal seja o mesmo. Uma característica normalmente utilizada para
medir a distorção de atraso de um sinal é chamado de atraso de grupo, que é definido como:
f = − 12
d f df
CDI 20705 – Comunicação Digital 32/35
Figura 22: Resposta em frequência de um canal ideal.
Figura 23: (a) Filtro ideal passa-banda; (b) filtro ideal passa-baixa; (c) filtro ideal passa-alta.
CDI 20705 – Comunicação Digital 33/35
Logo, para um canal de comunicação sem distorção (ideal), uma forma de caracterizar a
fase para ser linear com a frequência é caracterizar o atraso de grupo para ser constante.
Na prática, um sinal será distorcido ao passar por algumas partes do circuito, assim,
correções de fase e de amplitude são introduzidas, equalização, para corrigir as distorções
impostas ao sinal.
Infelizmente um sistema com canal de comunicação ideal não é realizável, devido a função
de transferência do canal, H f = K e− j2 ft0 = ∣H f ∣e− j f , necessitar de uma função de
transferência infinita. Uma aproximação de um canal ideal, com largura de banda infinita, é truncar
a banda entre fl e fu de forma que todas as componentes de frequência entre estas passem sem
distorção. Sendo fl a frequência de corte mais baixa e fu a frequência de corte mais alta. Esta
técnica implementamos o filtro ideal, como é ilustrado na Figura 23 os filtros ideiais passa-bada,
passa-baixa e passa-alta.
A resposta ao impulso de um filtro ideal passa-baixa, ilustrado na Figura 24 é:
h t = ∫−∞
∞
H f e j2 ft df = ∫− f u
f u
H f e j2 ft df
onde:
H f = ∣H f ∣e− j f ,
∣H f ∣ = 1 para∣ f ∣ f u , e = 0 para o resto
e− j f = e− j2 ft0
Assim:
h t = ∫− f u
f u
e− j2 ft0 e j2 ft df = ∫− f u
f u
e j2 f t−t 0df
h t = 2f usen 2 f ut−t 0
2 f ut−t 0= 2f u sinc2f ut−t 0
A resposta ao impulso é não causal, o que significa que a saída é zero antes de ser aplicado
qualquer valor na entrada no instante t = 0.
Deve ficar claro, que o filtro ideal não é realizável.
CDI 20705 – Comunicação Digital 34/35
Figura 24: Resposta ao impulso de um filtro ideal passa-baixa.
Qual efeito de um filtro ideal em um ruído branco? Seja um ruído branco com densidade
espectral de potência G n f =N 0
2na entrada de um filtro ideal passa-baixa. A densidade
espectral de potência e a função de autocorrelação na saída deste filtro são:
GY f = G n f ∣H f ∣2
GY f = 2 para ∣ f ∣ f u , e zero para o restante
RY = N 0 f usen 2 f u
2 f u= N 0 f u sinc 2 f u
Note que RY tem o mesmo formato que a resposta ao impulso do filtro ideal, h(t). O
filtro ideal passa-baixa a função de autocorrelação do ruído branco, definida como a função delta,
em uma função sinc. Após o filtro, não teremos mais ruído branco. O sinal de ruído na saída terá
correlação zero com as suas cópias deslocadas, apenas para os deslocamentos de = n/2f u ,
sendo n um valor inteiro qualquer diferente de zero.
CDI 20705 – Comunicação Digital 35/35