Manual redes conceitos

36

Click here to load reader

Transcript of Manual redes conceitos

Page 1: Manual redes conceitos

REDES DE

COMPUTADORES

- TEORIA -

CLASSIFICAÇÕES

O universo das redes é composto por inúmeros acrônimos. Os acrônimos mais comuns usados para

definir o tamanho de uma rede são:

LAN (Local Area Network): Rede Local.

MAN (Metropolitan Area Network): Redes Metropolitanas.

WAN (Wide Area Network): Redes geograficamente distribuídas.

Outros termos existentes:

Internet: Rede mundial de computadores.

Page 2: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

2

Intranet: Rede local que usa a mesma estrutura da Internet para o acesso de dados na rede.

Extranet: Uma intranet que permite acesso remoto, isto é, que pessoas tenham acesso a elas

através de um modem.

COMPONENTES DE UMA REDE

Até agora nos parece óbvio que uma rede local é um circuito para a conexão de computadores e

envolve, pelo menos, computadores e cabos. No desenho abaixo temos a apresentação de uma rede

simples, com apenas três micros, mas que apresenta os componentes básicos que todas as redes

possuem. Esses componentes são:

Servidor: É um micro ou dispositivo capaz de oferecer um recurso para a rede. Em redes

ponto-a-ponto não há a figura do servidor; nesse tipo de rede os micros ora funcionam como

servidores, ora como clientes.

Cliente: É um micro ou dispositivo que acessa os recursos oferecidos pela rede.

Recurso: Qualquer coisa que possa ser oferecida e usada pelos clientes da rede, como

impressoras, arquivos, unidades de disco, acesso a Internet, etc;

Protocolo: Para que todos os dispositivos de uma rede possam se entender, independente do

programa ou do fabricante dos componentes, eles precisam conversar usando uma mesma

linguagem. Essa linguagem é genericamente chamada protocolo. Dessa forma, os dados de

uma rede são trocados de acordo com um protocolo, como, por exemplo, o famoso TCP/IP.

Cabeamento: Os cabos da rede transmitem os dados que serão trocados entre os diversos

dispositivos que compõem uma rede.

Placa de rede: A placa de rede, também chamada NIC (Network Interface Card), permite que

PCs consigam ser conectados em rede, já que internamente os PCs usam um sistema de

comunicação totalmente diferente do utilizado em redes. A comunicação na placa mãe de

um PC é feita no formato paralelo (onde todos os bits contendo informações são transmitidos

de uma só vez), enquanto que a comunicação em uma rede é feita no formato serial (é

transmitido um bit por vez, apenas).

Hardware de rede: Eventualmente poderá ser necessário o uso de periféricos para efetuar ou

melhorar a comunicação da rede.

TRANSMISSÃO DE DADOS

Para que possamos nos aprofundar no universo das redes locais, precisamos entender um pouco

melhor como as redes funcionam. Como as redes foram criadas basicamente com um único

propósito – a transmissão de dados - vamos ver um pouco mais sobre este assunto.

MODOS

Page 3: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

3

Eletronicamente falando, existem três tipos de transmissão de dados:

Simplex: Nesse tipo de transmissão de dados, um dispositivo é o transmissor (também

chamado Tx) e outro dispositivo é o receptor (também chamado Rx), sendo que esse papel

não se inverte, isto é, o dispositivo A é sempre o transmissor e o B é sempre o receptor. A

transmissão de dados simplex é, portanto, unidirecional. Exemplo de transmissão simplex:

comunicação entre duas pessoas com uma lanterna usando o Código Morse, supondo que o

receptor não tenha como responder à mensagem enviada.

Half-duplex: Esse tipo de transmissão de dados é bidirecional mas, por compartilharem um

mesmo canal de comunicação, não é possível transmitir e receber dados ao mesmo tempo.

Exemplo de transmissão half-duplex: comunicação usando um walkie-talkie (as duas

pessoas podem conversar, mas só uma de cada vez). Tradicionalmente a comunicação em

redes é do tipo half-duplex.

Full-duplex: É a verdadeira comunicação bidirecional. A e B podem transmitir e receber

dados ao mesmo tempo. Exemplo de transmissão full-duplex: o aparelho telefônico.

Tradicionalmente em redes a comunicação full-duplex não é tão usual, sendo recomendada

para dispositivos que necessitem de alto desempenho, como servidores de arquivo. Como as

placas de rede que permitem esse tipo de comunicação estão ficando cada vez mais baratas,

está cada vez mais comum encontrarmos hoje em dia redes que só usam esse tipo de

comunicação, aumentando o desempenho da rede.

INFORMAÇÃO ANALÓGICA VS. DIGITAL

No mundo real, as informações são analógicas, isto é, podem assumir qualquer valor ao longo do

tempo. O som e a luz são bons exemplos de sinais analógicos. Ao entrar em um quarto, você sabe

se ele está mais claro ou escuro do que o aposento onde você se encontrava anteriormente, e pode

até mesmo dizer o quanto. O mesmo ocorre com o som, você é capaz de saber se um som é mais

alto ou mais baixo do que outro e quantificar essa diferença, nem que seja de uma maneira simples.

No desenho abaixo mostramos o exemplo de uma informação analógica.

A grande vantagem da informação analógica - que é poder representar qualquer valor - é também

a sua grande desvantagem. Como o receptor é também analógico e o sinal analógico pode assumir

qualquer valor ao longo do tempo, o receptor não tem como verificar se o sinal recebido está correto

ou não. Com isso, se houver qualquer ruído no caminho - como uma interferência eletromagnética

no cabo, por exemplo - e a informação for alterada, o receptor é obrigado a aceitar a informação

corrompida como sendo correta, pois ele não tem como verificar se a informação está ou não

correta.

Como existem inúmeras fontes de interferência eletromagnética - incluindo aí outros fios que

estejam ao lado do fio que esteja transmitindo a informação -, o uso de informações analógicas é

inviável em sistemas de computadores.

Os computadores usam um sistema de informações digital, onde somente são possíveis dois

valores: O e 1. Apesar de só poder representar dois valores - ao contrário do sistema analógico, que

Page 4: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

4

pode representar infinitos valores -, o receptor pode simplesmente descartar qualquer valor

diferente de 0 e de 1 que receba. Assim, caso o dado seja corrompido no meio do caminho por

causa de um ruído qualquer, o receptor tem como recusar o seu recebimento caso ele seja um valor

diferente de 0 ou de 1. Fisicamente falando o 0 e o 1 são tensões elétricas, tradicionalmente de 0

volt e 5 volts, respectivamente.

Por exemplo, quando você está mandando um e-mail, apesar de a mensagem conter caracteres e até

mesmo fotos, essas informações são transmitidas pelos cabos da rede em forma de números: uma

seqüência de 0s e 1s. O computador receptor trata de pegar esses números e transformá-los

novamente em dados compreensíveis por nós (essa conversão é feita pelo protocolo da rede).

Como os dados transmitidos são na realidade números, o dispositivo receptor pode usar

mecanismos de correção de erro para verificar se o dado está correto ou não.

MODULAÇÃO

Esses números digitais, por sua vez, são transmitidos em forma de impulsos elétricos, ópticos ou

ondas de rádio, dependendo do meio usado na conexão dos computadores (cabos elétricos, fibras

ópticas, transmissão via rádio, etc). Eventualmente os sinais digitais manipulados pelo computador

necessitam ser transformados em sinais analógicos para serem transmitidos pelo meio de

transmissão, como mostra a o desenho abaixo. Esse método é conhecido como modulação de dados.

Ao contrário de uma transmissão analógica "pura", essa transmissão analógica estará enviando,

através de sinais analógicos, dados que originalmente são digitais. Com isso, o receptor, após os

dados terem sido demodulados, poderá verificar se os dados que acabou de receber estão ou não

corrompidos, pedindo uma retransmissão caso eles tenham sido corrompidos no caminho.

A maioria dos usuários usa esse tipo de transmissão em seu computador através de um dispositivo

chamado modem, que justamente significa MOdulador/DEModulador, responsável pela

transmissão de dados digitais através da linha telefônica (que é um canal analógico, originalmente

projetado para transmitir voz).

NÚMEROS BINÁRIOS

Como vimos, as informações digitais só podem assumir dois valores: 0 e 1. Esse tipo de número é

também chamado número binário e cada algarismo binário é chamado bit (contração de Binary

digIT).

Page 5: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

5

Como os números binários só possuem dois algarismos (0 e 1), sua representação é feita na base 2

(os números que nós normalmente usamos são chamados decimais e são representados na base

10).

As palavras binárias recebem um nome especial conforme a sua quantidade de bits. Por exemplo,

um número de 8 bits é também chamado byte. Assim, quando falamos "transmissão de um byte"

equivale a dizer 'transmissão de oito bits", isto é, a transmissão de uma seqüência de oito zeros e

uns.

TRANSMISSÃO EM SÉRIE VS. TRANSMISSÃO PARALELA

Dentro do computador, o tipo de transmissão mais usual é chamada paralela. Neste tipo de

transmissão, o transmissor envia todos os bits de dados que ele é capaz de transmitir de uma só vez

para o receptor. Tanto o transmissor como o receptor têm de ser capazes de "falar" a uma mesma

quantidade de bits para que a transmissão possa ser feita. Neste exemplo, o transmissor e o receptor

trabalham a oito bits por vez (comunicação paralela de oito bits) e o transmissor está enviando o

dado 10101110 ao receptor.

Fisicamente falando, é necessário um fio para transmitir cada bit de dados. Assim, na transmissão

paralela, são necessários oito fios ligando o circuito transmissor ao circuito receptor para que esse

esquema funcione. Urna transmissão paralela de 32 bits necessitará de 32 fios, por exemplo.

Por conta disso, fora do computador a transmissão paralela é usada somente por dispositivos com

cabo curto - ela é usada na porta paralela, que liga o micro à impressora e outros dispositivos que

podem ser conectados a essa porta. Os dispositivos externos ao micro que necessitem de cabos

longos - como o teclado, o mouse, a porta USB e, principalmente, as redes - usam um outro tipo de

comunicação chamada em série. Na comunicação em série, é necessário somente um fio para

transmitir os dados. Os bits são transmitidos um a um.

A transmissão em série é mais lenta do que a transmissão em paralela. Você perceberá que a

transmissão em série será oito vezes mais lenta que a comunicação em paralela (valor válido

somente para o exemplo dado). Na transmissão paralela, o transmissor enviou para o receptor os

oito bits de dados de uma só vez, enquanto na transmissão em série, ele precisou enviar um bit de

cada vez.

Apesar de lenta, a comunicação em série tem como vantagem o limite de comprimento do cabo ser

maior e também a grande vantagem de somente usar um canal de transmissão (um fio). Imagine

uma comunicação em paralelo de oito bits ligando duas cidades: seriam necessários, pelo menos,

oito fios.

Dessa forma, é por esse motivo que as redes locais usam comunicação do tipo em série.

A unidade de medida de velocidade de comunicações em série é o bps (bits por segundo), que é o

número de bits por segundo que o transmissor consegue enviar para o receptor.

Page 6: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

6

CABO PAR TRANÇADO – FUNDAMENTOS

O par trançado é o tipo de cabo de rede mais usado atualmente. Existem basicamente dois tipos de

cabo par trançado: sem blindagem, também chamado UTP (Unshielded Twisted Pair), e com

blindagem, também chamado STP (Shielded Twisted Pair). A diferença entre eles é justamente a

existência, no par trançado com blindagem, de uma malha em volta do cabo protegendo-o contra

interferências eletromagnéticas.

O par trançado mais popular é o par trançado sem blindagem. Esse tipo de cabo utiliza um conector

chamado RJ-45. A maioria das redes hoje em dia utiliza esse sistema de cabeamento.

Na realidade, o par trançado sem blindagem possui uma ótima proteção contra ruídos, só que

usando uma técnica chamada cancelamento e não através de uma blindagem. Através dessa técnica,

as informações circulam repetidas em dois fios, sendo que no segundo fio a informação possui a

sua polaridade invertida.

Todo fio produz um campo eletromagnético ao seu redor quando um dado é transmitido. Se esse

campo for forte o suficiente, ele irá corromper os dados que estejam circulando no fio ao lado (isto

é, gera ruído). Em inglês esse problema é conhecido como cross-talk.

A direção desse campo eletromagnético depende do sentido da corrente que está circulando no fio,

isto é, se é positiva ou então negativa. No esquema usado pelo par trançado, como cada par

transmite a mesma informação só que com a polaridade invertida, cada fio gera um campo

eletromagnético de mesma intensidade mas em sentido contrário. Com isso, o campo

eletromagnético gerado por um dos fios é anulado pelo campo eletromagnético gerado pelo outro

fio. Além disso, como a informação é transmitida duplicada.

Esses dois fios são enrolados um no outro, o que aumenta a força dessa proteção eletromagnética.

Por isso esse tipo de cabo é chamado par trançado. Os fios são agrupados de dois em dois e

enrolados.

O par trançado tradicional utiliza dois pares, um para a transmissão de dados (TD) e outro para

a recepção de dados (RD). Como utilizam canais separados para a transmissão e para a recepção, é

possível utilizar a comunicação full-duplex com esse tipo de cabo. No cabo par trançado tradicional

existem quatro pares de fio. Dois deles não são utilizados.

A principal vantagem do par trançado, além do seu preço, é a sua flexibilidade de instalação.

Juntamente com o par trançado surgiu o conceito de cabeamento estruturado, que nada mais é que

um sistema de organização do cabeamento da rede utilizado em redes que possuam muitos micros.

O cabeamento estruturado inclui tomadas de rede, racks e armários.

Sua principal desvantagem é o limite do comprimento do cabo (100 metros por trecho) e da baixa

imunidade contra interferências eletromagnéticas. Mas na maioria dos casos do dia-a-dia esses dois

fatores não são tão importantes. Em um escritório ou mesmo em um prédio comercial raramente a

distância entre um micro e o concentrador (também chamado hub) é maior que 100 metros. E a

interferência eletromagnética realmente só será preocupante em ambientes industriais, onde

existam muitos motores, geradores, etc. (neste caso a fibra óptica é recomendada).

Page 7: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

7

A taxa de transferência máxima padrão do par trançado é de 10 Mbps, a mesma velocidade

máxima do cabo coaxial. Esse tipo de cabo é chamado 10BaseT (10 Mbps, transmissão uni-canal,

par trançado). Atualmente o par trançado opera a 100 Mbps e é chamado 100BaseT. Existe ainda

o par trançado operando a 1.000 Mbps, chamado 1000BaseT ou Gigabit Ethernet.

O par trançado possui um limite de dois dispositivos por cabo.

CABO PAR TRANÇADO – TOPOLOGIA

Redes usando o par trançado são fisicamente instaladas utilizando uma topologia chamada

estrela. Nesta topologia, existe um dispositivo concentrador, chamado hub, fazendo a conexão entre

os computadores. Isso resolve o limite de dois dispositivos por cabo do par trançado.

A grande vantagem dessa topologia é que, caso um cabo se parta, somente o micro conectado

àquele cabo perde comunicação com a rede: o restante da rede continua funcionando. O cabo

coaxial utiliza uma topologia chamada linear, onde todos os micros compartilham um mesmo cabo

e, com isso, caso o cabo se parta, todos os micros perdem a conexão com a rede.

Apesar de fisicamente a topologia utilizada pelo par trançado ser em estrela, logicamente ela

continua sendo uma topologia linear. Isto é, quando um dado é enviado para a rede, todas as

máquinas recebem aquele dado. Enquanto um micro estiver se comunicando nenhum outro pode

utilizar a rede, pois o cabeamento estará ocupado.

A vantagem de se utilizar um hub, isto é, urna rede com topologia em estrela, está na flexibilidade

dessa instalação. A adição de novas máquinas na rede não pára a rede como ocorre com o cabo

coaxial e caso haja problemas com o cabo, somente a máquina conectada ao cabo problemático

perde a conexão com a rede, facilitando, inclusive, a identificação do cabo defeituoso. Outra

vantagem dessa topologia é o uso do cabeamento estruturado.

PAR TRANÇADO SEM BLINDAGEM (UTP)

O par trançado sem blindagem é o tipo de cabo mais usado por redes atualmente. Ele também é

chamado UTP, Unshielded Twisted Pair. A EIA/TIA (Electronic Industries

Alliance/Telecommunications Industry Association), órgão norte-americano responsável pela

padronização de sistemas de telecomunicações, padronizou os cabos do tipo par trançado em uma

norma chamada 568. Nessa norma, os cabos são classificados em categorias, de 1 a 5.

Os cabos de categoria 1 e 2 são usados por sistemas de telefonia, enquanto os cabos de categoria 3,

4 e 5 são usados por redes locais:

Categoria 3: Permite comunicações até 16 Mbps. É utilizado por redes 10BaseT, isto é, por redes

utilizando par trançado operando a 10 Mbps. É também utilizado em redes Token Ring.

Categoria 4: Permite comunicações até 20 Mbps.

Page 8: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

8

Categoria 5: Permite comunicações, até 100 Mbps. É o tipo de cabo par trançado mais usado

hoje em dia. Possui uma impedância de 100 Ω e é utilizado por redes 100BaseT. Também é

utilizado em redes 1000BaseT.

Dessa forma, atualmente quando dizemos 'par trançado' está implícito o uso de cabo categoria

5, que é o tipo de cabo mais usado atualmente.

PINAGEM

O par trançado padrão utiliza apenas dois pares de fio, um para a transmissão de dados e outro para

a recepção de dados. Acontece que o cabo par trançado possui quatro pares de fios. Portanto, dois

não são utilizados. O par trançado sem blindagem utiliza em suas extremidades um conector

chamado RJ-45, que possui oito contatos (já que o cabo par trançado possui oito fios).

Para a correta identificação dos pares dentro do cabo, os pares são coloridos: verde, laranja,

marrom e azul. Um dos fios dos pares é totalmente colorido e o outro é branco com uma faixa

colorida. Por exemplo, no par verde, um dos fios é totalmente verde e o outro é branco com

pequenas faixas verdes.

O par trançado possui um limite de dois dispositivos por cabo; ele é sempre usado com dois

plugues RJ-45, cada um conectado em uma das pontas do cabo. Os cabos par trançado normalmente

utilizam um esquema de ligação chamado pino-a-pino. Neste esquema, o pino 1 do primeiro plugue

é ligado ao pino 1 do segundo plugue, o pino 2 é ligado ao pino 2 e assim sucessivamente até o

oitavo pino.

Tudo seria muito simples se não houvesse diversas maneiras de se colocar os fios em ordem no

conector RJ-45. Em princípio, basta ligar, o pino 1 do primeiro conector ao pino 1 do segundo

conector, o pino 2 do primeiro conector ao pino 2 do segundo e assim por diante para montar um

cabo par trançado.

O problema todo é a falta de padronização. Por exemplo, você poderia usar o fio laranja para

conectar o primeiro pino, outro técnico poderia utilizar o fio verde, enfim, cada técnico ao redor do

mundo iria utilizar o seu próprio padrão de fiação. Na hora de fazer a manutenção de uma rede,

ficaria difícil adivinhar qual foi a ordem dos fios que o técnico usou na montagem do cabo.

O sistema de cabeamento 10BaseT original utiliza o seguinte padrão:

Pino Cor Função

1 Branco com verde +TD

2 Verde -TD

3 Branco com laranja +RD

Page 9: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

9

4 Azul Não usado

5 Branco com azul Não usado

6 Laranja -RD

7 Branco com marrom Não usado

8 Marrom Não usado

Esse esquema de fiação é derivado do padrão T568A do TIA/EIA, que é o padrão preferido na

ligação dos fios do cabo par trançado no plugue RJ-45.

MONTANDO CABOS PAR TRANÇADO SEM BLINDAGEM

A montagem do cabo par trançado sem blindagem é relativamente simples. Além do cabo, você

precisará de um conector RJ-45 de pressão para cada extremidade do cabo e de um alicate de

pressão para conectores RJ-45 (também chamado de alicate de crimp).

1- Assim como ocorre com o cabo coaxial, fica muito difícil passar o cabo por conduítes e por

estruturas usadas para ocultar o cabo (por cima do rebaixamento do teto ou por baixo de um piso

elevado, por exemplo) depois que os plugues RJ-45 estão instalados. Por isso, passe o cabo

primeiro antes de instalar os plugues. O cabo par trançado é vendido em rolos de centenas de

metros, por isso corte o cabo no comprimento desejado. Lembre-se de deixar uma folga de alguns

centímetros, já que o usuário poderá mover ou alterar a posição do micro que será conectado na

rede. Além disso, você poderá errar na hora de instalar o plugue RJ-45, fazendo com que você

precise cortar alguns poucos centímetros do cabo para instalar novamente o plugue.

2- Desencape aproximadamente 2,5 cm do cabo. Remova somente a proteção externa do cabo (que

normalmente é azul), não desencape os fios. Isso pode ser feito cuidadosamente com uma

pequena tesoura (ou com um desencapador de cabo par trançado). Alguns cabos possuem um

filme plástico envolvendo os fios. Essa proteção deve também ser removida.

3- Desenrole os fios que ficaram para fora do cabo, ou seja, deixe-os “ retos” e não trançados.

4- Coloque os fios na ordem em que eles serão instalados no conector RJ-45. Os pinos do conector

RJ-45 são contados da esquerda para a direita, com os contatos virados para você e com a parte

onde o cabo entra apontado para baixo.

5- Corte os fios a 1,5 cm do invólucro do cabo utilizando um alicate de corte.

Page 10: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

10

6- Observe, no conector RJ-45, que para cada pino existe um pequeno “ tubo” onde o fio deve ser

inserido. Insira cada fio em seu “ tubo”, até que atinja o final do conector. Não é necessário

desencapar os fios.

7- Ao terminar de inserir os fios no conector RJ-45, basta inserir o conector no alicate de pressão e

pressionar o alicate. Antes disso, verifique atentamente se todos os fios realmente atingiram o

final do conector. Os pinos do conector são pequenas lâminas que desencapam os fios e, ao

mesmo tempo, fazem o contato externo. Por isso não é necessário desencapar os fios (os próprios

pinos, ao serem pressionados com o alicate, efetuam essa tarefa por você).

8- Após pressionar o alicate, remova o conector do alicate e verifique se o cabo ficou bom. Para

isso, puxe o cabo para ver se não há nenhum fio que ficou solto ou frouxo.

9- Repita o processo para a outra ponta do cabo.

CABEAMENTO ESTRUTURADO

As redes mais populares utilizam a arquitetura Ethernet usando par trançado sem blindagem

(UTP). Nessa arquitetura, há a necessidade de um dispositivo concentrador, tipicamente um hub,

para fazer a conexão entre os micros, já que o par trançado só pode ser usado para ligar dois

dispositivos.

Em redes pequenas, o cabeamento não é um ponto que atrapalhe o dia-a-dia da empresa, já que

apenas um ou dois hubs são necessários para interligar todos os micros.

Entretanto, em redes médias e grandes a quantidade de cabos e o gerenciamento dessas conexões

pode atrapalhar o dia-a-dia da empresa. A simples conexão de um novo micro na rede pode

significar horas e horas de trabalho (passando cabos e tentando achar uma porta livre em um hub).

Se a idéia for substituir equipamentos, adicionar um novo hub ou ainda alterar a disposição física

da rede, perde-se horas ou mesmo dias, e a rede sairá do ar constantemente durante esse processo.

É aí que entra o cabeamento estruturado. A idéia básica do cabeamento estruturado é fornecer

ao ambiente de trabalho um sistema de cabeamento que facilite a instalação e remoção de

equipamentos, sem muita perda de tempo, igual ao que ocorre com o sistema elétrico do prédio:

para instalar um novo equipamento elétrico, basta ter uma tomada de força disponível.

Dessa forma, o sistema mais simples de cabeamento estruturado é aquele que provê tomadas RJ-

45 para os micros da rede em vez de conectarern o hub diretamente aos micros. Em um escritório,

por exemplo, poderia haver vários pontos de rede já preparados para receber novas máquinas.

Assim, ao trocar um micro de lugar ou na instalação de um novo micro, não haveria a necessidade

de se fazer cabeamento do micro até o hub; este cabeamento já estaria feito, agilizando o dia-a-dia

da empresa.

Muitos prédios modernos já são construídos com dutos próprios para a instalação do cabeamento

de redes, inclusive com esse tipo de cabeamento estruturado já montado.

Page 11: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

11

Só que a idéia do cabeamento estruturado vai muito além disso. Além do uso de tomadas, o

sistema de cabeamento estruturado utiliza um concentrador de cabos chamado patch panel (painel

de conexões). Em vez dos cabos que vêm das tomadas conectarem-se diretamente ao hub, eles são

conectados ao patch panel. Dessa forma, o patch panel funciona como um grande concentrador de

tomadas.

CROSS-OVER

Os cabos par trançado fazem uma ligação pino-a-pino entre os dispositivos que estejam

interligando, por exemplo, a ligação de um micro a um hub. Um par de fios é usado para a

transmissão e outro par é usado para a recepção. O que acontece dentro do hub é que esse

dispositivo conecta os sinais que estão saindo das máquinas (TD) às entradas de dados das demais

máquinas (RD) e vice- versa, para que a comunicação possa ser estabelecia. Esse esquema é

chamado cross-over (cruzamento). Sem o cross-over dentro do hub a comunicação não seria

possível, já que os micros tentariam transmitir dados para a saída de dados dos demais micros, e

não para a entrada de dados, como é o correto.

Em algumas situações pode ser que tenhamos de interligar equipamentos que não façam o cross-

over internamente. Por exemplo, se você quiser montar uma rede com apenas dois micros usando

par trançado sem usar um hub (isto é, ligando os micros diretamente) o cabo pino-a-pino não

funcionará, pois com ele você ligará a saída de dados do primeiro micro à saída de dados do segundo

micro (e não à entrada de dados, como seria o correto). Nesse tipo de situação, você precisa utilizar

um cabo cross-over, que faz o cruzamento externamente, no cabo.

Outro uso bastante comum do cabo cross-over é na ligação de dois hubs. Se você ligar dois hubs

usando portas convencionais, que já façam o cross-over, um cabo pino-a-pino irá anular o

cruzamento, e os sinais de transmissão do primeiro hub serão ligados aos sinais de transmissão do

segundo hub, e não às entradas de recepção, como é o correto.

A seguir vemos a correta ligação de dois hubs usando portas com cross-over interno, utilizando,

para isso, um cabo cross-over.

O cabo cross-over, ao contrário do cabo pino-a-pino, interliga a saída de dados do primeiro micro

à entrada de dados do segundo e vice-versa. A pinagem desse tipo de cabo para redes 10BaseT é

mostrada na tabela a seguir.

REPETIDORES

O repetidor é um dispositivo responsável por ampliar o tamanho máximo do cabeamento da rede.

Ele funciona como um amplificador de sinais, regenerando os sinais recebidos e transmitindo esses

sinais para outro segmento da rede.

Abaixo temos dois segmentos de rede Ethernet em topologia linear usando cabo coaxial fino.

Cada segmento pode ter até 185 metros de extensão (limite do cabo coaxial fino). Com o uso do

repetidor, podemos interligar vários segmentos em uma única rede, ampliando o comprimento

Page 12: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

12

máximo possível da rede. Na ligação entre dois repetidores, pode ou não haver máquinas instaladas.

O comprimento máximo da rede foi ampliado para 555 metros, caso estejamos também utilizando

o cabo coaxial fino na ligação entre os dois repetidores.

Como o nome sugere, ele repete as informações recebidas em sua porta de entrada na sua porta de

saída. Isso significa que, no segmento 1 da rede apresentada acima, quando a máquina A envia

dados para a máquina B, não só todo o segmento 1 recebe esses dados ao mesmo tempo, mas

também o segmento 3.

O repetidor é um elemento que não analisa os quadros de dados para verificar para qual segmento

o quadro é destinado. Assim, ele realmente funciona como um "extensor" do cabeamento da rede.

É como se todos os dois segmentos de rede apresentados estivessem fisicamente instalados no

mesmo segmento.

Apesar de aumentar o comprimento do cabo da rede, o repetidor traz como desvantagem diminuir

o desempenho da rede. Isso ocorre porque, como existirão mais máquinas na rede, as chances de o

cabeamento estar livre para o envio de um dado serão menores. E quando o cabeamento está livre,

as chances de uma colisão serão maiores, já que teremos mais máquinas na rede.

HUBS

Os hubs são dispositivos concentradores, responsáveis por centralizar a distribuição dos quadros

de dados em redes fisicamente ligadas em estrela.

Todo hub é um repetidor. Ele é responsável por replicar em todas as suas portas as informações

recebidas pelas máquinas da rede.

O hub não possui a capacidade de aumentar o desempenho da rede.

Facilidade de se identificar um cabo defeituoso.

PONTES

A ponte é um repetidor inteligente. Ela tem a capacidade de ler e analisar os quadros de dados

que estão circulando na rede. Sendo assim, ela consegue ler os campos de endereçamento MAC do

quadro de dados. Com isso, a ponte não replica para outros segmentos dados que tenham como

destino o mesmo segmento da origem.

Se o computador A transfere dados para B, todos os micros do segmento 1 recebem os dados

(mas só o micro B os captura). A ponte, por verificar que o endereço MAC de destino está presente

no segmento 1, não replica o quadro para o segmento 2.

No caso do micro A estar transferindo dados para o micro F , a ponte verifica que o endereço MAC

de destino encontra-se no segmento 2, passando, então, a funcionar como um repetidor tradicional,

replicando o quadro gerado no segmento 1 no segmento 2.

Page 13: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

13

SWITCHES

Os switches são pontes contendo várias portas. Ele envia os quadros de dados somente para a

porta de destino do quadro, ao contrário do hub, onde os quadros são transmitidos simultaneamente

para todas as portas. Com isso, esse dispositivo consegue aumentar o desempenho da rede, já que

manterá o cabeamento da rede livre.

Outra vantagem é que mais de uma comunicação pode ser estabelecida simultaneamente, desde

que as comunicações não envolvam portas de origem ou destino que já estejam sendo usadas em

outra comunicação.

Os switches conseguem enviar quadros diretamente para as portas de destino porque eles são

dispositivos que aprendem. Quando uma máquina envia um quadro para a rede através do switch,

o switch lê o campo de endereço MAC de origem do quadro e anota em uma tabela interna o

endereço MAC da placa de rede do micro que está conectado àquela porta.

No entanto, se o endereço MAC do quadro for desconhecido pelo switch, isto é, ele não sabe

qual porta deve entregar o quadro, ele gera um processo conhecido como inundação (flooding): ele

envia o quadro para todas as suas portas (menos para a porta de origem do quadro). Nesse momento

o switch opera igual a um hub.

O switch também “desaprende” um endereço MAC. Após um determinado período de tempo

sem receber qualquer quadro de um determinado endereço MAC (por exemplo, cinco minutos), o

switch elimina esse endereço de sua tabela. Isso permite que a estrutura física da rede seja alterada

e o switch mantenha a sua capacidade de aprendizado, mantendo a rede funcionando.

ROTEADORES

Roteadores são pontes que operam na camada de Rede do modelo OSI (camada 3). Essa camada

é produzida não pelos componentes físicos da rede, mas sim pelos protocolos de alto nível.

Tomando como base o protocolo mais utilizado hoje em dia, o TCP/IP, o protocolo IP é o

responsável por criar o conteúdo dessa camada.

O papel fundamental do roteador é poder escolher um caminho para o datagrama chegar até o

seu destino. Em redes grandes pode haver mais de um caminho, e o roteador é o elemento

responsável por tomar a decisão de qual caminho percorrer. Em outras palavras, o roteador é um

dispositivo responsável por interligar redes diferentes.

Abaixo temos um exemplo de uso de roteadores. Há dois caminhos para conectar um micro da

rede 1 com um micro da rede 5: através do roteador 2 ou através do roteador 4.

Page 14: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

14

Os roteadores podem decidir qual caminho tomar através de dois critérios, que: o caminho mais

curto (que, nesse exemplo, é o caminho do roteador 4) ou o caminho mais descongestionado (que

não podemos determinar nesse exemplo; se o caminho do roteador 4 estiver congestionado, o

caminho do roteador 2, apesar de mais longo, pode acabar sendo mais rápido).

A grande diferença entre uma ponte e um roteador é que o endereçamento que a ponte utiliza é

o endereçamento usado na camada de Link de Dados do modelo OSI, ou seja, o endereçamento

MAC das placas de rede, que é um endereçamento físico. O roteador, por operar na camada de

Rede, usa o sistema de endereçamento dessa camada, que é um endereçamento lógico. No caso do

TCP/IP, esse endereçamento é o endereço IP.

Em redes grandes - e a Internet é o melhor exemplo - é praticamente impossível para uma ponte

saber os endereços MAC de todas as placas de rede existentes na rede. Quando uma ponte não sabe

um endereço MAC, ela usa a técnica de inundação, isto é, ela envia o pacote de dados para todas

as suas portas. Imagine se na Internet cada roteador enviasse para todas as suas portas uma

inundação toda vez que ele não soubesse um endereço MAC! A Internet simplesmente não

funcionaria, por causa do excesso de inundações!

A vantagem do uso de endereços lógicos em redes grandes é que eles são mais fáceis de serem

organizados hierarquicamente, isto é, de uma forma padronizada. Mesmo que um roteador não

saiba onde está fisicamente localizada uma máquina que possua um determinado endereço, ele

envia o pacote de dados para um outro roteador que tenha probabilidade de saber onde esse pacote

deve ser entregue (roteador hierarquicamente superior). Esse processo continua até o pacote atingir

a rede de destino, onde o pacote atingirá a máquina de destino.

Outra vantagem é que no caso da troca do endereço físico de uma máquina na rede - por exemplo,

a troca de uma placa de rede defeituosa - isso não faz com que o endereço lógico dessa máquina

seja alterado.

Outro ponto importante é que os roteadores, por operarem na camada de Rede do modelo OSI,

são capazes de fragmentar os datagramas recebidos. Com isso, esse dispositivo é capaz de interligar

duas redes que possuam arquiteturas diferentes (por exemplo, conectar uma rede Token Ring a uma

rede Ethernet, uma rede Ethernet a uma rede X.25, etc.).

É importante notar que o papel do roteador é interligar redes diferentes (redes

independentes), enquanto o papel de repetidores, hubs, pontes e switches é de interligar

segmentos pertencentes a uma mesma rede.

PROTOCOLOS

Um dos assuntos mais importantes em relação a redes locais é protocolos. São os protocolos que

definem como a rede irá funcionar de verdade, pois são eles que definem como os dados enviados

por programas serão transferidos pela rede. Portanto, para entendermos como as redes locais

funcionam, devemos dominar com clareza esse assunto.

Page 15: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

15

CONCEITOS BÁSICOS

Protocolo é a "linguagem" usada pelos dispositivos de uma rede de modo que eles consigam se

entender, isto é, trocar informações entre si. Para que todos os dispositivos de uma rede consigam

conversar entre si, todos eles deverão estar usando uma mesma linguagem, isto é, um mesmo

protocolo.

Uma rede pode usar diversos protocolos, como o TCP/IP, o NetBEUI e o SPX/IPX, entre outros.

Embora cada um desses protocolos funcione de uma forma particular, eles têm algumas

similaridades. Essas similaridades existem porque, na verdade, os protocolos surgiram com um

mesmo objetivo: transmitir dados através de uma rede.

Para entendermos melhor como os protocolos funcionam, considere as seguintes premissas:

1. A maioria das transmissões de dados em redes locais é do tipo half-duplex.

2. Tradicionalmente os computadores de uma rede compartilham um mesmo cabo e, com isso,

todos os computadores recebem uma mesma informação ao mesmo tempo. Mesmo em redes

que utilizem hubs, onde cada micro é conectado à rede usando um cabo individual, esse

componente na verdade funciona apenas como um repetidor, enviando para todas as máquinas

as informações que ele recebe, ao mesmo tempo. Se o computador A quiser enviar um dado

para o computador B, este dado também chegará ao computador C.

3. Se uma transmissão está sendo feita entre dois dispositivos, nenhuma outra transmissão poderá

ser feita ao mesmo tempo, mesmo que seja entre dois dispositivos que não estejam participando

da transmissão em curso, já que o cabo já estará sendo usado. O computador C não poderá

enviar dados para nenhum outro micro da rede enquanto o cabo estiver sendo usado, mesmo

que seja um micro que não esteja participando da comunicação atualmente em curso (por

exemplo, para um hipotético computador D).

4. Se um arquivo grande tiver de ser transmitido, os demais dispositivos da rede terão de esperar

muito tempo para começarem a transmitir (pois o arquivo é grande e demora algum tempo para

ser transmitido), já que o cabo já estará sendo usado.

5. Poderão ocorrer interferências de algum tipo no meio do caminho e o dado pode não chegar

corretamente ao seu destino.

Os protocolos são justamente uma solução para todos esses problemas. Primeiro, o protocolo pega

os dados que devem ser transmitidos na rede e divide ele em pequenos pedaços de tamanho fixo

chamados pacotes ou quadros. Isso significa que um arquivo não é transmitido na rede de uma só

vez. Por exemplo, se um arquivo a ser transmitido possui 100 KB e o protocolo usado divide os

dados em pacotes de 1 KB, então esse arquivo será transmitido em 100 pacotes de 1 KB cada.

Dentro de cada pacote há uma informação de endereçamento que informa a origem e o destino do

pacote. Se o computador A está enviando um arquivo para o computador B e todos os computadores

da rede recebem essa informação ao mesmo tempo, como o computador B sabe que o dado é para

Page 16: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

16

ele? Como os demais computadores da rede sabem que o dado não é para eles? Justamente

observando essa informação, de endereçamento.

As placas de rede dos computadores possuem um endereço fixo, que é gravado em hardware. Dessa

forma, o computador de destino sabe que o pacote atualmente transitando no cabo da rede é para

ele, porque há o endereço de sua placa de rede no cabeçalho de destino do pacote. Da mesma forma,

os demais computadores sabem que aquele pacote não é para eles, já que não há o endereço de

nenhuma das placas de rede dos outros computadores no pacote.

O uso de pacotes de dados otimiza enormemente o uso da rede, já que, em vez de uma única

transmissão de um dado grande (um arquivo grande, por exemplo), existirão várias transmissões

de dados menores. Com isso, estatisticamente haverá uma maior probabilidade de um outro

dispositivo que queira transmitir um dado encontrar o cabo da rede livre, podendo iniciar uma nova

transmissão.

Dessa forma, é possível que vários dispositivos se comuniquem "ao mesmo tempo" em uma rede.

Fisicamente, essas transmissões não são efetuadas simultaneamente, mas intercalando os vários

pacotes de dados. Ao longo do tempo, serão intercalados no cabo pacotes vindos do computador

A e do computador C. O computador receptor se encarregará de "montar” os pacotes à medida em

que eles, vão chegando, o que é fácil, já que em cada pacote há a informação do computador de

origem.

Portanto, a velocidade da transmissão de dados em uma rede é altamente dependente do número de

transmissões "simultâneas" que estão sendo efetuadas. Quanto mais transmissões estiverem em

curso ao mesmo tempo, mais lenta será a rede.

Suponha o seguinte: se somente há urna transmissão de dados entre o computador A e o computador

B, essa transmissão pode ser feita na velocidade máxima do meio de transmissão, por exemplo, 10

Mbps. Para fazer duas transmissões simultâneas o meio teria de aumentar a sua velocidade para 20

Mbps (para conseguir dados a 10 Mbps). No caso de três comunicações simultâneas, a velocidade

teria de passar para 30 Mbps e assim por diante.

Acontece que o meio - isto é, o cabeamento da rede - possui um limite que é justamente a sua

velocidade máxima de transmissão. Dessa forma, um cabo que transmite dados a 10 Mbps não

consegue transmitir dados a uma velocidade maior que esta. Com isso, para conseguir transmitir

dois dados a 10 Mbps, obrigatoriamente a velocidade desses dois dados tenderá a cair pela metade

- 5 Mbps. No caso de três dados, a velocidade individual de cada dado passa para 3,33 Mbps e

assim por diante. Isso ocorre porque somente um dispositivo pode usar o cabo por vez e, portanto,

as transmissões na verdade não serão simultâneas, mas sim intercaladas.

Dessa forma, há uma relação direta entre o número de máquinas instaladas e o seu desempenho.

Teoricamente, quanto mais máquinas colocarmos na rede, mais lenta ela será, pois maior será a

probabilidade de mais de uma transmissão ser requerida por vez.

A placa de rede, ao colocar um pacote de dados no cabo da rede, faz uma conta chamada checksum

ou CRC (Cyclical Redundancy Check). Essa conta consiste em somar todos os bytes presentes no

pacote de dados e enviar o resultado dentro do próprio pacote. A placa de rede do dispositivo

receptor irá refazer essa conta e verificar se o resultado calculado corresponde ao valor enviado

Page 17: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

17

pelo dispositivo transmissor. Se os valores forem iguais, significa que o pacote chegou íntegro ao

seu destino. Caso contrário, significa que houve algo de errado na transmissão (uma interferência

no cabo, por exemplo) e os dados recebidos são diferentes dos originalmente enviados, ou seja, os

dados chegaram corrompidos ao destino. Nesse caso, o dispositivo receptor pede ao transmissor

uma retransmissão do pacote defeituoso.

Essa é outra vantagem de se trabalhar com pequenos pacotes em vez de transmitir diretamente o

arquivo. Imagine ter de esperar receber o arquivo todo para só então verificar se ele chegou em

perfeito estado! Com o uso de pacotes, a verificação de erros é feita a cada pacote recebido.

O MODELO OSI

Quando as redes de computadores surgiram, as soluções eram, na maioria das vezes, proprietárias,

isto é, uma determinada tecnologia só era suportada por seu fabricante. Não havia a possibilidade

de se misturar soluções de fabricantes diferentes. Dessa forma, um mesmo fabricante era

responsável por construir praticamente tudo na rede.

Para facilitar a interconexão de sistemas de computadores, a IS0 (International Standards

Organization) desenvolveu um modelo de referência chamado 0SI (Open Systems

Interconnection), para que os fabricantes pudessem criar protocolos a partir desse modelo.

Interessante notar que a maioria dos protocolos existentes - como o TCP/IP, o IPX/SPX e o

NetBEUI - não segue esse modelo de referência ao pé da letra. Porém, através dele há como

entender como deveria ser um "protocolo ideal", bem como facilita enormemente a comparação do

funcionamento de protocolos criados por diferentes fabricantes.

O modelo de protocolos OSI é um modelo de sete camadas.

Na transmissão de um dado, cada camada pega as informações passadas pela camada superior,

acrescenta informações pelas quais ela seja responsável e passa os dados para a camada

imediatamente inferior. Esse processo é conhecido como encapsulamento. Na camada 4,

Transporte, o dado enviado pelo aplicativo é dividido em pacotes. Na camada 2, Link de Dados, o

pacote é dividido em vários quadros. Na recepção de um dado, o processo é o inverso.

Um usuário que pede para o seu programa de e-mail baixar os seus e-mails, na verdade está fazendo

com que o seu programa de e-mail inicie uma transmissão de dados com a camada 7 - Aplicação -

do protocolo usado, pedindo para baixar os e-mails do servidor de e-mails. Essa camada processa

esse pedido, acrescenta informações de sua competência, e passa os dados para a camada

imediatamente inferior, a camada 6 (Apresentação). Esse processo continua até a camada 1 (Física)

enviar o quadro de dados para o cabeamento da rede, quando, então, atingirá o dispositivo receptor,

que fará o processo inverso, até a sua aplicação - no nosso exemplo, um programa servidor de e-

mail.

A maioria dos protocolos comerciais também trabalha com o conceito de camadas, porém essas

camadas não necessariamente possuem o mesmo nome e função das apresentadas no modelo 0SI.

Muitas vezes, para cada uma dessas camadas há um protocolo envolvido. Dessa forma, muitos

Page 18: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

18

protocolos são, na verdade, um conjunto de protocolos, cada um com papel específico em sua

estrutura de camadas.

As camadas do modelo OSI podem ser divididas em três grupos: aplicação, transporte e rede. As

camadas de rede se preocupam com a transmissão e recepção dos dados através da rede e, portanto,

são camadas de baixo nível. A camada de transporte é responsável por pegar os dados recebidos

pela rede e repassá-los para as camadas de aplicação de uma forma compreensível, isto é, ela pega

os pacotes de dados e transforma-os em dados quase prontos para serem usados pela aplicação. As

camadas de aplicação, que são camadas de alto nível, colocam o dado recebido em um padrão que

seja compreensível pelo programa (aplicação) que fará uso desse dado.

Até então estávamos usando os termos pacotes e quadros como sinônimos, mas estes termos se

referem a duas coisas distintas. Um quadro é um conjunto de dados enviado através da rede, de

forma mais "bruta" ou, melhor dizendo, de mais baixo nível. Dentro de um quadro encontramos

informações de endereçamento físico, como, por exemplo, o endereço real de uma placa de rede.

Logo, um quadro está associado às camadas mais baixas (1 e 2) do modelo OSI.

Um pacote de dados se refere a um conjunto de dados manipulados nas camadas 3 e 4 do modelo

OSI. No pacote há informações de endereçamento virtual. Por exemplo, a camada 4 cria um pacote

de dados para ser enviado pela rede e a camada 2 divide esse pacote em vários quadros que serão

efetivamente enviados através do cabo da rede. Um pacote, portanto, contém a informação

proveniente de vários quadros.

Para dar um exemplo real e elucidar de uma vez essa diferença, em uma rede usando o protocolo

TCP/IP, a camada IP adiciona informações de endereçamento de um pacote (número do endereço

IP da máquina de destino), que é um endereçamento virtual. Já a camada de Controle de Acesso ao

Meio (MAC) - que corresponde à camada 2 do modelo OSI - transformará esse pacote em um ou

mais quadros e esses quadros terão o endereço da placa de rede de destino (endereço real, físico)

que corresponda ao número IP fornecido.

Estudaremos agora cada uma das camadas do modelo OSI e suas funções. Note que as explicações

serão dadas como se estivéssemos transmitindo um dado do computador A para o computador B.

O processo de recepção é o inverso do descrito.

CAMADA 7 - APLICACÃO

A camada de aplicação faz a interface entre o protocolo de comunicação e o aplicativo que pediu

ou receberá a informação através da rede. Por exemplo, se você quiser baixar o seu e-mail com seu

aplicativo de e-mail, ele entrará em contato com a camada de Aplicação do protocolo de rede

efetuando este pedido.

CAMADA 6 - APRESENTAÇÃO

A camada de Apresentação, também chamada camada de Tradução, converte o formato do dado

recebido pela camada de Aplicação em um formato comum a ser usado na transmissão desse dado,

ou seja, um formato entendido pelo protocolo usado. Um exemplo comum é a conversão do padrão

de caracteres (código de página) quando, por exemplo, o dispositivo transmissor usa um padrão

diferente do ASCII, por exemplo. Pode ter outros usos, como compressão de dados e criptografia.

Page 19: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

19

A compressão de dados pega os dados recebidos da camada sete e os comprime (como se fosse um

compactador comumente encontrado em PCs, como o Zip ou o Arj) e a camada 6 do dispositivo

receptor fica responsável por descompactar esses dados. A transmissão dos dados torna-se mais

rápida, já que haverá menos dados a serem transmitidos: os dados recebidos da camada 7 foram

"encolhidos" e enviados à camada 5.

Para aumentar a segurança, pode-se usar algum esquema de criptografia neste nível, sendo que os

dados só serão decodificados na camada 6 do dispositivo receptor.

CAMADA 5 - SESSÃO

A camada de Sessão permite que duas aplicações em computadores diferentes estabeleçam uma

sessão de comunicação. Nesta sessão, essas aplicações definem como será feita a transmissão de

dados e coloca marcações nos dados que estão sendo transmitidos. Se porventura a rede falhar, os

computadores reiniciam a transmissão dos dados a partir da última marcação recebida pelo

computador receptor.

Por exemplo, você está baixando e-mails de um servidor de e-mails e a rede falha. Quando a rede

voltar a estar operacional, a sua tarefa continuará do ponto em que parou, não sendo necessário

reiniciá-la.

CAMADA 4 - TRANSPORTE

A camada de Transporte é responsável por pegar os dados enviados pela camada de Sessão e dividi-

los em pacotes que serão transmitidos pela rede, ou, melhor dizendo, repassados para a camada de

Rede. No receptor, a camada de Transporte é responsável por pegar os pacotes recebidos da camada

de Rede e remontar o dado original para enviá-lo à camada de Sessão. Isso inclui controle de fluxo

(colocar os pacotes recebidos em ordem, caso eles tenham chegado fora de ordem) e correção de

erros, tipicamente enviando para o transmissor uma informação de reconhecimento (acknowledge),

informando que o pacote foi recebido com sucesso.

A camada de Transporte separa as camadas de nível de aplicação (camadas 5 a 7) das camadas de

nível físico (camadas de 1 a 3). Como você pode facilmente perceber, as camadas de 1 a 3 estão

preocupadas com a maneira com que os dados serão transmitidos e recebidos pela rede, mais

especificamente com os quadros transmitidos pela rede. Já as camadas de 5 a 7 estão preocupadas

com os dados contidos nos pacotes de dados, para serem enviados ou recebidos para a aplicação

responsável pelos dados. A camada 4, Transporte, faz a ligação entre esses dois grupos.

CAMADA 3 - REDE

A camada de Rede é responsável pelo endereçamento dos pacotes, convertendo endereços lógicos

em endereços físicos, de forma que os pacotes consigam chegar corretamente ao destino. Essa

camada também determina a rota que os pacotes irão seguir para atingir o destino, baseada em

fatores como condições de tráfego da rede e prioridades.

Como você pode ter percebido, falamos em rota. Essa camada é, portanto, usada quando a rede

possui mais de um segmento e, com isso, há mais de um caminho para um pacote de dados trafegar

da origem até o destino.

Page 20: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

20

CAMADA 2 -LINKDE DADOS

A camada de Link de Dados (também chamada camada de Enlace) pega os pacotes de dados

recebidos da camada de Rede e os transforma em quadros que serão trafegados pela rede,

adicionando informações como o endereço da placa de rede de origem, o endereço da placa de rede

de destino, dados de controle, os dados em si e o CRC.

O quadro criado pela camada Link de Dados é enviado para a camada Física, que converte esse

quadro em sinais elétricos para serem enviados através do cabo da rede.

Quando o receptor recebe um quadro, a sua camada Link de Dados confere se o dado chegou

íntegro, refazendo o CRC. Se os dados estão o.k., ele envia uma confirmação de recebimento

(chamada acknowledge ou simplesmente ack). Caso essa confirmação não seja recebida, a camada

Link de Dados do transmissor reenvia o quadro, já que ele não chegou até o receptor ou então

chegou com os dados corrompidos.

CAMADA 1 - FÍSICA

A camada Física pega os quadros enviados pela camada de Link de Dados e os transforma em sinais

compatíveis com o meio onde os dados deverão ser transmitidos. Se o meio for elétrico, essa

camada converte os 0s e 1s dos quadros em sinais elétricos a serem transmitidos pelo cabo. Se o

meio for óptico (uma fibra óptica), essa camada converte os 0s e 1s dos quadros em sinais luminosos

e assim por diante, dependendo do meio de transmissão de dados.

A camada Física especifica, portanto, a maneira com que os 0s e 1s dos quadros serão enviados

para a rede (ou recebidos da rede, no caso da recepção de dados). Ela não sabe o significado dos 0s

e 1s que está recebendo ou transmitindo. Por exemplo, no caso da recepção de um quadro, a camada

física converte os sinais do cabo em 0s e 1s e envia essas informações para a camada de Link de

Dados, que montará o quadro e verificará se ele foi recebido corretamente.

Como você pode facilmente perceber, o papel dessa camada é efetuado pela placa de rede dos

dispositivos conectados em rede. Note que a camada Física não inclui o meio onde os dados

circulam, isto é, o cabo da rede. O máximo com que essa camada se preocupa é com o tipo de

conector e o tipo de cabo usado para a transmissão e recepção dos dados, de forma que os 0s e 1s

sejam convertidos corretamente no tipo de sinal requerido pelo cabo, mas o cabo em si não é

responsabilidade dessa camada.

PADRÃO IEEE 802

O IEEE (Institute of Electrical and Electronic Engineers) criou uma série de padrões de protocolos.

O mais importante foi a série 802, que é largamente usada e é um conjunto de protocolos usados

no acesso à rede. Os protocolos IEEE 802 possuem três camadas, que equivalem às camadas 1 e 2

do modelo 0SI. A camada 2 do modelo OSI no modelo IEEE 802 é dividida em duas: Controle do

Link Lógico (LLC, Logic Link Control) e Controle de Acesso ao Meio (MAC, Media Access

Control).

Page 21: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

21

Como a maioria das redes usa o padrão IEEE 802 para acessar a rede (isto é, o cabeamento. As

camadas 3 a 7 do modelo OSI serão preenchidas de acordo com os protocolos usados pela rede,

que poderão equivaler a uma ou mais dessas camadas.

Existem vários padrões IEEE 802, como IEEE 802.2, IEEE 802.3, etc. O padrão IEEE 802.2

especifica o funcionamento da camada de Controle do Link Lógico (LLC). Os demais padrões

IEEE operam na camada de Controle de Acesso ao Meio (MAC) e na camada física.

Comparando mais uma vez o padrão IEEE 802 com o modelo 0SI, o padrão IEEE 802.2 equivale

a parte da camada 2 (Link de Dados), enquanto que padrões como o 802.3, 802.4 e 802.5 equivalem

a parte da camada 2 (Link de Dados) e à camada 1 (Física).

Entre os padrões 802 existentes, destacam-se:

- IEEE 802.3 (Ethernet): Usa o conceito de detecção de colisão, chamado CSMA/CD (Carrier

Sense, Multiple Access with Collision Detection), onde todos os computadores da rede

compartilham um mesmo cabo. Os computadores só podem enviar dados para a rede quando o

cabo está livre. Caso dois computadores tentem enviar um dado ao mesmo tempo na rede, há uma

colisão e as placas de rede esperam um período de tempo aleatório e tentam reenviar o pacote para

o cabo de rede. Esse método é o mais usado na transmissão de dados em redes locais, tanto que as

explicações dadas sobre o funcionamento de redes no início deste capítulo foram baseadas neste

método. Tipicamente as transmissões de dados desse padrão são de 10 Mbps, embora já existam as

revisões para suportar taxas de transmissão mais altas: 100 Mbps e 1 Gbps.

- IEEE 802.5 (Token Ring): Usado em redes com topologia em anel. Um pacote especial,

chamado token (ficha) circula no anel passando de micro em micro. Somente o computador que

detenha o token pode enviar dados, gravando o seu pacote de dados dentro do token. A ficha circula

no anel até atingir o destino do dado, quando então será descarregada, ficando livre para receber

um novo dado. Esse padrão de transmissão de dados não é tão comum como o Ethernet.

Existem outros padrões, como o IEEE 802.4 (token passing). Como dissemos, esses padrões IEEE,

além de desempenharem parte do papel da camada 2 do padrão OSI (através da camada de Controle

de Acesso ao Meio), desempenham também o papel da camada 1, a camada física. Como isso, esses

padrões definem outros detalhes como, por exemplo, o tipo de conector que será usado pela placa

de rede. Por motivos didáticos, nós preferimos abordar neste capítulo somente o funcionamento do

protocolo em si. Detalhes sobre conectores, topologias e cabos serão abordados em momentos mais

oportunos, quando eventualmente voltaremos a mencionar os padrões IEEE 802.

Como dissemos, o padrão Ethernet (IEEE 802.3) é o protocolo mais comum para a transmissão de

dados na rede. Em geral, quando usamos o termo protocolo de rede normalmente estamos nos

referindo a protocolos que trabalham nas camadas 3 e 4 do modelo OSI como o TCP/IP, o IPS/SPX

e o NetBEUI. O Ethernet e o Token Ring são protocolos que trabalham nas camadas 1 e 2 e,

portanto, podem coexistir com outros protocolos comerciais.

Em outras palavras, o modelo 0SI apresenta um modelo de sete camadas que, em princípio, poderia

usar até sete protocolos (um para cada camada) para fazer urna rede funcionar. Na prática, para que

computadores consigam trabalhar em rede, urna série de protocolos são usados, em geral cada um

equivalendo a uma ou mais camadas do modelo 0SI. Os protocolos IEEE 802 trabalham nas

Page 22: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

22

camadas 1 e 2 e podem ser usados em conjunto com outros protocolos comerciais, como o TCP/IP,

o IPX/SPX e o NetBEUI, entre outros.

CAMADA FÍSICA

A camada física pega os quadros enviados pela camada de Controle de Acesso ao Meio e os envia

para o meio físico (cabeamento). A camada física do padrão IEEE 802 define também o tipo de

topologia usado pela rede e o tipo de conector usado pela placa de rede e, conseqüentemente, o tipo

de cabo que será usado. Como dissemos, a camada física do padrão IEEE 802 está presa ao padrão

usado: 802.3, 802.5, etc.

O mais importante a saber sobre a camada física do padrão IEEE 802 é que ela pega os 0s e 1s

enviados pela camada de Controle de Acesso ao Meio e não os envia diretamente para o cabo,

sendo esses dados antes codificados. Para que você entenda melhor como essa codificarão funciona,

vamos estudar o funcionamento de um algoritmo chamado Manchester, que é usado por redes

Ethernet (IEEE 802.3) operando a 10 Mbps.

A codificação Manchester transforma um bit 0 em uma descida de 1 para 0 e um bit 1 em uma

subida de 0 para 1.

O uso desse sistema de codificação é muito interessante, pois obriga o dado transmitido a ter uma

inversão de fase (isto é, passar de 0 para 1 ou de 1 para 0) sempre. Por exemplo, se o dado a ser

transmitido for 00000000, com essa codificarão o dado passará a ter 8 inversões de .fase, enquanto

que originalmente não haveria nenhuma. Ou seja, independentemente do dado que está sendo

transmitido, sempre haverá uma inversão de fase por bit transmitido. Com isso, é criado um sistema

de sincronismo entre o transmissor e o receptor, isto é, um sistema de clock, embora teoricamente

este sinal não exista durante a transmissão.

CONTROLE DE ACESSO AO MEIO (MAC)

O controle de acesso ao meio define, entre outras coisas, o uso de um endereço MAC em cada placa

de rede. Quando falamos anteriormente que cada placa de rede possui um endereço único gravado

em hardware, na verdade estávamos nos referindo ao seu endereço MAC, já que o padrão IEEE

802 é o mais usado em redes.

Cada placa de rede existente em um dispositivo conectado à rede possui um endereço MAC único,

que é gravado em hardware e teoricamente não há como ser alterado (isto é, placa de rede vem da

fábrica com esse endereço gravado). Esse endereço utiliza seis bytes.

Os endereços MAC são representados por números em hexadecimal. Cada algarismo em

hexadecimal equivale a um número de quatro bits. Dessa forma, um byte é representado por dois

algarismos em hexadecimal e, com isso, o endereço MAC é sempre representado como um conjunto

de 12 algarismos em hexadecimal.

Os três primeiros bytes são o endereço OUI (Organizationally Unique Identifier), que indicam o

fabricante da placa de rede. Os três últimos bytes são controlados pela fabricante da placa de rede,

Page 23: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

23

e cada placa de rede produzida por cada fabricante recebe um número diferente. Assim, o fabricante

que quiser produzir uma placa de rede deverá se cadastrar no IEEE para ganhar o seu número OUI.

Cada fabricante é responsável por controlar a numeração MAC das placas de rede que produz.

Um mesmo fabricante pode ter mais de um endereço OUI, evitando, assim, o problema de ter

produzido mais placas do que o número de endereços que possui disponível para numerar as suas

placas.

No quadro enviado à rede, a camada de Controle de Acesso ao Meio irá incluir o endereço MAC

de origem e de destino. A placa de rede contendo o endereço de destino irá capturar o quadro,

enquanto as demais placas de rede não entrarão em ação naquele momento.

Outra função da camada de Controle de Acesso ao Meio é justamente controlar o uso do cabo. Ela

verifica se o cabo está ou não ocupado. Se o cabo estiver ocupado, o quadro não é enviado. Caso o

quadro seja enviado ao mesmo tempo em que outra máquina, há uma colisão, que é detectada pelas

camadas de Controle de Acesso ao Meio das máquinas envolvidas com a colisão. Essa camada

espera o cabo ficar livre para tentar uma retransmissão, esperando um período aleatório de tempo,

para que não ocorra uma nova colisão (se os dois micros esperassem uma mesma quantidade de

tempo, obviamente iria haver uma nova colisão e o processo iria ficar se repetindo

indefinidamente).

A camada de Controle de Acesso ao Meio usa um driver para acessar a camada física. Esse driver

é justamente o driver da placa de rede, que ensina a esta camada como lidar com o modelo da placa

de rede atualmente instalada no micro.

CONTROLE DO LINK LÓGICO (LLC)

A camada de Controle do Link Lógico, que é regida pelo padrão IEEE 802.2, permite que mais de

um protocolo seja usado acima dela (protocolos de camada 3, Rede, no modelo 0SI). Para isso, essa

camada define pontos de comunicação entre o transmissor e o receptor chamados SAP (Service

Access Point, Ponto de Acesso a Serviços).

Dessa forma, o papel da camada de Controle do Link Lógico é adicionar, ao dado recebido,

informações de quem enviou esta informação (o protocolo responsável por ter passado essa

informação) para que no receptor, a camada de Controle do Link Lógico consiga entregar a

informação ao protocolo de destino, que conseguirá ler a informação corretamente.

Se essa camada não existisse e os computadores estivessem usando mais de um protocolo de alto

nível, o receptor não entenderia o dado recebido, pois não saberia para qual protocolo (camada 3

no modelo 0SI) ele deveria entregar aquele dado.

Dessa forma, a camada Controle do Link Lógico serve para endereçar o quadro de dados a um

determinado protocolo da camada 3 do modelo OSI no computador de destino, permitindo que

exista mais de um protocolo desta camada nos computadores da rede.

NDIS E ODI

Page 24: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

24

Criado pela Microsoft e pela 3Com, o NDIS (Network Driver Interface Specification) é um driver

instalado no sistema operacional que permite que uma única placa de rede possa utilizar mais de

um protocolo de rede ao mesmo tempo.

O driver NDIS possui duas partes. A primeira é chamada driver MAC NDIS, que é o driver da

placa de rede (que deve ser escrito usando o padrão NDIS) e que utiliza o padrão IEEE 802.3, se a

rede for Ethernet (o que ocorre na maioria das vezes). A segunda parte é chamada vector. Essa

camada é que faz a "mágica" de permitir que uma mesma placa de rede possa usar mais de um

protocolo, já que o driver da placa de rede (driver MAC NDIS) só permite uma única conexão.

Quando um quadro é recebido pelo driver da placa de rede, ele o passa para a camada vector, que

o envia para o primeiro protocolo, que poderá aceitar ou rejeitar o pacote. Caso o primeiro protocolo

rejeite o quadro, a camada vector entrega o quadro ao segundo protocolo. Esse processo continua

até que um dos protocolos instalados aceite o quadro ou então todos o tenham rejeitado.

Outra finalidade da especificarão NDIS é possibilitar a existência de mais de uma placa de rede em

um mesmo micro. Muitas vezes esse procedimento é necessário para ligar um mesmo computador

a dois segmentos de rede diferentes.

Em princípio, sem o NDIS, se você tivesse duas placas de rede em um micro, você teria de ter duas

pilhas de protocolos completas, uma para cada placa de rede (isto é, se fôssemos seguir o modelo

OSI, teríamos protocolos completos com sete camadas para cada placa de rede instalada).

Com o NDIS, você pode compartilhar uma única pilha de protocolos (isto é, tudo aquilo que estiver

da camada 3 do modelo OSI para cima) com todas as placas de rede instaladas, já que o que houver

acima da camada vector poderá ser compartilhado por todas as placas instaladas.

Isso significa que você não precisa instalar cada um dos protocolos que você deseja usar em sua.

Como a camada vector pode comunicar-se com mais de uma placa de rede, ela permite o

compartilhamento de tudo o que estiver acima dela por todas as placas de rede instaladas.

A camada vector do padrão NDIS possui exatamentea mesma finalidade da camada Controle do

Link Lógico (LLC) do padrão IEEE 802 (IEEE802.2), porém não usando este padrão.

O ODI (Open Datalink Interface) é um driver com o mesmo objetivo que o NDIS, criado pela

Novell e pela Apple para os seus sistemas operacionais, só que com umfuncionamento um pouco

mais complexo (e mais completo). A grande diferença entreo ODI e o NDIS é o uso da camada

Controle do Link Lógico (LLC) do padrão IEEE (IEEF, 802.2), que não é usada no NDIS (no NDIS

há a camadavector, que possui funcionamentosimilar, porém funciona de maneira diferente). No

modelo ODI, essa camada é chamadaCamada de Suporte ao Link (Link Support Layer).

Neste modelo são adicionadas duas interfaces, uma chamada lnterface para MúltiplosProtocolos

(MPI, Multiple Protocoi Interface), que faz a interface entre a Camada deSuporte ao Link e os

protocolos instalados, e outra chamada lnterface para MúltiplosLinks (MLI, Multiple Link

Interface), que faz a interface entre a Camada de SuporteaoLink e os drivers das placas de rede

instaladas. Os drivers da placa de rede compatíveiscom o padrão ODI são chamados MLID ou

Multiple Link Interface Driver.

Page 25: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

25

Como utiliza a arquitetura IEEE 802.2, isto é, a camada Controle do Link Lógico, a essênciado

funcionamento do ODI já foi explicado no tópico Controle de Link Lógico (LLC).

A principal diferença entre o NDIS e o ODI é que, como a camada Controle do Link Lógico (ou

Camada de Suporte ao Link, como é chamada no padrão ODI) possui um campo de endereçamento

de protocolos, tanto o transmissor quanto o receptor sabem qual é o protocolo que está sendo usado

no dado que foi encapsulado dentro do quadro.

Com isso, ao receber um quadro, a interface de múltiplos protocolos (MPI) entrega diretamente os

dados para o protocolo responsável. No NDIS, quando um quadro chega, a camada vector tenta

"empurrar" o quadro para cada um dos protocolos instalados, até um deles aceitar (ou todos

rejeitarem), já que não há o campo do endereçamento.

A existência da Interface para Múltiplos Links (MLI) permite a instalação de mais de uma placa de

rede na máquina, tendo as vantagens que já explicamos quando falamos do NDIS, isto é, as duas

placas de rede podem compartilhar os protocolos existentes acima desta camada.

TCP/IP - FUNDAMENTOS

O protocolo TCP/IP atualmente é o protocolo mais usado em redes locais. Isso se deve basicamente

à popularização da Internet, a rede mundial de computadores, já que esse protocolo foi criado para

ser usado na Internet. Mesmo os sistemas operacionais de redes, que no passado só utilizavam o

seu protocolo proprietário (como o Windows NT com o seu NetBEUI e o Netware com o seu

IPX/SPX), hoje suportam o protocolo TCP/IP.

Uma das grandes vantagens do TCP/IP em relação a outros protocolos existentes é que ele é

roteável, Isto é, foi criado pensando em redes grandes e de longa distância onde pode haver vários

caminhos para o dado atingir o computador receptor.

Outro fato que tornou o TCP/IP popular é que ele possui arquitetura aberta e distância, onde pode

haver vários caminhos para o dado atingir o computador receptor. qualquer fabricante pode adotar

a sua própria versão do TCP/IP em seu sistema operacional, sem a necessidade de pagamento de

direitos autorais a ninguém. Com isso, todos os fabricantes de sistemas operacionais acabaram

adotando o TCP/IP, transformando-o em um protocolo universal, possibilitando que todos os

sistemas possam comunicar-se entre si sem dificuldade.

O TCP/IP é, na realidade, um conjunto de protocolos. Os mais conhecidos dão justamente o nome desse conjunto: TCP (Transmission Control Protocol, Protocolo de Controle da Transmissão) e IP (Internet Protocol), que operam nas camadas Transporte e Internet, respectivamente. Mas eles não são os únicos..

Page 26: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

26

Todos os protocolos do TCP/IP são documentados nos RFCs (Request for Comments), que são

documentos descritivos do protocolo TCP/IP e que estão disponíveis na Internet.

CAMADAS

CAMADA DE APLICAÇÃO

Esta camada equivale às camadas 5, 6 e 7 do modelo OSI e faz a comunicação entre os aplicativos

e o protocolo de transporte. Existem vários protocolos que operam na camada de aplicação. Os

mais conhecidos são o HTTP (HyperText Transfer Protocol), SMTP (Simple Mail Transfer

Protocol), o FTP (File Transfer Protocol), o SNMP (Simple Network Management Protocol), o

DNS (Domain Name Systern) e o Teinet.

Dessa forma, quando um programa cliente de e-mail quer baixar os e-mails que estão armazenados

no servidor de e-mail, ele irá efetuar esse pedido para a camada de aplicação do TCP/IP, sendo

atendido pelo protocolo SMTP. Quando você entra um endereço www em seu browser para

visualizar uma página na Internet, o seu browser irá comunicar-se com a camada de aplicação do

TCP/IP, sendo atendido pelo protocolo HTTP. E assim por diante.

A camada de aplicação comunica-se com a camada de transporte através de uma porta. As portas

são numeradas e as aplicações padrão usam sempre uma mesma porta. Por exemplo, o protocolo

SMTP utiliza sempre a porta 25, o protocolo HTTP utiliza sempre a porta 80 e o FTP as portas 20

(para a transmissão de dados) e 21 (para transmissão de informações de controle).

O uso de um número de porta permite ao protocolo de transporte (tipicamente o TCP) saber qual é

o tipo de conteúdo do pacote de dados (por exemplo, saber que o dado que ele está transportando é

um e-mail) e, no receptor, saber para qual protocolo de aplicação ele deverá entregar o pacote de

dados, já que, como estamos vendo, existem inúmeros. Assim, ao receber um pacote destinado à

porta 25, o protocolo TCP irá entregá-lo ao protocolo que estiver conectado a esta porta,

tipicamente o SMTP, que por sua vez entregará o dado à aplicação que o solicitou (o programa de

e-mail).

CAMADA DE TRANSPORTE

A camada de transporte do TCP/IP é um equivalente direto da camada de transporte (camada 4) do

modelo 0SI. Esta camada é responsável por pegar os dados enviados pela camada de aplicação e

transformá-los em pacotes, a serem repassados para a camada de Internet.

No modelo TCP/IP a camada de transporte utiliza um esquema de multiplexação, onde é possível

transmitir "simultaneamente" dados das mais diferentes aplicações. Na verdade, ocorre o conceito

de intercalamento de pacotes; vários programas poderão estar comunicando-se com a rede ao

mesmo tempo, mas os pacotes gerados serão enviados à rede de forma intercalada, não sendo

preciso terminar um tipo de aplicação de rede para então começar outra. Isso é possível graças ao

uso do conceito de portas, explicado no tópico passado, já que dentro do pacote há a informação da

porta de origem e de destino do dado. Ou seja, em uma mesma seqüência de pacotes recebidos pelo

Page 27: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

27

micro receptor, as informações podem não ser da mesma aplicação. Ao receber três pacotes, por

exemplo, o primeiro pode ser de e-mali, o segundo de www e o terceiro, de FTP.

Nesta camada operam dois protocolos: o TCP (Transmission Control Protocol) e o UDP (User

Datagram Protocol). Ao contrário do TCP, este segundo protocolo não verifica se o dado chegou

ou não ao destino. Por esse motivo, o protocolo mais usado na transmissão de dados é o TCP,

enquanto que o UDP é tipicamente usado na transmissão de informações de controle.

Na recepção de dados, a camada de transporte pega os pacotes passados pela camada Internet e

trata de colocá-los em ordem e verificar se todos chegaram corretamente. Como chegamos a

comentar no capítulo passado, em redes grandes (e especialmente na Internet) os quadros enviados

pelo transmissor podem seguir por diversos caminhos até chegar ao receptor. Com isso, os quadros

podem chegar fora de ordem.

O protocolo IP, que é o protocolo mais conhecido da camada de Internet, não verifica se o pacote

de dados enviado chegou ou não ao destino; é o protocolo de transporte (o TCP) que, ao remontar

a ordem dos pacotes recebidos, verifica se está faltando algum, pedindo, então, uma retransmissão

do pacote que não chegou.

CAMADA DE INTERNET

A camada de Internet do modelo TCP/IP é equivalente à camada 3 (Rede) do modelo 0SI. Assim,

todas as explicações dadas sobre essa camada no capítulo passado são 100% válidas para a Camada

de Internet do TCP/IP.

Há vários protocolos que podem operar nessa camada: IP (Internet Protocol), ICMP (Internet

Control Message Protocol), ARP (Address Resolution Protocol) e RARP (Re-verse Address

Resolution Protocol).

Na transmissão de um dado de programa, o pacote de dados recebido da camada TCP é dividido

em pacotes chamados datagramas. Os datagramas são enviados para a camada de interface com a

rede, onde são transmitidos pelo cabeamento da rede através de quadros. Esta camada não verifica

se os datagramas chegaram ao destino, isto é feito pelo TCR

Esta camada é responsável pelo roteamento de pacotes, isto é, adiciona ao datagrama informações

sobre o caminho que ele deverá percorrer. Para entendermos mais a fundo o funcionamento desta

camada e dos protocolos envolvidos, devemos estudar primeiramente o esquema de endereçamento

usado pelas redes baseadas no protocolo TCP/IP (endereçamento IP).

CAMADA DE INTERFACE COM A REDE

Esta camada, que é equivalente às camadas 1 e 2 do modelo OSI, é responsável por enviar o

datagrama recebido pela camada de Internet em forma de um quadro através da rede.

Page 28: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

28

ENDEREÇAMENTO IP

O TCP/IP é roteável, isto é, ele foi criado pensando-se na interligação de diversas redes - onde

podemos ter diversos caminhos interligando o transmissor e o receptor -, culminando na rede

mundial que hoje conhecemos por Internet. Por isso, ele utiliza um esquema de endereçamento

lógico chamado endereçamento IP. Em uma rede TCP/IP cada dispositivo conectado em rede

necessita usar pelo menos um endereço IP. Esse endereço permite identificar o dispositivo e a rede

na qual ele pertence.

As redes são interligadas através de dispositivos chamados roteadores. Quando um computador da

rede 1 quer enviar um dado para um computador da rede 2, ele envia o pacote de dados ao roteador

1, que fica responsável por encaminhar esse pacote ao computador de destino. No caso de um

computador da rede 1 querer enviar um pacote de dados para um computador da rede 3, ele envia

o pacote ao roteador 1, que então repassará esse pacote diretamente ao roteador 2, que então se

encarregará de entregar esse pacote ao computador de destino na rede 3.

Esse esquema de entrega de pacotes é feito facilmente pelo roteador porque os pacotes de dados

possuem o endereço IP do computador de destino. Nesse endereço IP há a informação de qual a

rede onde o pacote deve ser entregue. Por esse motivo, quando o computador da rede 1,quer falar

com o computador da rede 3, o roteador 1 sabe que aquele pacote de dados não é para a rede 2, pois

no endereço IP de destino há a informação de que o pacote deve ser entregue à rede 3. Então o

roteador 1 envia o pacote diretamente ao roteador 2, sem perder tempo tentando entregá-lo a todos

os computadores existentes na rede 2 para então verificar que o pacote ri ão era para aquela rede

(isto é, ficar esperando que todos os computadores recusem o pacote para então tentar entregá-lo

para a próxima rede existente).

E assim que as redes baseadas no protocolo TCP/IP funcionam. Elas têm um ponto de saída da

rede, também chamado gateway, que é para onde vão todos os pacotes de dados recebidos e que

não são para aquela rede. As redes subseqüentes vão, por sua vez, enviando o pacote aos seus

gateway até que o pacote atinja a rede de destino.

O endereço IP é um número de 32 bits, representado em decimal em forma de quatro números de

oito bits separados por um ponto, no formato a.b.c.d. Assim, o menor endereço IP possível é 0.0.0.0

e o maior, 255.255.255.255.

Com isso, teoricamente uma rede TCP/IP pode ter até 4.294.967.296 endereços IP (2564) ou seja,

esse número de dispositivos conectados a ela (alguns endereços são reservados e não podem ser

usados).

É claro que em poucos anos essa quantidade de dispositivos conectados à Internet - que no início

parecia ser algo impossível de se alcançar - terá sido atingida, até mesmo porque há alguns

endereços que não podem ser usados, diminuindo o número máximo de endereços IP disponível.

Por isso, já foi padronizado o endereçamento IP usando 128 bits em vez de 32 bits. Esse

endereçamento, que ainda não está comercialmente em uso, é chamado IPv6, IP Next Generation

(IPng) ou Simple Internet Protocol Plus (SIPP). Com 128 bits é possível endereçarmos

340.282.366.920.938.463.463.374.607.431.770.000.000 dispositivos diferentes. Um nerd qualquer

calculou que com esse número dá para termos 1.564 endereços IP por metro quadrado da superfície

do planeta Terra.

Page 29: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

29

Cada dispositivo de uma rede TCP/IP precisa ter um endereço IP único, para que o pacote de dados

consiga ser entregue corretamente. Por isso, você não pode simplesmente usar em sua rede qualquer

endereço IP que você quiser. Você terá de obrigatoriamente usar endereços que não estejam sendo

usados por nenhum outro computador da rede. Quanto maior a rede, maior a probabilidade de ter

computadores usando endereços IP que você pensou em usar. Imagine então a situação de uma rede

conectada à Internet: nenhum dos endereços IP de sua rede poderão ser endereços que estejam

sendo usados por outras máquinas ao redor do mundo.

Para facilitar a distribuição dos endereços IP, foram especificadas cinco classes de endereços IP.

Há alguns bits fixos no início de cada classe de endereço IP. Isso faz com que cada classe de

endereços IP seja dividida.

Classe Endereço mais baixo Endereço mais alto

A 1.0.0.0 126.0.0.0

B 128.1.0.0 191.255.0.0

C 192.0.1.0 223.255.255.0

D 224.0.0.0 239.255.255.255

E 240.0.0.0 255.255.255.254

Em redes usamos somente os endereços IP das classes A, B e C.

· Classe A: O primeiro número identifica a rede, os demais três números indicam a máquina.

Cada endereço classe A consegue endereçar até 16.777.216 máquinas.

· Classe B: Os dois primeiros números identificam a rede, os dois demais indicam a máquina.

Esse tipo de endereço consegue endereçar até 65.536 máquinas.

· Classe C: Os três primeiros números identificam a rede, o último número indica a máquina.

Com isso, consegue endereçar até 256 máquinas.

Endereços de classe C. Nesse tipo de endereço IP, os três primeiros números indicam a rede e o

último número indica a máquina. Se você for usar um endereço IP classe C em sua rede, você

poderá ter, pelo menos teoricamente, até 256 dispositivos conectados em sua rede (de 0 a 255). Na

verdade, você poderá ter até 254 dispositivos, já que os endereços 0 e 255 são reservados, como

veremos adiante. Se você precisar de mais endereços IP, você precisará ter acesso a mais um

endereço classe C, ou mesmo pleitear um endereço classe B, caso sua rede seja realmente muito

grande (com um endereço classe B é possível endereçar até 65.536 máquinas diferentes, sem

descontar os endereços reservados).

Ou seja, a escolha do tipo de classe de endereçamento (A, B ou C) é feita com base no tamanho da

sua rede. As redes locais em sua esmagadora maioria utilizam endereços de classe C.

Page 30: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

30

O sistema de redes que forma a estrutura básica da Internet é chamado backbone. Para que a sua

rede esteja conectada à Internet, ela terá de estar conectada ao backbone de alguma forma, seja

diretamente, seja indiretamente, através de uma outra rede que esteja conectada ao backbone. Por

exemplo, no Brasil, um dos backbones existentes é o da Embratel. Dessa forma, se você quiser que

sua rede esteja conectada à Internet, ela deverá estar conectada diretamente à rede da Embratel ou

indiretamente, conectando a sua rede a uma outra rede que possua essa conexão.

A Internet possui uma estrutura hierárquica. O responsável pelo backbone é o responsável pelo

controle e fornecimento de números IPs a seus subordinados; por sua vez os números IPs que o

responsável pelo backbone pode ceder a seus subordinados foi estabelecido pelo backbone

hierarquicamente superior ao backbone em questão.

Em princípio, se a sua rede não for estar conectada na Internet, você pode definir qualquer endereço

IP para os dispositivos que estejam nela conectados. O problema é que mais cedo ou mais tarde

surgirá a necessidade de conectar a sua rede à Internet e o conflito de endereços será inevitável,

caso você tenha montado toda a sua rede baseada em endereços IP já existentes.

Existem alguns endereços que são conhecidos como “endereços mágicos", que são endereços IPs

reservados para redes privadas. Assim, você pode montar a sua rede TCP/IP baseada nesses

endereços que não gerará conflito com os endereços IP da Internet, pois os roteadores da Internet

reconhecem esses endereços como sendo de uma rede particular e não repassam os pedidos de

pacotes que façam referência a esses endereços para o resto da Internet. Mesmo que o roteador de

sua rede esteja configurado de forma errônea e passar o pacote adiante, o pacote acabará atingindo

um roteador que estará configurado corretamente, "barrando" o pedido de seguir para o resto da

Internet, evitando o conflito.

Esses endereços especiais (reservados para redes privadas) são os seguintes:

Classe A: 10.0.0.0 a 10.255.255.255

Classe B: 172.16.0.0 a 172.31.255.255

Classe C: 192.168.0.0 a 192.168.255.255

Ou seja, se você pretende montar uma rede TCP/IP particular, sem estar conectada ao backbone da

Internet, baseada em um endereço classe C, poderá usar o endereço 192.168.0.0.

O endereço 0 indica 'rede'. Assim, o endereço 192.168.0.0 indica a rede que usa endereços que

comecem por 192.168.0. Como esse endereço é classe C, somente o último byte é usado para

endereçar as máquinas presentes na rede, por isso os três primeiros números são fixos e só o último

varia. já o endereço 10.0.0.0, por ser da classe A, indica a rede que usa endereços que comecem

por 10, pois no endereçamento classe A somente o primeiro byte indica a rede, os três bytes

seguintes são usados para o endereçamento das máquinas presentes na rede.

Já o endereço 255 é reservado para broadcast,o ato de enviar um mesmo pacote de dados para mais

de uma máquina ao mesmo tempo. Um pacote de dados de broadcast é recebido por todas as

máquinas da rede.

Page 31: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

31

Para fazer a ligação da rede apresentada com a Internet, há duas soluções. A primeira é

simplesmente conseguir um endereço classe C público para a sua rede e re- configurar todas as

máquinas usando endereços IP únicos dentro da Internet. Por exemplo, digamos que você consiga

o endereço 200.123.123.0. A estrutura de endereçamento IP dessa rede. Repare que o roteador

possui duas portas, uma conectada à sua rede e outra conectada à outra rede (rede 2, em nosso

exemplo). A cada uma das portas deverá ser definido um endereço IP válido dentro da rede na qual

a porta está conectada. Repare que definimos o endereço 200.321.321.1 para a porta deste

dispositivo que está conectada à rede 2 (200.321.321.0).

Outra solução é criar uma tabela de tradução no roteador, que pega os pacotes vindos com endereços

IP válidos na Internet e converte esses endereços em endereços privados, aceitos somente na rede

local. Essa tradução pode ser estática ou dinâmica.

Na tradução estática, um determinado endereço privado é sempre convertido em um mesmo

endereço público. Por exemplo, ao receber um pacote destinado ao endereço 200.123.123.1, o

roteador pegaria esse pacote e trocaria o seu endereço para o endereço 192.168.0.1. A tradução

estática é usada com computadores servidores, que necessitam ter sempre o mesmo endereço IP.

Já a tradução dinâmica é usada por clientes, isto é, computadores que não prestam serviços para a

rede. Nesse tipo de tradução, o endereço privado nem sempre usará o mesmo endereço público.

Com isso, é possível que mais de um endereço privado, usado na rede local, acesse a Internet usando

um mesmo endereço IP público. Essa solução é interessante para quando temos mais computadores

do que endereços IPs disponíveis para montarmos, a rede.

No uso da tradução dinâmica é muito comum o uso de um protocolo chamado DHCP (Dynamic

Host Configuration Protocol, Protocolo de Configuração Dinâmica de Máquinas). Um servidor

DHCP distribui para os computadores clientes um IP válido na lntemet assim que um computador

cliente pede. Dessa forma, se um micro da rede interna pedir uma página www da Intemet, o

servidor DHCP fornece um endereço IP público válido para ele poder se conectar à Intemet. Assim

que essa máquina terminar de carregar a pagina www solicitada, o servidor DHCP "toma" esse

endereço IP de volta. Se o usuário desse cliente continuar navegando, o servidor poderá dar o

mesmo endereço IP ou mesmo dar um outro endereço IP.

MÁSCARA DE REDE

Um termo encontrado com facilidade ao configurar redes baseadas no protocolo TCP/IP é máscara

de rede. A máscara é formada por 32 bits no mesmo formato que o endereçamento IP e cada bit 1

da máscara informa a parte do endereço IP que é usada para o endereçamento da rede e cada bit O

informa a parte do endereço IP que é usada para o endereçamento das máquinas. Dessa forma, as

máscaras padrões são:

Classe A: 255.0.0.0

Classe B: 255.255.0.0

Classe C: 255.255.255.0

Page 32: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

32

O valor 255 equivale a um grupo de oito bits (byte) com todos os seus bits em 1.

A máscara é usada fora de seus valores padrão quando há a necessidade de segmentação da rede.

No exemplo abaixo, recebemos somente um endereço IP de classe C (200.123.123.0), mas

pretendemos usar esses endereços para distribuí-los em quatro redes: uma rede local e três redes

situadas em outros locais, sendo a nossa necessidade a seguinte:

Rede local: 31 endereços IP (de 200.123.123.1 a 200.123.123.31, máscara 255.255.255.224)

Rede 1: 32 endereços IP (de 200.123.123.32 a 200.123.123.63, máscara 255.255.255.224)

Rede 2: 64 endereços IP (de 200.123.123.64 a 200.123.123.127, máscara 255.255.255.192)

Rede 3: 127 endereços IP (de 200.123.123.128 a 200.123.123.254, máscara 255.255.255.128)

O valor da máscara é a diferença entre 256 e o número de IPs disponíveis na sub-rede em questão.

Nessa conta você deve levar em conta os endereços 0 e 255, apesar de eles não poderem ser usados

para o endereçamento de máquinas. Nesse caso, configuramos os roteadores com uma máscara fora

do padrão, para que ele não precise enviar pacotes desnecessariamente para redes que não a de

destino do pacote.

PROTOCOLOS DE APLICAÇÃO

É o funcionamento dos principais protocolos usados na comunicação das aplicações com a camada

de transporte.

É claro que existem inúmeros protocolos por este motivo, estaremos abordando somente os

protocolos de aplicação mais comuns, a saber:

DNS (Domain Name System): Usado para identificar máquinas através de nomes em vez de

endereços IP

Telnet: Usado para comunicar-se remotamente com uma máquina.

FTP (File Transfer Protocol): Usado na transferência de arquivos.

SMTP (Simple Mail Transfer Protocol): Usado no envio e recebimento de e-mails.

HTTP (Hyper Text Transfer Protocol): Usado na transferência de documentos hipermídia

(WWW, World Wide Web).

DNS (DOMAIN NAME SYSTEM)

Todas as máquinas em uma rede TCP/IP possui um endereço IP. Acontece que os endereços IP não

são tão fáceis de ser recordados quanto nomes. Por isso, foi criado o sistema DNS, que permite dar

nome a endereços IP, facilitando a localização de máquinas por nós, humanos.

Page 33: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

33

Você já conhece vários endereços de máquinas na Internet. Endereços como www.seusite.com.br

na verdade são uma conversão para a forma nominal de um endereço IP (é muito mais fácil guardar

o endereço nominal www.seusite.com.br do que o endereço IP 200.123.123.7, por exemplo).

Quando você entra esse endereço em um browser Internet, o browser se comunica com um servidor

DNS, que é responsável por descobrir o endereço IP do nome entrado, permitindo que a conexão

seja efetuada.

Dessa forma, os servidores DNS possuem duas funções: converter endereços nominais em

endereços IP e vice-versa.

Sem o uso de servidores DNS, cada máquina conectada à internet teria de ter uma tabela contendo

todos os endereços IP e os nomes das máquinas, o que atualmente é impossível, já que existem

milhões de endereços na Internet. Como a idéia da Internet é ser uma rede gigantesca - e ela foi

criada justamente para isso -, o sistema de nomes foi criado de forma a acomodar o crescimento da

rede. Para isso, o sistema de nomes utilizado possui uma estrutura hierárquica.

Um servidor .com, por exemplo, é responsável por todos os endereços terminados em .com, assim

como um servidor .com.br é responsável por todos os endereços terminados em .com.br.

Cada rede local TCP/IP precisa ter ao menos um servidor DNS. Todos os pedidos por conversão

de nomes em endereços IP ou vice-versa são enviados a este servidor. Caso ele não consiga efetuar

essa conversão (também chamada resolução), ele responde o pedido informando o endereço de um

servidor que seja hierarquicamente superior a ele e, com isso, a maior probabilidade de conhecer o

endereço solicitado.

Se o outro servidor contactado também não conhecer o endereço, ele responderá informando o

endereço de outro servidor hierarquicamente superior e assim sucessivamente, até o endereço ser

localizado (ou não, caso seja um endereço inexistente).

Por exemplo, se você pedir o endereço seusite.org.br e o servidor de DNS de sua rede não conhecer

esse endereço (supondo que o domínio de sua rede seja .com.br), ele passará esse pedido parar o

servidor responsável pelos domínios .com.br, que passará o pedido para o servidor responsável

pelos domínios.br que, por sua vez, passará o pedido para o servidor responsável pelos domínios

.org.br) que, com certeza, conhecerá esse domínio, caso ele exista (caso não exista, este servidor

retomará uma mensagem de erro de domínio inexistente).

Em outras palavras, os endereços Internet são resolvidos da direita para a esquerda. No exemplo

dado, seusite.org.br, primeiro o pedido é enviado para o servidor.br, que enviará o pedido para o

servidor org.br que então verifica se existe o domínio seusite.org.br. No caso de o endereço ser

mais longo, www.seusite.org.br ou nome.seusite.org.br, www e nome são nomes de máquinas

dentro da rede seusite.org.br e serão resolvidos pelo servidor DNS da rede local.

Da maneira que estamos explicando, o sistema DNS criaria um tráfego gigantesco na Internet, por

causa da replicação dos pedidos de resolução de endereços para servidores hierarquicamente

superiores. Para que isso não aconteça, quando o pedido de resolução é atendido, o servidor DNS

da rede local "aprende" aquele novo endereço. Assim, se aquele nomelendereço for pedido

novamente por alguma máquina da rede, o servidor de DNS local poderá dessa vez atender ao

Page 34: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

34

pedido, não precisando ter de passar o pedido para outros servidores, diminuindo, assim, o tráfego

da rede. Esse procedimento é conhecido como cache.

É claro que pode ocorrer de as informações presentes no cache do servidor de DNS local estarem

desatualizadas, isto é, o endereço IP de um determinado servidor ter sido alterado, por exemplo.

Por isso, quando um servidor hierarquicamente superior responde a um pedido de DNS, ele inclui

um valor de Tempo de Vida (TFL, Time To Live), que informa ao servidor local durante quanto

tempo ele pode ficar com aquela informação. Quando o tempo de vida for atingido, o endereço IP

e o nome do domínio são removidos do cache do servidor DNS local, fazendo com que novos

pedidos daquele nome/endereço tenham de ser requisitados ao servidor hierarquicamente superior,

atualizando, assim, o cache do servidor local.

Além disso, poderia haver um congestionamento gigantesco nos servidores de DNS principais da

Internet, fazendo com que eles saíssem do ar. Na verdade, um pedido enviado a um servidor de

DNS principal é atendido por várias máquinas, utilizando o conceito de computação distribuída.

Além disso, na maior parte das vezes eles não atendem diretamente a pedidos DNS: eles respondem

ao pedido indicando outros servidores capazes de atendê-lo.

TELNET

O Telnet é um terminal remoto, onde o micro cliente pode fazer um login em um servidor qualquer

que esteja conectado à rede (ou à Internet, se a rede estiver conectada a ela). Com isso, através do

Telnet o usuário pode manipular o servidor como se ele estivesse sentado em frente a ele,

localmente - muito embora o usuário possa estar a milhares de quilômetros de distância. Tudo

aquilo que o usuário fizer no terminal remoto, na verdade ele estará fazendo no servidor, e não em

seu computador local.

O Telnet é extremamente simples. Ele usa o código ASCII puro para a transmissão de dados,

utilizando o protocolo TCP através da porta 23. Assim, quando é pressionada a tecla A no cliente

é imediatamente enviado o valor 65 para o servidor (65 é o valor ASCII da tecla A).

FTP (FILE TRANSFER PROTOCOL)

Como o próprio nome sugere, o FTP é um protocolo usado na transferência de arquivos. Esse

protocolo utiliza duas portas para se comunicar com o TCP: 21, por onde circulam informações de

controle (por exemplo, o nome do arquivo a ser transferido) e 20, por onde circulam os dados.

Os micros clientes necessitam de um programa cliente FTP para terem acesso a um servidor FTP.

Na conexão, é pedido um login e uma senha. O servidor de FTP pode ser configurado para receber

conexões anônimas, sem a necessidade de senha, para arquivos que deseje tornar públicos. Além

disso, cada mensagem FTP é codificada de uma forma numérica (três números, que são processados

pelo cliente FTP) e de uma forma verbal (usada somente para ser mostrada na tela, pois não é

compreendida pelo cliente FTP).

SMTP (SIMPLE MAIL TRANSFER PROTOCOL)

O e-mail é hoje um dos meios mais conhecidos para nós, humanos, trocarmos informações. Ele é

trocado através de um protocolo chamado SMTP (Simple Mail Transfer Protocol).

Page 35: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

35

Ao contrário dos outros métodos de troca de informações que discutimos até agora, a transferência

de e-mails tem de levar em conta a possibilidade de o servidor de destino estar temporariamente

fora do ar, pois o usuário não irá querer ficar manualmente tentando enviar um determinado e-mail

até conseguir que ele consiga chegar ao destino.

A mensagem é enviada pelo usuário para o seu servidor de e-mail, que, por sua vez, trata de entregar

a mensagem até o destino (muitas vezes usando o sistema DNS para descobrir o endereço IP da

máquina para a qual ele deve enviar o e-mail). Caso o destino esteja inalcançável por algum motivo,

o servidor armazena a mensagem e tenta uma nova transmissão mais tarde. Se o servidor ficar

inalcançável por muito tempo (tipicamente por três ou quatro dias), o servidor remove a mensagem

de sua lista de entrega e envia uma mensagem de erro ao remetente.

Além disso, o sistema de e-mail deve levar em conta que os usuários não necessariamente possuem

computadores com conexão 24 horas por dia com a Internet. Mesmo em redes locais conectadas à

Internet, os micros clientes não ficam ligados diretos (eles são desligados quando os funcionários

vão embora para casa, por exemplo).

Com isso, a necessidade não só de um servidor para entregar as mensagens de e-mail pela Internet,

mas também a necessidade de configurá-lo para receber e armazenar mensagens temporariamente,

enquanto o computador do usuário estiver desligado. Quando o usuário se conecta à rede, ele poderá

transferir o e-mail contido no servidor para o seu micro, para poder ler, editar, responder e criar

novas mensagens. Os dois protocolos mais conhecidos para se efetuar essa tarefa são o P0P3 (Post

Office Protocol 3) e o IMAP4 (Internet Message Acess Protocol 4).

A comunicação entre os programas clientes e os servidores de e-mail é extremamente simples. Toda

comunicação é feita em ASCII puro, através de comandos extremamente simples que são

facilmente entendidos por humanos. O conteúdo da mensagem em si também é enviado em ASCII

puro. Atualmente pode-se usar o padrão MIME (Multipurpose Internet Mail Extensions) em lugar

do ASCII. O padrão MIME foi criado para permitir o envio de informações não-ASCII, como

imagens e documentos que não estejam no formato texto puro dentro do e-mail. Em outras palavras,

para permitir o envio de arquivos anexados (em attach) ao e-mail.

HTTP (HYPERTEXT TRANSFER PROTOCOL)

A Internet não seria a mesma sem o WWW (World Wide Web). O "boom" que a Internet sofreu

nos últimos anos foi graças à criação desse recurso. Um site www consiste em uma série de

documentos hipermídia, acessados através de um endereço, também chamado URL (Uniform

Resource Locator), como, por exemplo, www.seusite.com.br.

Quando entramos um endereço como www.seusite.com.br em um browser ele irá consultar o

servidor DNS para conseguir o endereço IP do servidor www e, com isso, iniciar a conexão.

A transferência de documentos hipermídia é feita através do protocolo HTTP. Um servidor www

hospeda o site, enquanto um cliente (um browser Internet) faz a requisição dos documentos lá

contidos. Essa transferência é feita usando a porta 80 do protocolo TCP. Esses documentos são

escritos em diversas linguagens e o browser é o responsável por interpretar tais linguagens. A mais

simples de todas é o texto puro, passando pelo famoso HTML (HyperText Markup Language) e

chegando a outras linguagens mais recentes e suportadas somente pelos browsers mais novos.

Page 36: Manual redes conceitos

REDES DE COMPUTADORES – Conceitos básicos

36

Outro recurso interessante do HTTP chama-se CGI (Common Gateway Interface), que permite que

programas sejam armazenados e executados no próprio servidor www, emitindo uma resposta no

formato HTML para ser transmitida para o browser do micro cliente. Esse recurso permite que

documentos sejam criados dinamicamente.

A comunicação usando o protocolo HTTP é bidirecional e permite dois recursos para a diminuição

do tráfego da rede e para o aumento do desempenho.

Primeiro, o cache, que é a cópia dos últimos arquivos acessados no disco rígido do usuário, permite

que o browser em vez de ir novamente no servidor www buscar os mesmos arquivos já lidos, os

busque do disco rígido local do usuário, aumentando o desempenho (já que é mais rápido ler um

arquivo do disco rígido do que carregá-lo através da Internet) e diminuindo o tráfego da rede (não

será necessária a transferência dos arquivos novamente).

O segundo é chamado proxy, que permite que uma máquina intermediária entre o cliente e o

servidor www funcione como um cache. Por exemplo, você pode configurar um servidor proxy em

sua rede local para ser usado como intermediário no acesso à Internet. Quando uma máquina faz

acesso à Internet, os dados são copiados para o disco rígido do servidor proxy. Com isso, se alguma

máquina pedir um documento que já esteja no proxy, não será necessário ir na Internet buscar os

dados, aumentando o desempenho e diminuindo o tráfego da Internet. O único detalhe é que os

browsers Internet de todas as máquinas deverão estar configurados a acessar o proxy em vez de

fazer um acesso direto à Internet, ou caso contrário não adiantará em nada ter um servidor proxy

na rede.