Cisco CCNA Modulo03

221

Transcript of Cisco CCNA Modulo03

Page 1: Cisco CCNA Modulo03
Page 2: Cisco CCNA Modulo03

2

Page 3: Cisco CCNA Modulo03

3

CAPITULO 01 - Introdução ao Roteamento Classless

Visão Geral

Os administradores de redes precisam antecipar e gerenciar o crescimento físico das redes. Isso poderá levar à compra ou aluguel de outro andar do prédio para equipamentos de rede tais como racks, patch panels, switches e roteadores. Os projetistas de redes precisam escolher esquemas de endereçamento que permitam o crescimento. Variable-length subnet mask (VLSM), ou seja, máscara de sub-rede de tamanho variável, é usada para criar esquemas de endereçamento eficientes e escaláveis.

Quase todas as empresas precisam implementar um esquema de endereços IP. Muitas organizações selecionam TCP/IP como o único protocolo para executar em suas redes. Infelizmente, os idealizadores do TCP/IP não previram que esse protocolo acabaria sustentando uma rede global de informações, comércio e entretenimento.

O IP versão 4 (IPv4) ofereceu uma estratégia de endereçamento que, embora fosse escalável durante certo tempo, resultou em uma alocação ineficiente de endereços. O IPv4 poderá logo ser substituído pelo IP versão 6 (IPv6) como o protocolo dominante da Internet. O IPv6 possui espaço de endereçamento virtualmente ilimitado e a sua implementação já começou em algumas redes. Ao longo das últimas duas décadas, os engenheiros modificaram o IPv4, de modo que ele possa sobreviver ao crescimento exponencial da Internet. A VLSM é uma das modificações que tem ajudado a preencher a lacuna entre IPv4 e IPv6.

As redes precisam ser escaláveis, já que as necessidades dos usuários evoluem. Quando uma rede é escalável, ela pode crescer de maneira lógica, eficiente e econômica. O protocolo de roteamento usado em uma rede ajuda a determinar a escalabilidade da rede. É importante escolher com prudência o protocolo de roteamento. O Routing Information Protocol versão 1 (RIP v1) serve bem para redes pequenas. No entanto, ele não é escalável para comportar redes grandes. O RIP versão 2 (RIP v2) foi elaborado para superar essas limitações.

Este módulo cobre alguns dos objetivos dos exames CCNA 640-801 e ICND 640-811.

Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:

• Definir VLSM e descrever resumidamente as razões para a sua utilização. • Dividir uma rede de grande porte em sub-redes de tamanhos diferentes usando VLSM. • Definir a agregação e resumo de rotas em relação ao VLSM. • Configurar um roteador usando VLSM. • Identificar as características mais importantes do RIP v1 e RIP v2. • Identificar as diferenças importantes entre RIP v1 e RIP v2. • Configurar o RIP v2. • Verificar, identificar e resolver problemas na operação do RIP v2. • Configurar rotas padrão, usando os comandos ip route e ip default-network.

1.1 VLSM 1.1.1 O que é VLSM e por que ele é usado

Com o crescimento das sub-redes IP, os administradores têm procurado maneiras de usar o seu espaço de endereços com mais eficiência. Esta página introduz uma técnica chamada VLSM. Com VLSM, um administrador de rede pode usar uma máscara longa em redes com poucos hosts, e uma máscara curta em sub-redes com muitos hosts.

Page 4: Cisco CCNA Modulo03

4

Para implementar VLSM, um administrador de rede precisa usar um protocolo de roteamento que o suporte. Os roteadores Cisco suportam VLSM com Open Shortest Path First (OSPF) IS-IS Integrado, Enhanced Interior Gateway Routing Protocol (EIGRP), RIP v2 e roteamento estático.

VLSM permite que uma organização utilize mais de uma máscara de sub-rede dentro do mesmo espaço de endereço de rede. A implementação de VLSM maximiza a eficiência dos endereços e freqüentemente é chamada de criação de sub-redes em uma sub-rede.

Os protocolos de roteamento classless exigem que uma rede utilize a mesma máscara de sub-rede. Por exemplo, uma rede com um endereço 192.168.187.0 pode usar somente uma máscara de sub-rede, tal como 255.255.255.0.

Page 5: Cisco CCNA Modulo03

5

Um protocolo de roteamento que permite VLSM libera o administrador para usar diferentes máscaras de sub-rede para redes dentro de um único sistema autônomo.

A Figura mostra um exemplo de como um administrador de rede pode usar uma máscara de 30 bits para conexões de redes, uma máscara de 24 bits para redes de usuários e até uma máscara de 22 bits para redes de até 1000 usuários.

A próxima página tratará de esquemas de endereçamento para redes.

1.1.2 Desperdício de endereços

Esta página explicará como certos esquemas de endereçamento podem desperdiçar espaço de endereços.

No passado, não era aconselhável usar a primeira e a última sub-redes. A utilização da primeira sub-rede, conhecida como sub-rede zero, era desencorajada por causa da confusão que poderia ocorrer se uma rede e uma sub-rede tivessem o mesmo endereço. Isso também se aplicava à utilização da última sub-rede, conhecida como sub-rede all-ones (totalmente de uns). Com a evolução das tecnologias de redes e com o esgotamento dos endereços IP, a utilização da primeira e última sub-rede tornou-se uma prática aceitável em conjunto com VLSM.

Page 6: Cisco CCNA Modulo03

6

Na Figura , a equipe de gerenciamento da rede emprestou três bits da porção host de um endereço Classe C, que foi selecionado para esse esquema de endereços. Se a equipe optar por usar a sub-rede zero, haverá oito sub-redes utilizáveis. Cada sub-rede pode suportar 30 hosts. Se a equipe optar por usar o comando no ip subnet-zero, haverá sete sub-redes utilizáveis com 30 hosts em cada sub-rede. Os roteadores com o Cisco IOS versão 12.0 ou posterior usam a sub-rede zero por default.

Na Figura , os escritórios remotos Sydney, Brisbane, Perth e Melbourne podem ter 30 hosts cada um. A equipe reconhece que será necessário endereçar os três links WAN ponto-a-ponto entre Sydney, Brisbane, Perth e Melbourne. Se a equipe utilizar as últimas três sub-redes para os links WAN, todos os endereços disponíveis serão utilizados e não haverá espaço para crescimento. A equipe também terá desperdiçado os 28 endereços de host de cada sub-rede só para endereçar três redes ponto-a-ponto. Esse esquema de endereçamento desperdiça um terço do espaço de endereços em potencial.

Tal esquema de endereços é aceitável para uma rede local pequena. No entanto, ele gera muito desperdício se forem usadas conexões ponto-a-ponto.

Page 7: Cisco CCNA Modulo03

7

A próxima página explicará como VLSM pode ser usado para evitar o desperdício de endereços.

1.1.3 Quando usar VLSM

É importante projetar um esquema de endereços que permita o crescimento e que não desperdice endereços. Esta página examina como VLSM pode ser usado para evitar o desperdício de endereços em links ponto-a-ponto.

Conforme indica a Figura , a equipe de gerenciamento da rede decidiu evitar o desperdício da utilização da máscara /27 nos links ponto-a-ponto. A equipe aplica VLSM para cuidar do problema.

Para aplicar VLSM ao problema de endereços, a equipe divide o endereço Classe C em sub-redes de vários tamanhos. Sub-redes grandes são criadas para redes locais. Sub-redes muito pequenas são criadas para links WAN e para outros casos especiais. Uma máscara de 30 bits é utilizada para criar sub-redes com apenas dois endereços de host válidos. Esta é a melhor solução para conexões ponto-a-ponto. A equipe tomará uma das três sub-redes que anteriormente decidiu designar para links WAN e a dividirá novamente em sub-redes com uma máscara de 30 bits.

No exemplo, a equipe tomou uma das últimas três sub-redes, a sub-rede 6, e a dividiu outra vez em sub-redes. Desta vez, a equipe utiliza uma máscara de 30 bits.

Page 8: Cisco CCNA Modulo03

8

As Figuras e ilustram que, depois de utilizar VLSM, a equipe dispõe de oito conjuntos de endereços para serem usados para os links ponto-a-ponto.

A próxima página ensinará os alunos a calcular sub-redes com VLSM.

1.1.4 Cálculo de sub-redes com VLSM

VLSM ajuda a gerenciar endereços IP. Esta página explicará como usar VLSM para definir máscaras de sub-rede que atendam aos requisitos do link ou segmento. Uma máscara de sub-rede deve satisfazer aos requisitos de uma rede local com uma máscara de sub-rede e aos requisitos de uma WAN ponto-a-ponto com outra.

Page 9: Cisco CCNA Modulo03

9

O exemplo na Figura mostra uma rede que carece de um esquema de endereços.

O exemplo contém um endereço Classe B 172.16.0.0 e duas redes locais que exigem um mínimo de 250 hosts cada uma. Se os roteadores usarem um protocolo de roteamento classless, o link WAN precisará ser uma sub-rede da mesma rede Classe B. Os protocolos de roteamento classful, tais como RIP v1, IGRP e EGP não suportam VLSM. Sem VLSM, o link WAN precisaria da mesma máscara de sub-rede dos segmentos das redes locais. Uma máscara de 24 bits de 255.255.255.0 pode suportar 250 hosts.

Um link WAN precisa apenas de dois endereços, um para cada roteador. Isso resulta em 252 endereços desperdiçados.

Page 10: Cisco CCNA Modulo03

10

Se for usado o VLSM, uma máscara de 24 bits ainda seria aplicada nos segmentos LAN para os 250 hosts. Uma máscara de 30 bits poderia ser usada para o link WAN, porque são necessários apenas dois endereços de host.

A Figura mostra onde os endereços da sub-rede podem ser aplicados com base no número de hosts exigidos. Os links WAN usam endereços de sub-rede com um prefixo de /30. Esse prefixo comporta apenas dois endereços de host, que é exatamente o suficiente para a conexão ponto-a-ponto entre os dois roteadores.

Na Figura , os endereços de sub-rede utilizados serão gerados quando a sub-rede 172.16.32.0/20 for dividida em sub-redes /26.

Para calcular os endereços de sub-rede usados nos links WAN, subdivida em novas sub-redes uma das sub-redes /26 não usadas. Nesse exemplo, 172.16.33.0/26 é subdividida em novas sub-redes com um prefixo /30. Isso fornece mais quatro bits de sub-rede e, portanto, 16 (24) sub-redes para as WANs. A Figura ilustra como lidar com um sistema VLSM.

VLSM pode ser usado para dividir em sub-redes um endereço já dividido em sub-redes. Por exemplo, considere o endereço de sub-rede 172.16.32.0/20 e uma rede que precisa de dez endereços de host. Com esse endereço de sub-rede, existem 212 – 2 ou seja 4094 endereços de host, a maioria dos quais será desperdiçada. Com VLSM, é possível dividir 172.16.32.0/20 em sub-redes para criar mais endereços de rede com um número menor de hosts por rede. Quando 172.16.32.0/20 é dividido em 172.16.32.0/26, há um ganho de 26 ou seja 64 sub-redes. Cada sub-rede pode suportar 26 – 2, ou seja 62 hosts.

Use as seguintes etapas para aplicar VLSM a 172.16.32.0/20:

Page 11: Cisco CCNA Modulo03

11

Etapa 1 Escreva 172.16.32.0 em forma binária.

Etapa 2 Trace uma linha vertical entre o 20o e o 21o bits, conforme indicado na Figura . O limite original da sub-rede foi /20.

Etapa 3 Trace uma linha vertical entre o 26o e o 27o bits, conforme indicado na Figura . O limite original da sub-rede /20 é estendido mais seis bits à direita, o que resulta em /26.

Etapa 4 Calcule os 64 endereços de sub-rede com os bits entre as duas linhas verticais, do menor para o maior valor. A figura mostra as primeiras cinco sub-redes disponíveis.

É importante lembrar-se de que somente sub-redes não utilizadas podem ser ainda divididas em sub-redes. Se qualquer endereço de uma sub-rede for usado, essa sub-rede não poderá ser dividido mais em sub-redes.

Na Figura , quatro números de sub-rede são usados nas redes locais. A sub-rede 172.16.33.0/26 não utilizada é subdividida em novas sub-redes para serem usadas nos links WAN.

A Atividade de Laboratório ajudará os alunos a calcularem sub-redes VLSM.

A próxima página descreverá a agregação de rotas

1.1.5 Agregação de rotas com VLSM

Esta página explicará as vantagens da agregação de rotas com VLSM.

Quando VLSM for usado, é importante manter os números de sub-rede agrupados na rede para permitir a agregação. Por exemplo, redes como 172.16.14.0 e 172.16.15.0 devem estar perto uma da outra para que os roteadores possam transportar uma rota para 172.16.14.0/23.

Page 12: Cisco CCNA Modulo03

12

A utilização de classless interdomain routing (CIDR) e VLSM impede o desperdício de endereços e promove a agregação ou resumo de rotas. Sem o resumo de rotas, o roteamento do backbone da Internet provavelmente teria entrado em colapso antes de 1997.

A Figura ilustra como o resumo de rotas reduz a carga ao longo do fluxo entre os roteadore. Esta hierarquia complexa de redes e sub-redes de tamanhos variáveis é resumida em vários pontos com um endereço de prefixo, até que toda a rede seja anunciada como uma só rota agregada de 200.199.48.0/20. O resumo de rotas, ou super-rede, só será possível se os roteadores de uma rede utilizarem um protocolo de roteamento classless tal como OSPF ou EIGRP. Os protocolos de roteamento classless transportam um prefixo que consiste em um endereço IP e uma máscara de bits, de 32 bits nas atualizações de roteamento. Na Figura , a rota resumida que eventualmente chega ao provedor contém um prefixo de 20 bits comum a todos os endereços dentro da organização. Esse endereço é 200.199.48.0/20 ou 11001000.11000111.0011. Para que o resumo funcione, os endereços precisam ser cuidadosamente designados de maneira hieráquica de modo que os endereços resumidos compartilhem os bits de ordem superior.

A seguir, temos regras importantes que devem ser lembradas:

• Um roteador precisa saber em detalhes os números de sub-redes a ele conectadas. • Um roteador não precisa informar a outros roteadores sobre cada sub-rede se o

roteador puder enviar uma rota agregada para um conjunto de rotas. • Um roteador que utiliza rotas agregadas possui um menor número de entradas na sua

tabela de roteamento.

VLSM aumenta a flexibilidade do resumo de rotas porque utiliza os bits de ordem superior compartilhados à esquerda, mesmo que as redes não sejam contíguas.

Page 13: Cisco CCNA Modulo03

13

A Figura mostra que os endereços compartilham os primeiros 20 bits. Esses bits estão em vermelho. O 21o bit não é o mesmo para todos os roteadores. Portanto, o prefixo para a rota resumida terá 20 bits de comprimento. Isso é usado para calcular o número de rede da rota resumida.

A Figura mostra que os endereços compartilham os primeiros 21 bits. Esses bits estão em vermelho. O 22o bit não é o mesmo para todos os roteadores. Portanto, o prefixo para a rota resumida terá 21 bits de comprimento. Isso é usado para calcular o número de rede da rota resumida.

A próxima página ensinará os alunos a configurar o VLSM.

1.1.6 Configurando a VLSM

Esta página ensinará aos alunos como calcular e configurar corretamente VLSM.

A seguir, temos cálculos de VLSM para as redes locais apresentadas na Figura :

Page 14: Cisco CCNA Modulo03

14

• Endereço de rede: 192.168.10.0 • O roteador Perth precisa suportar 60 hosts. Isso significa que serão necessários pelo

menos seis bits na porção host do endereço. Seis bits resultarão em 26 – 2, ou seja, 62 possíveis endereços de host. A conexão de rede local do roteador Perth recebe a designação da sub-rede 192.168.10.0/26.

• Os roteadores Sydney e Singapore precisam suportar 12 hosts cada um. Isso significa que serão necessários pelo menos quatro bits na porção host do endereço. Quatro bits resultarão em 24 – 2, ou seja, 14 possíveis endereços de host. Para a conexão de rede local do roteador Sydney, é designada a sub-rede 192.168.10.96/28 e para a conexão da rede local do roteador Singapore é designada a sub-rede 192.168.10.112/28.

• O roteador KL precisa suportar 28 hosts. Isso significa que serão necessários pelo menos cinco bits na porção host do endereço. Cinco bits resultarão em 25 – 2, ou seja, 30 possíveis endereços de host. A conexão de rede local do roteador KL recebe a designação da sub-rede 192.168.10.64/27.

A seguir, temos cálculos de VLSM para as conexões ponto-a-ponto na Figura :

• A conexão entre Perth e Kuala Lumpur requer apenas dois endereços de host. Isso significa que serão necessários pelo menos dois bits na porção host do endereço. Dois bits resultarão em 22 – 2, ou seja, 2 possíveis endereços de host. A conexão entre Perth e Kuala Lumpur recebe a designação da sub-rede 192.168.10.128/30.

• A conexão entre Sydney e Kuala Lumpur requer apenas dois endereços de host. Isso significa que serão necessários pelo menos dois bits na porção host do endereço. Dois bits resultarão em 22 – 2, ou seja, 2 possíveis endereços de host. A conexão entre Sydney e Kuala Lumpur recebe a designação da sub-rede 192.168.10.132/30.

• A conexão entre Singapore e Kuala Lumpur requer apenas dois endereços de host. Isso significa que serão necessários pelo menos dois bits na porção host do endereço. Dois bits resultarão em 22 – 2, ou seja, 2 possíveis endereços de host. A conexão entre Singapura e Kuala Lumpur recebe a designação da sub-rede 192.168.10.136/30.

Page 15: Cisco CCNA Modulo03

15

A seguinte configuração é para a conexão ponto-a-ponto entre Singapura e KL.

Singapore(config)#interface serial 0 Singapore(config-if)#ip address 192.168.10.137 255.255.255.252 KualaLumpur(config)#interface serial 1 KualaLumpur(config-if)#ip address 192.168.10.138 255.255.255.252

Esta página conclui a lição. A próxima lição tratará de RIP. A primeira página descreve RIP v1

1.2 RIP Versão 2 1.2.1 Histórico do RIP

Esta página explicará as funções e limitações do RIP.

A Internet é uma coleção de sistemas autônomos (ASs). Cada AS possui uma tecnologia de roteamento que pode ser diferente da utilizada em outros sistemas autônomos. O protocolo de roteamento usado dentro de um AS é chamado Interior Gateway Protocol (IGP). Um protocolo diferente usado para transferir informações de roteamento entre sistemas autônomos é chamado Exterior Gateway Protocol (EGP). RIP foi projetado para funcionar como IGP em um AS de tamanho moderado. Não é próprio para utilização em ambientes mais complexos.

Page 16: Cisco CCNA Modulo03

16

RIP v1 é considerado um IGP classful. RIP v1 é um protocolo vetor de distância, que envia em broadcast toda a tabela de roteamento para cada roteador vizinho a intervalos predeterminados. O intervalo padrão é de 30 segundos. RIP usa a contagem de saltos como métrica, sendo 15 o número máximo de saltos.

Se o roteador receber informações sobre uma rede e a interface por onde se recebe informações pertencer à mesma rede mas em sub-rede diferente, o roteador aplicará a máscara de sub-rede que está configurada na interface por onde a informação foi recebida.

• Para endereços Classe A, a máscara classful padrão é 255.0.0.0. • Para endereços Classe B, a máscara classful padrão é 255.255.0.0. • Para endereços Classe C, a máscara classful padrão é 255.255.255.0.

RIP v1 é um protocolo de roteamento muito utilizado porque virtualmente todos os roteadores o suportam. A larga aceitação de RIP v1 deve-se à simplicidade e à compatibilidade universal que ele oferece. RIP v1 pode executar o balanceamento de carga em até seis caminhos do mesmo custo, com quatro caminhos como padrão.

RIP v1 tem as seguintes limitações:

• Ele não envia informações de máscaras de sub-redes nas suas atualizações. • Ele envia atualizações como broadcast em 255.255.255.255. • Ele não suporta autenticação. • Ele não pode suportar VLSM ou classless interdomain routing (CIDR).

RIP v1 é de configuração simples, conforme mostra a figura

1.2.2 Características do RIP v2

Esta página tratará do RIP v2, o qual é uma versão melhorada do RIP v1. Ambas as versões do RIP possuem as seguintes características:

• Um protocolo vetor de distância que usa uma métrica de contagem de saltos. • Utiliza temporizadores holddown para evitar loops de roteamento – o padrão é de 180

segundos. • Utiliza split-horizon para evitar loops de roteamento. • Utiliza 16 saltos como métrica para distância infinita.

Page 17: Cisco CCNA Modulo03

17

RIP v2 proporciona roteamento de prefixo, o que permite que ele envie informações sobre máscaras de sub-rede junto com a atualização de rotas. Portanto, RIP v2 suporta a utilização de roteamento classless no qual diferentes sub-redes dentro da mesma rede podem usar diferentes máscaras de sub-rede, como é o caso do VLSM.

RIP v2 acomoda a autenticação nas suas atualizações. Um conjunto de chaves pode ser usado em uma interface como verificação de autenticação. RIP v2 permite uma escolha do tipo de autenticação a ser usada nos pacotes RIP v2. A escolha será entre texto puro e criptografia Message-Digest 5 (MD5). Texto puro é o padrão. MD5 pode ser usado para autenticar a origem de uma atualização de roteamento. MD5 é tipicamente usado para criptografar senhas enable secret e não existe nenhuma reversão conhecida.

RIP v2 envia atualizações de roteamento em multicast usando o endereço Classe D 224.0.0.9, que permite uma melhor eficiência.

1.2.3 Comparando RIP v1 com v2

Esta página apresentará mais informações sobre o funcionamento de RIP. Ela também descreverá as diferenças entre RIP v1 e RIP v2.

RIP usa algoritmos de vetor de distância para determinar a direção e a distância para qualquer link na internetwork. Se houver vários caminhos até um destino, o RIP seleciona aquele com o menor número de saltos. No entanto, como a contagem de saltos é a única métrica de roteamento usada pelo RIP, ele nem sempre seleciona o caminho mais rápido até um destino.

O RIP v1 permite aos roteadores atualizar suas tabelas de roteamento em intervalos programáveis. O intervalo padrão é de 30 segundos. O envio contínuo de atualizações de roteamento pelo RIP v1 significa que o tráfego na rede aumenta rapidamente. Para evitar que um pacote entre em um loop infinito, RIP limita a contagem máxima de saltos a 15. Se a rede de destino estiver a uma distância de mais de 15 roteadores, a rede será considerada inalcançável e o pacote será descartado. Essa situação cria uma questão de escalabilidade ao se processar o roteamento em redes heterogêneas de grande porte. RIP v1 utiliza split-horizon para evitar loops. Isso significa que RIP v1 anuncia rotas por uma interface somente se as rotas não forem aprendidas de atualizações que entraram pela mesma interface. Ele utiliza temporizadores holddown para evitar loops de roteamento. Holddowns ignoram quaisquer informações novas sobre uma sub-rede que indiquem uma métrica pior durante um período igual ao temporizador holddown.

Page 18: Cisco CCNA Modulo03

18

A Figura resume o comportamento do RIP v1 quando usado por um roteador.

RIP v2 é uma versão melhorada do RIP v1. Possui muitas das características do RIP v1. RIP v2 também é um protocolo vetor de distância que utiliza contagem de saltos, temporizadores holddown e split-horizon. A Figura compara e contrasta RIP v1 com RIP v2.

A primeira Atividade de Laboratório nesta página mostra aos alunos como preparar e configurar RIP nos roteadores. A segunda Atividade de Laboratório repassa a configuração básica dos roteadores. A Atividade com Mídia Interativa ajudará os alunos a entenderem as diferenças entre RIP v1 e RIP v2.

Page 19: Cisco CCNA Modulo03

19

1.2.4 Configurando RIP v2

Esta página ensinará aos alunos como configurar RIP v2.

RIP v2 é um protocolo de roteamento dinâmico que é configurado ao se nomear o protocolo de roteamento RIP Versão 2 e, em seguida, designar números de rede IP sem especificar os valores das sub-redes. Esta seção descreve os comandos básicos usados para configurar RIP v2 em um roteador Cisco.

Para ativar o protocolo de roteamento dinâmico, as seguintes tarefas precisam ser completadas:

• Selecionar um protocolo de roteamento, por exemplo, RIP v2. • Designar os números de rede IP sem especificar os valores das sub-redes. • Designar os endereços de rede ou de sub-rede e a máscara de sub-rede apropriada

para as interfaces.

RIP v2 usa multicasts para se comunicar com outros roteadores. A métrica de roteamento ajuda os roteadores a encontrarem o melhor caminho para cada rede ou sub-rede.

Page 20: Cisco CCNA Modulo03

20

O comando router inicia o processo de roteamento. O comando network causa a implementação das três funções a seguir:

• As atualizações de roteamento são enviada por multicast através de uma interface. • As atualizações de roteamento são processadas se entrarem pela mesma interface. • A sub-rede diretamente conectada àquela interface é anunciada.

O comando network é necessário porque permite que o processo de roteamento determine quais interfaces participam do envio e recebimento das atualizações de roteamento. O comando network inicia o protocolo de roteamento em todas as interfaces que o roteador possui na rede especificada. O comando network também permite que o roteador anuncie essa rede.

A combinação dos comandos router rip e version 2 especifica RIP v2 como protocolo de roteamento, enquanto o comando network identifica uma rede conectada participante.

Neste exemplo, a configuração do Roteador A inclui os seguintes itens:

• router rip – Ativa RIP como protocolo de roteamento • version 2 – Identifica a versão 2 como a versão do RIP sendo usada • network 172.16.0.0 – Especifica uma rede diretamente conectada • network 10.0.0.0 – Especifica uma rede diretamente conectada.

As interfaces do Roteador A conectadas às redes 172.16.0.0 e 10.0.0.0 ou suas sub-redes enviarão e receberão atualizações RIP v2. Essas atualizações de roteamento permitem que o roteador aprenda a topologia da rede. Os Roteadores B e C possuem configurações RIP semelhantes, mas com diferentes números de rede especificados.

A figura mostra outro exemplo de uma configuração de RIP v2.

Page 21: Cisco CCNA Modulo03

21

1.2.5 Verificando RIP v2

Os comandos show ip protocols e show ip route exibem informações sobre os protocolos e a tabela de roteamento. Esta página explica como são usados os comandos show para verificar uma configuração de RIP.

O comando show ip protocols exibe valores referentes a informações dos protocolos de roteamento e de temporizadores dos protocolos de roteamento associados ao roteador. No exemplo, o roteador é configurado com RIP e envia informações atualizadas da tabela de roteamento a cada 30 segundos. Esse intervalo é configurável. Se um roteador que executa RIP não receber uma atualização de outro roteador dentro de 180 segundos ou mais, o primeiro roteador marcará como inválidas as rotas servidas pelo roteador não atualizado. Na Figura , o temporizador holddown é definido em 180 segundos. Portanto, uma atualização para uma rota que antes estava inativa e agora está ativa poderia ficar no estado holddown até que decorressem os 180 segundos completos.

Se não houver uma atualização após 240 segundos, o roteador removerá as entradas da tabela de roteamento. O roteador injeta rotas para as redes listadas após a linha "Routing for Networks". O roteador recebe rotas dos roteadores RIP vizinhos listados após a linha "Routing for Networks". A distância padrão de 120 refere-se à distância administrativa para uma rota RIP.

Page 22: Cisco CCNA Modulo03

22

O comando show ip interface brief também pode ser usado para listar um resumo das informações e do status de uma interface.

O comando show ip route exibe o conteúdo da tabela de roteamento IP. A tabela de roteamento contém entradas para todas as redes e sub-redes conhecidas, e contém um código que indica como essas informações foram obtidas.

Examine a saída para ver se a tabela de roteamento é populada com informações de roteamento. Se faltarem entradas, é porque não estão sendo trocadas informações. Use o comando EXEC privilegiado show running-config ou show ip protocols no roteador para procurar possíveis erros de configuração do protocolo de roteamento.

A Atividade de Laboratório ensinará aos alunos como usar os comandos show para verificar as configurações do RIP v2.

1.2.6 Identificando e Resolvendo Problemas com RIP v2

Esta página explica a utilização do comando debug ip rip.

Use o comando debug ip rip para exibir atualizações de roteamento do RIP à medida que elas são enviadas ou recebidas. O comando no debug all ou undebug all desativa toda a depuração.

O exemplo mostra que o roteador que está sendo diagnosticado recebeu atualizações de um roteador no endereço de origem 10.1.1.2. O roteador no endereço de origem 10.1.1.2 enviou informações sobre dois destinos na atualização da tabela de roteamento. O roteador que está sendo diagnosticado também enviou atualizações, em ambos os casos com o endereço multicast 224.0.0.9 como destino. O número entre parênteses representa o endereço de origem encapsulado no cabeçalho IP.

Algumas vezes podem ser vistas outras saídas do comando debug ip rip que incluem entradas como as seguintes:

RIP: broadcasting general request on Ethernet0 RIP: broadcasting general request on Ethernet1

Esses resultados aparecem durante a inicialização ou quando ocorre um evento tal como uma transição de uma interface ou quando um usuário limpa a tabela de roteamento manualmente.

Uma entrada, como a seguinte, é mais provavelmente causada por um pacote malformado vindo do transmissor:

RIP: bad version 128 from 160.89.80.43

Exemplos de saídas do comando debug ip rip com seus significados aparecem na Figura .

Page 23: Cisco CCNA Modulo03

23

1.2.7 Rotas padrão

Esta página descreverá rotas padrão e explicará como elas são configuradas.

Por default, os roteadores aprendem os caminhos para os destinos de três formas diferentes:

• Rotas estáticas – O administrador do sistema define manualmente as rotas estáticas como próximo salto para um destino. As rotas estáticas são úteis para a segurança e para reduzir o tráfego, já que não se conhece outra rota.

• Rotas padrão – O administrador do sistema também define manualmente as rotas padrão como o caminho a ser seguido quando não houver rota conhecida para o destino. As rotas padrão mantêm as tabelas de roteamento mais curtas. Quando não existe uma entrada para uma rede de destino em uma tabela de roteamento, o pacote é enviado para a rede padrão.

• Rotas dinâmicas – O roteamento dinâmico significa que o roteador aprende os caminhos para os destinos ao receber atualizações periódicas de outros roteadores.

Na Figura , a rota estática é indicada pelo seguinte comando:

Router(config)#ip route 172.16.1.0 255.255.255.0 172.16.2.1

O comando ip default-network estabelece uma rota padrão nas redes que usam protocolos de roteamento dinâmico.

Page 24: Cisco CCNA Modulo03

24

Router(config)#ip default-network 192.168.20.0

De um modo geral, depois que a tabela de roteamento tiver sido definida para lidar com todas as redes que precisam ser configuradas, é freqüentemente útil garantir que os demais pacotes vão para um local específico. Essa rota é denominada rota padrão para o roteador. Um exemplo é um roteador que está conectado com a Internet. Todos os pacotes não definidos na tabela de roteamento irão para a interface determinada do roteador padrão.

O comando ip default-network é normalmente configurado nos roteadores que se conectam ao roteador com uma rota padrão estática.

Na Figura , Hong Kong 2 e Hong Kong 3 utilizariam Hong Kong 4 como gateway padrão. Hong Kong 4 usaria a interface 192.168.19.2 como gateway padrão. Hong Kong 1 rotearia para a Internet pacotes de todos os hosts internos. Para permitir que Hong Kong 1 roteie esses pacotes, é necessário configurar uma rota padrão como:

HongKong1(config)#ip route 0.0.0.0 0.0.0.0 s0/0

Os zeros relativos ao endereço IP e à máscara representam qualquer rede de destino com qualquer máscara. As rotas padrão são chamadas "quad zero routes" (rotas de quatro zeros). No diagrama, a única maneira de Hong Kong 1 poder alcançar a Internet é através da interface s0/0.

Resumo

Esta página faz um resumo dos tópicos apresentados neste módulo.

Page 25: Cisco CCNA Modulo03

25

Variable-Length Subnet Masks (VLSM), freqüentemente chamado "dividir uma sub-rede em sub-redes", é usado para maximizar a eficiência do endereçamento. É um recurso que permite que um só sistema autônomo possua redes com diferentes máscaras de sub-rede. O administrador de rede pode usar uma máscara longa em redes com poucos hosts, e uma máscara curta em sub-redes com muitos hosts.

É importante projetar um esquema de endereçamento que comporte o crescimento e que não envolva o desperdício de endereços. Para aplicar VLSM ao problema de endereçamento, são criadas sub-redes grandes para o endereçamento de redes locais. Sub-redes muito pequenas são criadas para links WAN e para outros casos especiais.

VLSM ajuda a gerenciar endereços IP. VLSM permite a definição de uma máscara de sub-rede que atenda aos requisitos do link ou do segmento. Uma máscara de sub-rede deve atender aos requisitos de uma rede local com uma máscara de sub-rede e aos requisitos de uma WAN ponto-a-ponto com outra máscara.

Os endereços são atribuídos de maneira hierárquica, para que os endereços resumidos compartilhem os mesmos bits de ordem superior. Existem regras específicas para um roteador. Ele precisa saber os detalhes dos números de sub-redes conectadas a ele e não precisa informar a outros roteadores sobre cada sub-rede individual se o roteador puder enviar uma rota agregada para um conjunto de roteadores. Um roteador que utiliza rotas agregadas possui menor número de entradas na sua tabela de roteamento.

Se for escolhido o esquema VLSM, este precisará ser corretamente calculado e configurado.

RIP v1 é considerado um interior gateway protocol classful. RIP v1 é um protocolo vetor de distância que envia em broadcast toda a sua tabela de roteamento para cada roteador vizinho a intervalos predeterminados. O intervalo padrão é de 30 segundos. RIP usa a contagem de saltos como métrica, com 15 como número máximo de saltos.

Para ativar um protocolo de roteamento dinâmico, selecione um protocolo de roteamento, tal como RIP v2, designe os números de rede IP sem especificar valores de sub-rede e, depois, designe os endereços de rede ou de sub-rede e a máscara apropriada de sub-rede para as interfaces. No RIP v2, o comando router inicia o processo de roteamento. O comando network causa a implementação de três funções: As atualizações de roteamento são enviadas em multicast por uma interface, as atualizações de roteamento são processadas se entrarem pela mesma interface e a sub-rede conectada diretamente àquela interface é anunciada. O comando version 2 ativa RIP v2.

O comando show ip protocols exibe valores referentes a informações dos protocolos de roteamento e de temporizadores dos protocolos de roteamento associados ao roteador. Use o comando debug ip rip para exibir atualizações de roteamento do RIP à medida que elas são enviadas ou recebidas. O comando no debug all ou undebug all desativa toda a depuração.

Page 26: Cisco CCNA Modulo03

26

CAPITULO 02 - OSPF com uma única área (Single-Area OSPF)

Visão Geral

As duas principais classes de IGPs são distance vector (vetor de distância) e link-state (estado do enlace). Os dois tipos de protocolos de roteamento encontram rotas através de sistemas autônomos. Os protocolos de roteamento distance vector e link-state usam métodos diferentes para realizar as mesmas tarefas.

Os algoritmos de roteamento link-state, também conhecidos como algoritmos SPF (shortest path first), mantêm um banco de dados complexo de informações sobre a topologia. Um algoritmo de roteamento link-state mantém um conhecimento completo sobre os roteadores distantes e sobre como eles se interconectam. Ao contrário, os algoritmos distance vector fornecem informações não-específicas sobre as redes distantes e nenhum conhecimento sobre os roteadores distantes.

É importante entender como os protocolos de roteamento link-state operam para configurar, verificar e solucionar problemas. Este módulo explica como funcionam os protocolos de roteamento link-state, ressalta suas características, descreve o algoritmo utilizado por eles e indica suas vantagens e desvantagens.

Os primeiros protocolos de roteamento, como o RIP v1, eram todos protocolos distance vector. Há muitos protocolos de roteamento distance vector em utilização atualmente, como RIP v2, IGRP e o protocolo de roteamento híbrido EIGRP. Conforme as redes se tornaram maiores e mais complexas, as limitações dos protocolos de roteamento distance vector se tornaram mais aparentes. Os roteadores que usam um protocolo de roteamento distance vector aprendem sobre a topologia da rede a partir das atualizações da tabela de roteamento dos roteadores vizinhos. A utilização de largura de banda é alta, devido à troca periódica de atualizações de roteamento, e a convergência da rede é lenta, resultando em decisões de roteamento ruins.

Os protocolos de roteamento link-state são diferentes dos protocolos distance vector. Os protocolos link-state inundam informações sobre rotas por toda a rede, permitindo que cada roteador tenha uma visão completa da topologia da rede. As triggered updates permitem uma utilização eficiente da largura de banda e uma convergência mais rápida. As alterações do estado de um link são enviadas a todos os roteadores da rede assim que elas ocorrem.

OSPF é um dos mais importantes protocolos link-state. Ele se baseia em padrões abertos, o que significa que pode ser desenvolvido e aperfeiçoado por vários fabricantes. É um protocolo complexo e um desafio para implementação em uma rede grande. Os princípios básicos do OSPF são abordados neste módulo.

A configuração do OSPF em um roteador da Cisco é semelhante à configuração de outros protocolos de roteamento. Assim, o OSPF precisa ser ativado em um roteador e as redes que serão anunciadas pelo OSPF precisam ser identificadas. O OSPF tem diversos recursos e procedimentos de configuração exclusivos. Esses recursos tornam o OSPF uma poderosa opção de protocolo de roteamento, mas também fazem dele um desafio para a configuração.

Em redes grandes, o OSPF pode ser configurado para abranger muitas áreas e vários tipos de área diferentes. A capacidade de projetar e implementar grandes redes OSPF começa com a capacidade de configurar o OSPF em uma única área. Este módulo também discute a configuração do OSPF com uma única área (Single-Area OSPF).

Este módulo aborda alguns dos objetivos dos exames CCNA 640-801 e ICND 640-811.

Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:

• Identificar as principais características do protocolo de roteamento link-state;

Page 27: Cisco CCNA Modulo03

27

• Explicar como são mantidas as informações do roteamento link-state; • Tratar do algoritmo do roteamento link-state; • Examinar as vantagens e desvantagens dos protocolos de roteamento link-state; • Comparar e contrastar os protocolos de roteamento link-state com os protocolos de

roteamento distance vector; • Ativar o OSPF em um roteador; • Configurar um endereço de loopback para definir a prioridade do roteador; • Modificar a métrica de custo para alterar a preferência de rota do OSPF; • Configurar a autenticação do OSPF; • Alterar os temporizadores do OSPF; • Descrever as etapas para criar e propagar uma rota padrão; • Usar comandos show para verificar a operação do OSPF; • Configurar o processo de roteamento do OSPF; • Definir os principais termos do OSPF; • Descrever os tipos de rede OSPF; • Descrever o protocolo Hello do OSPF; • Identificar as etapas básicas da operação do OSPF.

2.1 Protocolo de roteamento link-state 2.1.1 Visão geral do roteamento link-state

Os protocolos de roteamento link-state funcionam de maneira diferente dos protocolos distance vector. Esta página irá explicar as diferenças entre os protocolos distance vector e link-state. Estas informações são cruciais para os administradores de rede. Uma diferença essencial é que os protocolos distance vector usam um método mais simples para trocar informações de roteamento. A figura descreve as características tanto dos protocolos de roteamento distance vector como link-state.

Page 28: Cisco CCNA Modulo03

28

Os algoritmos de roteamento link-state mantêm um banco de dados complexo com as informações de topologia. Enquanto o algoritmo distance vector tem informações não-específicas sobre redes distantes e nenhum conhecimento sobre roteadores distantes, um algoritmo de roteamento link-state mantém conhecimento completo sobre roteadores distantes e sobre como eles estão interconectados.

A Atividade com Mídia Interativa irá ajudar os alunos a identificarem as diferentes características dos protocolos link-state e distance vector.

2.1.2 Características do protocolo de roteamento link-state

Esta página irá explicar como os protocolos link-state roteiam os dados.

Os protocolos de roteamento link-state coletam informações de rota de todos os outros roteadores da rede ou dentro de uma área definida da rede. Uma vez coletadas todas as informações, cada roteador calcula os melhores caminhos para todos os destinos da rede. Como cada roteador mantém sua própria visão da rede, tem menor probabilidade de propagar informações incorretas fornecidas por algum de seus roteadores vizinhos.

• A seguir estão algumas funções do protocolo de roteamento link-state: Responder rapidamente a mudanças na rede;

• Enviar triggered updates apenas quando ocorrer uma alteração na rede; • Enviar atualizações periódicas, conhecidas como atualizações link-state; • Usar um mecanismo hello para determinar se os vizinhos podem ser alcançados.

Cada roteador envia pacotes hello em multicast para ficar informado sobre o estado dos roteadores vizinhos. Cada roteador usa LSAs para se manter informado sobre todos os roteadores em sua área da rede. Os pacotes hello contêm informações sobre as redes que estão conectadas ao roteador.

Na figura , P4 tem conhecimento sobre seus vizinhos, P1 e P3, na rede Perth3. Os LSAs fornecem atualizações sobre o estado dos enlaces (links) que são interfaces nos outros roteadores da rede.

• Os roteadores que usam protocolos de roteamento link-state têm as seguintes características: Usam as informações de hello e os LSAs recebidos de outros roteadores para criar um banco de dados sobre a rede;

Page 29: Cisco CCNA Modulo03

29

• Usam o algoritmo SPF para calcular a rota mais curta para cada rede; • Armazenam as informações da rota na tabela de roteamento.

2.1.3 Como são mantidas as informações de roteamento

Esta página irá explicar como os protocolos link-state usam os seguintes recursos:

• Os LSAs; • Um banco de dados topológico; • O algoritmo SPF; • A árvore SPF; • Uma tabela de roteamento de caminhos e portas para determinar o melhor caminho

para os pacotes.

Os protocolos de roteamento link-state foram criados para superar as limitações dos protocolos de roteamento distance vector. Por exemplo, os protocolos distance vector somente trocam atualizações de roteamento com vizinhos imediatos, enquanto os protocolos de roteamento link-state trocam informações de roteamento através de uma área muito maior.

Quando ocorre uma falha na rede, por exemplo um vizinho fica inalcançável, os protocolos link-state inundam (flood) LSAs com um endereço multicast especial para toda a área. Flooding, ou inundar é o processo de enviar informações por todas as portas, exceto aquela em que as informações foram recebidas. Cada roteador link-state toma uma cópia do LSA e atualiza seu banco de dados link-state, ou topológico. Em seguida, o roteador link-state encaminha o LSA para todos os dispositivos vizinhos. Os LSAs fazem com que todos os roteadores dentro da área recalculem as rotas. Por esse motivo, a quantidade de roteadores link-state dentro de uma área deve ser limitada.

Um link é o mesmo que uma interface em um roteador. O estado do link é uma descrição de uma interface e da relação com os roteadores vizinhos. Por exemplo, uma descrição da interface incluiria o endereço IP da interface, a máscara de sub-rede, o tipo de rede à qual está conectada, os roteadores conectados a essa rede e assim por diante. O conjunto de link-states forma um banco de dados de link-states, que às vezes é chamado de banco de dados topológico. O banco de dados de link-states é usado para calcular os melhores caminhos através da rede. Os roteadores link-state aplicam o algoritmo Dijkstra do "caminho mais curto

Page 30: Cisco CCNA Modulo03

30

primeiro" (SPF – Shortest Path First) consultando o banco de dados de link-states. Isso cria a árvore SPF, tendo o roteador local como raiz. Em seguida, os melhores caminhos são selecionados a partir da árvore SPF e colocados na tabela de roteamento.

2.1.4 Algoritmos de roteamento link-state

Os algoritmos de roteamento link-state mantêm um banco de dados complexo da topologia da rede trocando anúncios de link-state (LSAs) com outros roteadores da rede. Esta página descreve o algoritmo de roteamento link-state.

Os algoritmos de roteamento link-state têm as seguintes características:

• São conhecidos coletivamente como protocolos SPF. • Mantêm um banco de dados complexo sobre a topologia da rede. • São baseados no algoritmo Dijkstra.

Os protocolos link-state desenvolvem e mantêm um conhecimento completo sobre os roteadores da rede e sobre como eles se interconectam. Isso é obtido através da troca de LSAs com outros roteadores da rede.

Cada roteador constrói um banco de dados topológico a partir dos LSAs que recebe. Em seguida, o algoritmo SPF é usado para computar a facilidade de alcance dos destinos. Essa informação é usada para atualizar a tabela de roteamento. Esse processo pode descobrir alterações na topologia da rede causadas por falha de componentes ou crescimento da rede.

Uma troca de LSAs é acionada por um evento da rede, e não por atualizações periódicas. Isso acelera o processo de convergência, pois não há necessidade de esperar até que uma série de temporizadores expire para que os roteadores possam convergir.

Se a rede mostrada na figura usar um protocolo de roteamento link-state, não haverá preocupação quanto à conectividade entre os roteadores A e D. Com base no protocolo que é empregado e nas métricas selecionadas, o protocolo de roteamento pode discriminar entre dois caminhos para o mesmo destino e usar o melhor deles. Na figura , há duas entradas de roteamento na tabela para a rota do roteador A para o roteador D.

Page 31: Cisco CCNA Modulo03

31

Nessa figura, as rotas têm custos iguais, portanto o protocolo de roteamento link-state grava as duas rotas. Alguns protocolos link-state oferecem uma maneira de avaliar a capacidade de desempenho das duas rotas e escolher a melhor delas. Se a rota preferencial através do roteador C passar por dificuldades operacionais, tais como congestionamento ou falha de componentes, o protocolo de roteamento link-state pode detectar essa alteração e rotear os pacotes através do roteador B.

2.1.5 Vantagens e desvantagens do roteamento link-state

Esta página lista as vantagens e desvantagens dos protocolos de roteamento link-state.

Estas são as vantagens dos protocolos de roteamento link-state:

• Os protocolos link-state usam métricas de custo para escolher caminhos através da rede. A métrica de custo reflete a capacidade dos links nesses caminhos.

• Os protocolos link-state usam triggered updates e inundações (floods) de LSAs para relatar imediatamente alterações na topologia da rede para todos os roteadores da rede. Isso leva a tempos de convergência curtos.

• Cada roteador tem uma imagem completa e sincronizada da rede. Por isso, é muito difícil ocorrerem loops de roteamento.

• Os roteadores usam as informações mais atuais para tomar as melhores decisões de roteamento.

• O tamanho dos bancos de dados de link-state pode ser minimizado com um projeto cuidadoso da rede. Isso leva a cálculos Dijkstra menores e a uma convergência mais rápida.

• Cada roteador, no mínimo, mapeia a topologia de sua própria área da rede. Esse atributo ajuda a solucionar problemas que possam ocorrer.

• Os protocolos link-state suportam CIDR e VLSM.

Page 32: Cisco CCNA Modulo03

32

Estas são algumas desvantagens dos protocolos de roteamento link-state:

• Eles exigem mais memória e maior poder do processador do que os protocolos distance vector. Isso os torna caros para organizações com orçamentos reduzidos e hardware mais antigo.

• Exigem um estrito projeto de rede hierárquico, para que uma rede possa ser quebrada em áreas menores a fim de reduzir o tamanho das tabelas de topologia.

• Requerem um administrador que entenda bem os protocolos. • Inundam a rede com LSAs durante o processo inicial de descoberta. Esse processo

pode diminuir significativamente a capacidade da rede de transportar dados. Pode haver considerável degradação do desempenho da rede.

2.1.6 Comparação entre os roteamentos distance vector e link-state

Todos os protocolos de vetor de distância aprendem as rotas e as enviam aos vizinhos diretamente conectados. Por outro lado, os roteadores link-state anunciam os estados de seus links a todos os outros roteadores da área para que cada roteador possa criar um banco de dados completo de link-states. Esses anúncios são chamados de anúncios de link-state ou LSAs. Diferentemente dos roteadores de vetor de distância, os roteadores link-state podem formar relacionamentos especiais com seus vizinhos e outros roteadores link-state. Isso serve para garantir que as informações dos LSAs são trocadas de maneira correta e eficiente.

A inundação inicial de LSAs fornece aos roteadores as informações de que eles necessitam para criar um banco de dados de link-states. As atualizações de roteamento ocorrem somente quando a rede muda. Se não há alterações, as atualizações de roteamento ocorrem após um determinado intervalo. Se a rede muda, uma atualização parcial é enviada imediatamente. A atualização parcial só contém informações sobre os links que mudaram. Os administradores de rede preocupados com a utilização do link da WAN perceberão que essas atualizações parciais e esporádicas são uma alternativa eficiente aos protocolos de roteamento distance vector, que enviam uma tabela de roteamento completa a cada 30 segundos. Quando ocorre uma alteração, todos os roteadores link-state são avisados simultaneamente pela atualização parcial. Os roteadores de vetor de distância esperam até que os vizinhos percebam a mudança, implementem-na e lhes enviem a atualização.

Page 33: Cisco CCNA Modulo03

33

As vantagens dos protocolos link-state em relação aos protocolos distance vector são a convergência mais rápida e a melhor utilização da largura de banda. Os protocolos link-state suportam CIDR e VLSM. Isso os torna uma boa opção para redes complexas e escaláveis. Na verdade, os protocolos link-state geralmente superam em desempenho os protocolos distance vector em redes de qualquer tamanho. Os protocolos link-state não são implementados em todas as redes porque exigem mais memória e poder de processamento do que os protocolos distance vector e podem sobrecarregar equipamentos mais lentos. Outro motivo para que não sejam implementados mais amplamente é o fato de serem bastante complexos. Os protocolos de roteamento link-state exigem administradores bem treinados para configurá-los e mantê-los corretamente.

Esta página conclui esta lição. A próxima lição irá apresentar um protocolo de roteamento link-state chamado OSPF. A primeira página irá oferecer uma visão geral.

2.2 Conceitos do OSPF com uma única área (Single-Area OSPF) 2.2.1 Visão geral do OSPF

Esta página irá apresentar o OSPF. OSPF é um protocolo de roteamento link-state que se baseia em padrões abertos. Está descrito em diversos padrões da IETF (Internet Engineering Task Force). A letra inicial O de OSPF vem de "open" e significa que é um padrão aberto ao público e não proprietário.

O OSPF, quando comparado com o RIP v1 e v2, é o IGP preferido, visto que pode ser escalado. O RIP é limitado a 15 saltos, converge lentamente e às vezes escolhe rotas lentas, pois ignora fatores críticos, tais como a largura de banda, na determinação das rotas. Uma desvantagem de usar o OSPF é que ele só suporta protocolos baseados em TCP/IP. O OSPF superou essas limitações e é um protocolo de roteamento robusto e escalável, adequado às redes modernas. O OSPF pode ser usado e configurado como uma única área para redes pequenas. Também pode ser usado para redes grandes.

Page 34: Cisco CCNA Modulo03

34

Conforme mostrado na figura , grandes redes OSPF usam um projeto hierárquico. Várias áreas se conectam a uma área de distribuição, ou área 0, que também é chamada de backbone. A abordagem do projeto permite extenso controle das atualizações de roteamento. A definição da área reduz a sobrecarga de roteamento, acelera a convergência, confina a instabilidade da rede a uma área e melhora o desempenho.

2.2.2 Terminologia OSPF

Os roteadores link-state identificam os roteadores vizinhos e então se comunicam com eles. O OSPF tem sua própria terminologia. Os novos termos estão mostrados na figura .

O OSPF reúne informações dos roteadores vizinhos sobre o estado do link de cada roteador OSPF. Essa informação é despejada para todos os seus vizinhos. Um roteador OSPF anuncia os estados de seus próprios links e repassa os estados de links recebidos.

Os roteadores processam as informações sobre os link-states e criam um banco de dados de link-states. Cada roteador da área OSPF tem o mesmo banco de dados de link-states. Portanto, cada roteador tem as mesmas informações sobre o estado dos links e dos vizinhos de todos os outros roteadores.

Page 35: Cisco CCNA Modulo03

35

Em seguida, cada roteador aplica o algoritmo SPF em sua própria cópia do banco de dados. Esse cálculo determina a melhor rota até um destino. O algoritmo SPF aumenta o custo, que é um valor geralmente baseado na largura de banda. O caminho de menor custo é adicionado à tabela de roteamento, que também é conhecida como banco de dados de encaminhamento (forwarding database).

Cada roteador mantém uma lista dos vizinhos adjacentes, chamada de banco de dados de adjacências. O banco de dados de adjacências é uma lista de todos os roteadores vizinhos com os quais um roteador estabeleceu comunicação bidirecional. Ele é exclusivo de cada roteador.

Para reduzir a quantidade de trocas de informações de roteamento entre vários vizinhos na mesma rede, os roteadores OSPF elegem um roteador designado, ou designated router (DR), e um roteador designado de backup, ou backup designated router (BDR), que atuam como pontos focais para a troca de informações de roteamento

2.2.3 Comparação entre o OSPF e os protocolos de roteamento distance vector

Esta página irá explicar as diferenças entre o OSPF e os protocolos distance vector tais como o RIP. Os roteadores link-state mantêm uma imagem comum da rede e trocam informações sobre links após a descoberta inicial ou após mudanças na rede. Os roteadores link-state não enviam tabelas de roteamento em broadcasts periodicamente como os protocolos distance vector. Portanto, os roteadores link-state usam menos largura de banda para a manutenção da tabela de roteamento.

O RIP é apropriado para redes pequenas, e o melhor caminho se baseia no menor número de saltos. O OSPF é apropriado para redes grandes que podem ser escaladas, e o melhor caminho é determinado pela velocidade do link. O RIP e outros protocolos distance vector usam algoritmos simples para computar os melhores caminhos. O algoritmo SPF é complexo. Os roteadores que implementam protocolos distance vector precisam de menos memória e de processadores menos poderosos do que os que implementam OSPF.

O OSPF seleciona as rotas com base no custo, que está relacionado à velocidade. Quanto maior a velocidade, menor o custo OSPF do link.

Page 36: Cisco CCNA Modulo03

36

O OSPF seleciona o caminho mais rápido sem loop a partir da árvore SPF como sendo o melhor caminho da rede.

O OSPF garante um roteamento sem loops. Os protocolos distance vector podem causar loops de roteamento.

Se os links estiverem instáveis, a inundação de informações de link-state pode levar a anúncios de link-state não-sincronizados e a decisões inconsistentes entre os roteadores.

O OSPF trata os seguintes problemas:

• Velocidade de convergência; • Suporte a VLSM (máscaras de sub-rede com tamanho variável); • Tamanho da rede; • Seleção de caminhos; • Agrupamento de membros.

Em grandes redes, a convergência do RIP pode levar vários minutos, já que a tabela de roteamento de cada roteador é copiada e compartilhada com os roteadores conectados diretamente. Após a convergência inicial do OSPF, manter um estado convergente é mais rápido, pois apenas as alterações da rede são despejadas para outros roteadores de uma área.

O OSPF suporta VLSMs e, por isso, é chamado de protocolo classless. O RIP v1 não suporta VLSMs, mas o RIP v2 suporta.

O RIP considera uma rede que esteja a mais de 15 roteadores de distância como inalcançável, pois a quantidade de saltos é limitada a 15. Isso limita o RIP a topologias pequenas. O OSPF não tem limite de tamanho e é adequado para redes médias a grandes.

O RIP seleciona o caminho até uma rede adicionando 1 à contagem de saltos relatada por um vizinho. Ele compara a quantidade de saltos até um destino e seleciona o caminho com a menor distância, ou menor número de saltos. Esse algoritmo é simples e não requer um roteador poderoso nem uma grande quantidade de memória. O RIP não leva em conta a largura de banda disponível na determinação do melhor caminho.

O OSPF seleciona um caminho usando custo, uma métrica baseada na largura de banda. Todos os roteadores OSPF precisam obter informações completas sobre as redes de cada roteador para calcular o caminho mais curto. Esse algoritmo é complexo. Portanto, o OSPF requer roteadores mais poderosos e mais memória do que o RIP.

O RIP usa uma topologia linear. Os roteadores de uma região RIP trocam informações com todos os roteadores. O OSPF usa o conceito de áreas. Uma rede pode ser subdividida em grupos de roteadores. Dessa maneira, o OSPF pode limitar o tráfego a essas áreas. Alterações em uma área não afetam o desempenho em outras áreas. Essa abordagem hierárquica permite que uma rede aumente em escala de maneira eficiente.

2.2.4 Algoritmo do caminho mais curto

Esta página irá explicar como o OSPF usa o algoritmo do caminho mais curto primeiro (Shortest Path First) para determinar o melhor caminho até um destino.

Page 37: Cisco CCNA Modulo03

37

Nesse algoritmo, o melhor caminho é o caminho com menor custo. O algoritmo foi desenvolvido por Dijkstra, um cientista da computação holandês, e foi explicado em 1959. O algoritmo considera uma rede como um conjunto de nós conectados por links ponto-a-ponto. Cada link tem um custo. Cada nó tem um nome. Cada nó tem um banco de dados completo de todos os links e, assim, são conhecidas todas as informações sobre a topologia física. Todos os bancos de dados de link-states, dentro de uma determinada área, são idênticos. A tabela da figura mostra as informações recebidas pelo nó D. Por exemplo, D recebeu informações de que estava conectado ao nó C com um link de custo 4 e ao nó E com um link de custo 1.

Então, o algoritmo do menor caminho calcula uma topologia sem loops usando o nó como ponto de partida e examinando as informações que tem sobre os nós adjacentes.

Na figura , o nó B calculou o melhor caminho até D. O melhor caminho até D é passando pelo nó E, que tem custo 4. Essa informação é convertida em uma entrada de rota em B, que encaminhará o tráfego para C. Os pacotes destinados a D vindos de B passarão de B para C, de C para E e de E para D nessa rede OSPF.

No exemplo, o nó B determinou que para chegar ao nó F o menor caminho tem custo 5, através do nó C. Todas as outras possíveis topologias ou terão loops ou caminhos com custos mais altos

Page 38: Cisco CCNA Modulo03

38

2.2.5 Tipos de rede OSPF

É necessária uma relação de vizinhança para que os roteadores OSPF compartilhem informações de roteamento. Um roteador tentará se tornar adjacente, ou vizinho, de pelo menos um outro roteador em cada rede IP ao qual estiver conectado. Os roteadores OSPF determinam os roteadores se tornam adjacentes com base no tipo de rede à qual estão conectados. Alguns roteadores podem tentar ficar adjacentes a todos os seus roteadores vizinhos. Outros roteadores podem tentar ficar adjacentes a apenas um ou dois de seus vizinhos. Uma vez formada uma adjacência entre vizinhos, são trocadas informações de link-state.

As interfaces OSPF reconhecem automaticamente três tipos de redes:

• Multiacesso com broadcast, como a Ethernet; • Redes ponto-a-ponto; • Multiacesso sem broadcast (NBMA), como Frame Relay.

Um quarto tipo, ponto-a-multiponto, pode ser configurado manualmente em uma interface por um administrador.

Em uma rede multiacesso, não se sabe antecipadamente quantos roteadores serão conectados. Em redes ponto-a-ponto, somente dois roteadores podem ser conectados.

Em um segmento de rede multiacesso com broadcast, muitos roteadores podem ser conectados. Se cada roteador estabelecesse adjacência completa com todos os outros roteadores e trocasse informações de link-state com todos os vizinhos, haveria uma grande sobrecarga. Se houvesse 5 roteadores, seriam necessárias 10 relações de adjacência e seriam enviados 10 link-states. Se houvesse 10 roteadores, seriam necessárias 45 adjacências. Em geral, para n roteadores, n*(n-1)/2 adjacências precisam ser formadas. A solução para essa sobrecarga é eleger um roteador designado (DR). Esse roteador fica adjacente a todos os outros roteadores no segmento de broadcast. Todos os outros roteadores do segmento enviam suas informações de link-state para o DR. Este, por sua vez, age como porta-voz do segmento.

Page 39: Cisco CCNA Modulo03

39

O DR envia informações de link-state para todos os outros roteadores do segmento usando o endereço de multicast 224.0.0.5 para todos os roteadores OSPF.

Apesar do ganho de eficiência fornecido pela eleição de um DR, há uma desvantagem. O DR representa um único ponto de falha. Elege-se um segundo roteador como roteador designado de backup (BDR), para assumir as funções do DR se ele falhar. Para garantir que tanto o DR quanto o BDR verão os link-states enviados por todos os roteadores do segmento, usa-se o endereço de multicast de todos os roteadores designados, 224.0.0.6.

Em redes ponto-a-ponto, existem apenas dois nós e não há eleição de DR nem de BDR. Os dois roteadores se tornam completamente adjacentes um do outro.

2.2.6 Protocolo Hello do OSPF

Quando um roteador inicia um processo de roteamento OSPF em uma interface, ele envia um pacote hello e continua a enviá-lo a intervalos regulares. As regras que regem a troca de pacotes hello no OSPF são chamadas de protocolo Hello.

Na camada 3 do modelo OSI, os pacotes hello são endereçados ao endereço de multicast 224.0.0.5. Esse endereço significa "todos os roteadores OSPF". Os roteadores OSPF usam os pacotes hello para iniciar novas adjacências e para garantir que os roteadores vizinhos ainda estão funcionando. Por padrão, são enviados hellos a cada 10 segundos em redes multiacesso com broadcast e ponto-a-ponto. Em interfaces que se conectam a redes NBMA, como Frame Relay, o tempo padrão é de 30 segundos.

Em redes multiacesso, o protocolo Hello elege um roteador designado (DR) e um roteador designado de backup (BDR).

Embora o pacote hello seja pequeno, ele consiste no cabeçalho do pacote OSPF. Para o pacote hello, o campo tipo é definido como 1.

O pacote hello carrega informações sobre as quais todos os vizinhos devem concordar antes de formar uma adjacência e trocar informações de link-state.

Page 40: Cisco CCNA Modulo03

40

2.2.7 Etapas da operação do OSPF

Quando um roteador inicia um processo de roteamento OSPF em uma interface, ele envia um pacote hello e volta a enviá-lo a intervalos regulares. O conjunto de regras que regem a troca de pacotes hello no OSPF é chamado de protocolo Hello. Em redes multiacesso, o protocolo Hello elege um roteador designado (DR) e um roteador designado de backup (BDR). O hello carrega informações sobre as quais todos os vizinhos devem concordar para formar uma adjacência e trocar informações de link-state. Em redes multiacesso, o DR e o BDR mantêm adjacências com todos os outros roteadores OSPF da rede.

Roteadores adjacentes passam por uma seqüência de estados. Eles precisam estar no estado full state para que as tabelas de roteamento sejam criadas e o tráfego seja roteado. Cada roteador envia anúncios de link-state (LSAs) em pacotes de atualização de link-state (LSUs). Esses LSAs descrevem os links de todos os roteadores. Cada roteador que recebe um LSA de seu vizinho grava esse LSA no banco de dados de link-states. Esse processo é repetido para todos os roteadores da rede OSPF.

Page 41: Cisco CCNA Modulo03

41

Quando os bancos de dados estão completos, cada roteador usa o algoritmo SPF para calcular uma topologia lógica sem loops para cada rede conhecida. Para construir essa topologia, usa-se o caminho mais curto com o menor custo, selecionando-se assim a melhor rota.

A partir desse momento, as informações de roteamento são mantidas. Quando há uma alteração no estado de um link, os roteadores usam um processo de inundação para avisar os outros roteadores da rede sobre ela. O dead interval do protocolo Hello fornece um mecanismo simples para determinar se um vizinho adjacente está inoperante.

2.3 Configuração do OSPF com uma única área (Single-area OSPF) 2.3.1 Configuração do processo de roteamento OSPF

O roteamento OSPF usa o conceito de áreas. Cada roteador contém um banco de dados de link-states de uma área específica. Uma área da rede OSPF pode receber qualquer número de 0 a 65.535. Entretanto, uma única área recebe o número 0 e é conhecida como área 0. Em redes OSPF com mais de uma área, todas as áreas precisam se conectar à área 0. A área 0 também é chamada de área backbone.

Page 42: Cisco CCNA Modulo03

42

A configuração do OSPF requer que o processo de roteamento OSPF esteja ativado no roteador com os endereços de rede e as informações da área especificados. Os endereços de rede são configurados com uma máscara curinga e não com uma máscara de sub-rede. A máscara curinga representa os links ou endereços de host que podem estar presentes nesse segmento. O ID da área pode ser escrito como um número inteiro ou em notação decimal com pontos.

Para ativar o roteamento OSPF, use a sintaxe do comando de configuração global:

Router(config)#router ospf id-do-processo

O ID do processo é um número usado para identificar um processo de roteamento OSPF no roteador. Vários processos OSPF podem ser iniciados no mesmo roteador. O número pode ser qualquer valor entre 1 e 65.535. A maioria dos administradores de rede mantém o mesmo ID de processo em todo um sistema autônomo, mas isso não é obrigatório. Raramente é necessário executar mais do que um processo OSPF em um roteador. As redes IP são anunciadas da seguinte forma no OSPF:

Router(config-router)#network endereço máscara-curinga area id-da-área

Cada rede deve ser identificada com a área à qual pertence. O endereço de rede pode ser uma rede inteira, uma sub-rede ou o endereço da interface. A máscara curinga representa o conjunto de endereços de host que o segmento suporta. Ela é diferente da máscara de sub-rede, que é usada ao configurar endereços IP em interfaces.

2.3.2 Configuração do endereço de loopback e da prioridade do roteador no OSPF

Quando o processo OSPF se inicia, o Cisco IOS usa o maior endereço IP local que esteja ativo como o ID do roteador OSPF. Se não houver uma interface ativa, o processo OSPF não será iniciado. Se a interface ativa ficar inoperante, o processo OSPF não tem um ID do roteador e, portanto, pára de funcionar até que a interface fique operante novamente.

Para garantir a estabilidade do OSPF, deve haver uma interface ativa para o processo OSPF o tempo todo. Uma interface de loopback, que é uma interface lógica, pode ser configurada para essa finalidade. Quando se configura uma interface de loopback, o OSPF usa esse endereço como ID do roteador, independentemente do valor. Em um roteador com mais de uma interface de loopback, o OSPF toma o maior endereço IP de loopback como o ID do roteador.

Para criar e atribuir um endereço IP a uma interface de loopback, use os seguintes comandos:

Router(config)#interface loopback número Router(config-if)#ip address endereço-IP máscara-de-sub-rede

É considerado prática recomendável usar interfaces de loopback para todas as rotas que executem OSPF. Essa interface de loopback deve ser configurada com um endereço usando uma máscara de sub-rede de 32 bits igual a 255.255.255.255. Uma máscara de sub-rede de 32 bits é chamada de máscara de host, pois a máscara de sub-rede especifica uma rede de um host. Quando o OSPF recebe uma solicitação para anunciar uma rede de loopback, ele sempre anuncia o loopback como uma rota de host com uma máscara de 32 bits.

Page 43: Cisco CCNA Modulo03

43

Em redes multiacesso com broadcast, pode haver mais de dois roteadores. O OSPF elege um roteador designado (DR) para ser o foco de todas as atualizações de link-states e de todos os anúncios de link-states. Como o papel do DR é crucial, elege-se um roteador designado de backup (BDR) para assumir se o DR falhar.

Se o tipo de rede de uma interface for broadcast, a prioridade padrão do OSPF é 1. Quando as prioridades OSPF são iguais, a eleição do DR é decidida pelo ID do roteador. O roteador de maior ID é selecionado.

O resultado da eleição pode ser determinado garantindo-se que as urnas, os pacotes hello, contêm uma prioridade para essa interface do roteador. A interface que relata a maior prioridade para um roteador garante que ele se torne o DR.

As prioridades podem ser definidas com qualquer valor entre 0 e 255. Um valor 0 impede que um roteador seja eleito. Um roteador com a prioridade OSPF mais alta será escolhido para DR. Um roteador com a segunda prioridade OSPF mais alta será o BDR. Após o processo de eleição, o DR e o BDR retêm suas funções mesmo se forem adicionados à rede roteadores com valores mais altos de prioridade OSPF.

Para modificar a prioridade OSPF, digite o comando de configuração da interface global ip ospf priority em uma interface que esteja participando do OSPF. O comando show ip ospf interface exibe o valor de prioridade da interface, assim como outras informações importantes.

Router(config-if)#ip ospf priority número Router#show ip ospf interface tipo número

2.3.3 Modificação da métrica de custo do OSPF

O OSPF usa o custo como métrica para determinar a melhor rota. Um custo está associado ao lado da saída de cada interface do roteador. Os custos também estão associados a dados de roteamento derivados externamente. Em geral, o custo do caminho é calculado usando a fórmula [10^8/ largura de banda] , onde a largura de banda é expressa em bps. O administrador de sistemas também pode configurar o custo por outros métodos. Quanto menor o custo, maior a probabilidade de que a interface seja usada para encaminhar tráfego de dados. O Cisco IOS determina automaticamente o custo com base na largura de banda da interface. Para a operação correta do OSPF, é essencial definir a largura de banda correta da interface.

Page 44: Cisco CCNA Modulo03

44

Router(config)#interface serial 0/0 Router(config-if)#bandwidth 56

O custo pode ser alterado para influenciar no resultado do cálculo do custo OSPF. Uma situação comum que requer uma alteração de custo é um ambiente com roteadores de diferentes fabricantes. Uma alteração de custo pode garantir que o valor de custo de um fabricante seja igual ao valor de custo de outro fabricante. Outra situação é quando se usa Gigabit Ethernet. O custo padrão atribui o menor valor de custo (1) a um link de 100 Mbps. Em uma situação com Ethernet de 100 Mbps e 1 Gigabit, os valores de custo padrão podem fazer com que o roteamento tome um caminho menos desejável, a menos que sejam ajustados. O número do custo pode ficar entre 1 e 65.535.

Use o seguinte comando de configuração da interface para definir o custo do link:

Router(config-if)#ip ospf cost número 2.3.4 Configuração da autenticação do OSPF

Por padrão, um roteador confia que as informações de roteamento estão vindo do roteador que deveria estar enviando essas informações. Um roteador também confia em que as informações não foram violadas ao longo da rota.

Para garantir essa confiança, os roteadores de uma área específica podem ser configurados para autenticarem um ao outro.

Cada interface OSPF pode apresentar uma chave de autenticação que será usada pelos roteadores que enviarem informações OSPF para outros roteadores do segmento. A chave de autenticação, conhecida como senha, é um segredo compartilhado entre os roteadores. Essa chave é usada para gerar os dados de autenticação no cabeçalho do pacote OSPF. A senha pode ter até oito caracteres. Use a seguinte sintaxe de comando para configurar a autenticação do OSPF:

Router(config-if)#ip ospf authentication-key senha

Após configurada a senha, a autenticação precisa ser ativada:

Router(config-router)#area número-da-área authentication

Com autenticação simples, a senha é enviada como texto puro. Isso significa que pode ser facilmente decodificada se um sniffer de pacotes capturar um pacote OSPF.

É recomendável que as informações de autenticação sejam criptografadas. Para enviar informações de autenticação criptografadas e garantir maior segurança, usa-se a palavra-chave message-digest. A palavra-chave MD5 especifica o tipo de algoritmo hashing de message-digest a ser usado. Além disso, há o campo de tipo de criptografia, onde 0 significa nenhum e 7 significa proprietário.

Use a sintaxe do modo de comando de configuração da interface:

Page 45: Cisco CCNA Modulo03

45

Router(config-if)#ip ospf message-digest-key id-da-chave md5 tipo-de-criptografia chave

O id-da-chave é um identificador e assume um valor no intervalo de 1 a 255. A chave é uma senha alfanumérica de até 16 caracteres. Roteadores vizinhos precisam usar o mesmo identificador de chave com o mesmo valor de chave.

O comando a seguir é configurado no modo de configuração do roteador:

Router(config-router)#area id-da-área authentication message-digest

A autenticação MD5 cria um resumo compilado da mensagem (message digest). Um resumo compilado de uma mensagem é composto de dados embaralhados gerado com base na senha e no conteúdo do pacote. O roteador receptor usa a senha compartilhada e o pacote para recalcular a mensagem. Se as mensagens coincidirem, o roteador acredita que a origem e o conteúdo do pacote não foram violados. O tipo de autenticação identifica qual é a autenticação que está sendo usada, se houver. No caso da autenticação message-digest, o campo de dados de autenticação contém o ID da chave e o comprimento do resumo compilado da mensagem (digest) que é acrescentada ao pacote. O resumo compilado da mensagem (digest) é como uma marca d'água que não pode ser falsificada.

2.3.5 Configuração dos temporizadores do OSPF

Os roteadores OSPF precisam ter os mesmos hello intervals e os mesmos dead intervals para trocarem informações. Por padrão, o dead interval tem quatro vezes o valor do hello interval. Isso significa que um roteador tem quatro chances de enviar um pacote hello antes de ser declarado morto ou inoperante (dead).

Em redes OSPF com broadcast, o hello interval padrão é de 10 segundos e o dead interval padrão é de 40 segundos. Em redes sem broadcast, o hello interval padrão é de 30 segundos e o dead interval padrão é de 120 segundos. Esses valores padrão resultam em uma operação eficiente do OSPF e raramente precisam ser alterados.

Contudo, o administrador de rede pode escolher os valores destes temporizadores. Antes de alterar os temporizadores, deve haver uma justificativa de que o desempenho da rede OSPF será melhorado. Esses temporizadores precisam ser configurados para coincidir com os de todos os roteadores vizinhos.

Para configurar os hello intervals e dead intervals em uma interface, use os seguintes comandos:

Router(config-if)#ip ospf hello-interval segundos Router(config-if)#ip ospf dead-interval segundos

2.3.6 OSPF, propagação de uma rota padrão

O roteamento OSPF garante caminhos sem loops para todas as redes do domínio. Para alcançar redes fora do domínio, o OSPF precisa saber sobre a rede ou precisa ter uma rota padrão. Ter uma entrada para cada rede do mundo exigiria enormes recursos de cada roteador.

Uma alternativa prática é adicionar uma rota padrão até o roteador OSPF conectado à rede externa. Essa rota pode ser redistribuída para cada roteador do AS através de atualizações OSPF normais.

Uma rota padrão configurada é usada por um roteador para gerar um gateway de último recurso. A sintaxe de configuração da rota padrão estática usa o endereço de rede 0.0.0.0 e uma máscara de sub-rede 0.0.0.0:

Page 46: Cisco CCNA Modulo03

46

Router(config)#ip route 0.0.0.0 0.0.0.0 [interface | próximo-salto endereço]

Esta é denominada "rota quad-zero" ou "rota de quatro zeros", e qualquer endereço de rede se encaixa na regra a seguir. O gateway da rede é determinado pela operação AND entre o destino do pacote e a máscara de sub-rede.

A seguinte declaração de configuração propagará essa rota para todos os roteadores de uma área OSPF normal:

Router(config-router)#default-information originate

Todos os roteadores da área aprenderão uma rota padrão, desde que a interface do roteador de borda até o gateway padrão esteja ativa.

2.3.7 Problemas comuns de configuração do OSPF

Um roteador OSPF precisa estabelecer uma relação de vizinhança ou adjacência com outro roteador OSPF para trocar informações de roteamento. Uma falha em estabelecer uma relação de vizinhança é causada por qualquer dos seguintes motivos:

• Os hellos não são enviados pelos dois vizinhos. • Os temporizadores de hello interval e dead interval não são iguais. • As interfaces estão em redes de tipos diferentes. • As chaves ou senhas de autenticação são diferentes.

Page 47: Cisco CCNA Modulo03

47

No roteamento OSPF, também é importante garantir o seguinte:

• Todas as interfaces têm endereços e máscara de sub-rede corretos. • As declarações network area têm as máscaras curingas corretas. • As declarações network area colocam as interfaces na área correta.

2.3.8 Verificação da configuração do OSPF

Para verificar a configuração do OSPF, há diversos comandos show disponíveis.

A figura lista esses comandos. A figura mostra comandos úteis para solucionar problemas do OSPF.

Resumo

protocolos distance vector é a forma como eles trocam informações de roteamento. Os protocolos de roteamento link-state respondem rapidamente a alterações da rede, enviam

Page 48: Cisco CCNA Modulo03

48

triggered updates somente quando ocorre uma alteração na rede, enviam atualizações periódicas conhecidas como atualizações link-state e usam um mecanismo hello para determinar a possibilidade de alcançar os vizinhos.

Um roteador que executa um protocolo link-state usa as informações de hello e os LSAs recebidos de outros roteadores para criar um banco de dados sobre a rede. Ele também usa o algoritmo SPF (Shortest Path First) para calcular a rota mais curta para cada rede.

Para superar as limitações dos protocolos de roteamento distance vector, os protocolos de roteamento link-state usam LSAs (anúncios de link-state), um banco de dados topológico, o algoritmo SPF, uma árvore SPF resultante e uma tabela de roteamento com caminhos e portas para cada rede, a fim de determinar os melhores caminhos para os pacotes.

Um link é o mesmo que uma interface em um roteador. O estado do link é uma descrição de uma interface e da relação com seus roteadores vizinhos. Com os LSAs, os roteadores link-state anunciam os estados de seus links a todos os outros roteadores da área para que cada roteador possa criar um banco de dados completo de link-states. Eles formam relacionamentos especiais com seus vizinhos e com outros roteadores link-state. Isso os torna uma boa opção para redes complexas e escaláveis. As vantagens do roteamento link-state em relação aos protocolos distance vector são a convergência mais rápida e a melhor utilização da largura de banda. Os protocolos link-state suportam roteamento CIDR (Classless Interdomain Routing) e VLSM (Variable-length Subnet Mask).

O OSPF (Open Shortest Path First) é um protocolo de roteamento link-state baseado em padrões abertos. O "Open" do OSPF significa que ele é aberto ao público e não proprietário. Os roteadores OSPF elegem um roteador designado (DR) e um roteador designado de backup (BDR), que atuam como focos para a troca de informações de roteamento, a fim de reduzir a quantidade de trocas de informações de roteamento entre vários vizinhos na mesma rede. O OSPF seleciona as rotas com base no custo, o qual, na implementação da Cisco, está relacionado à largura de banda. O OSPF seleciona o caminho mais rápido sem loops a partir da árvore SPF como sendo o melhor caminho da rede. OSPF garante um roteamento sem loops. Os protocolos distance vector podem causar loops de roteamento. Quando um roteador inicia um processo de roteamento OSPF em uma interface, ele envia um pacote hello e volta a enviá-lo a intervalos regulares. As regras que regem a troca de pacotes hello no OSPF são chamadas de protocolo Hello. Se houver concordância com relação a todos os parâmetros dos pacotes hello do OSPF, os roteadores tornam-se vizinhos.

Cada roteador envia anúncios de link-state (LSAs) em pacotes de atualização de link-state (LSUs). Cada roteador que recebe um LSA de seu vizinho grava esse LSA no banco de dados de link-states. Esse processo é repetido para todos os roteadores da rede OSPF. Quando os bancos de dados estão completos, cada roteador usa o algoritmo SPF para calcular uma topologia lógica sem loops para cada rede conhecida. Para construir essa topologia, usa-se o caminho mais curto com o menor custo, selecionando-se assim a melhor rota.

Essas informações de roteamento são mantidas. Quando há uma alteração no estado de um link, os roteadores usam um processo de inundação para avisar os outros roteadores da rede sobre ela. O temporizador dead interval do protocolo Hello fornece um mecanismo simples para determinar se um vizinho adjacente está inoperante.

Page 49: Cisco CCNA Modulo03

49

MODULO 03 – EIGRP Visão Geral

O EIGRP é um protocolo de roteamento proprietário da Cisco que é baseado no IGRP.

O EIGRP suporta CIDR e VLSM, o que permite que os projetistas de redes maximizem o espaço de endereçamento. Comparado ao IGRP, que é um protocolo de roteamento classful, o EIGRP oferece tempos de convergência mais rápidos, melhor escalabilidade e um melhor gerenciamento de loops de roteamento.

Além do mais, o EIGRP pode substituir o Novell RIP e o AppleTalk Routing Table Maintenance Protocol (RTMP). O EIGRP serve tanto em redes IPX e AppleTalk com possante eficiência.

O EIGRP é freqüentemente descrito como um protocolo de roteamento híbrido que oferece o melhor dos algoritmos vetor de distância e link-state.

O EIGRP é um protocolo de roteamento avançado que se vale de recursos geralmente associados aos protocolos link-state. Alguns dos melhores recursos do OSPF, tais como atualizações parciais e descoberta de vizinhos, são igualmente utilizados pelo EIGRP. No entanto, o EIGRP é mais fácil de configurar que o OSPF.

O EIGRP é uma escolha ideal para redes grandes com vários protocolos baseadas principalmente em roteadores Cisco.

Este modulo cobre as tarefas mais comuns de configuração do EIGRP. A ênfase está na maneira em que o EIGRP estabelece relações com roteadores adjacentes, calcula rotas primárias e de backup e responde a falhas nas rotas conhecidas para um determinado destino.

Uma rede é composta de muitos dispositivos, protocolos e meios físicos que permitem a ocorrência de comunicação de dados. Quando um componente de rede não funciona corretamente, isso pode afetar toda a rede. De qualquer maneira, os administradores de rede precisam identificar e resolver rapidamente os problemas quando surgem. As seguintes são algumas razões pelas quais ocorrem problemas nas redes:

• Comandos são utilizados incorretamente • Listas de acesso são criadas ou colocadas incorretamente • Roteadores, switches ou outros dispositivos de rede são configurados incorretamente • Conexões físicas são defeituosas

Um administrador de rede deve identificar e resolver problemas de maneira metódica com a utilização de um método geral de resolução de problemas. É freqüentemente útil procurar primeiro problemas na camada física para depois subir através das camadas de maneira

Page 50: Cisco CCNA Modulo03

50

organizada. Embora este módulo focalize a maneira de identificar e resolver problemas nos protocolos de Camada 3, é importante identificar e eliminar quaisquer problemas que possam existir nas camadas inferiores.

Este módulo cobre alguns dos objetivos para os exames CCNA 640-801 e ICND 640-811.

Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:

• Descrever as diferenças entre o EIGRP e o IGRP • Descrever os conceitos, tecnologias e estruturas de dados mais importantes do EIGRP • Entender a convergência do EIGRP e a operação básica do Diffusing Update Algorithm

(DUAL) • Realizar a configuração básica do EIGRP • Configurar rotas EIGRP sumarizadas • Descrever o processo utilizado pelo EIGRP para criar e manter tabelas de roteamento • Verificar as operações do EIGRP • Descrever o processo geral de oito etapas para identificar e resolver problemas • Aplicar um processo lógico à identificação e resolução de problemas de roteamento • Usar os comandos show e debug para identificar e resolver problemas com RIP • Usar os comandos show e debug para identificar e resolver problemas com o IGRP • Usar os comandos show e debug para identificar e resolver problemas com o EIGRP • Usar os comandos show e debug para identificar e resolver problemas com o OSPF

3.1 EIGRP 3.1.1 Comparando o EIGRP e o IGRP

A Cisco lançou o EIGRP em 1994 como versão melhorada e escalável do seu protocolo de roteamento de vetor de distância, o IGRP. Esta página irá explicar como o EIGRP e o IGRP se comparam. A tecnologia de vetor de distância e as informações de distâncias utilizadas pelo IGRP são também usadas pelo EIGRP.

O EIGRP possui propriedades de convergência melhoradas e opera com mais eficiência do que o IGRP. Isso permite que uma rede tenha uma arquitetura melhorada, mantendo o investimento já feito no IGRP.

As comparações entre o EIGRP e o IGRP cabem dentro das seguintes categorias principais:

• Modo de compatibilidade • Cálculo da métrica • Contagem de saltos • Redistribuição automática de protocolos • Route tagging

O IGRP e o EIGRP são compatíveis um com o outro. Esta compatibilidade proporciona uma interoperabilidade transparente de roteadores que utilizam IGRP. Isto é importante porque os usuários podem valer-se das vantagens de ambos os protocolos. O EIGRP oferece suporte de vários protocolos, mas o IGRP não.

O EIGRP e o IGRP calculam suas métricas de forma um pouco diferente. O EIGRP multiplica a métrica do IGRP por um fator de 256. Isso é porque o EIGRP utiliza uma métrica de 32 bits e o IGRP utiliza uma métrica de 24 bits. O EIGRP pode multiplicar ou dividir por 256 para facilmente trocar informações com o IGRP.

O IGRP possui uma contagem máxima de saltos de 255. O EIGRP tem um limite máximo de contagem de saltos de 224. Isso é mais que suficiente para suportar redes de grande porte apropriadamente projetadas.

Page 51: Cisco CCNA Modulo03

51

Permitir que protocolos de roteamento tão diferentes quanto o OSPF e o RIP compartilhem informações exige uma configuração avançada. A redistribuição ou compartilhamento de rotas é automático entre o IGRP e o EIGRP contanto que ambos os processos usem o mesmo número AS.

Na Figura , o RTB automaticamente redistribui rotas aprendidas por EIGRP para o AS do IGRP e vice-versa. O EIGRP marca como externas as rotas aprendidas por IGRP ou vindas de qualquer fonte externa porque estas rotas não são oriundas de roteadores que utilizam o EIGRP. IGRP não pode diferenciar entre rotas internas e externas.

Note que na saída do comando show ip route para os roteadores na Figura

As rotas EIGRP são marcada com D e as rotas externas são identificadas por EX. RTA identifica a diferença entre a rede 172.16.0.0, que foi aprendida através do EIGRP e a rede 192.168.1.0 que foi redistribuída a partir do IGRP. Na tabela RTC, o protocolo IGRP não faz tal distinção. O RTC, que usa somente o IGRP, enxerga apenas as rotas IGRP, independentemente do fato de que tanto 10.1.1.0 como 172.16.0.0 foram redistribuídas a partir do EIGRP.

Page 52: Cisco CCNA Modulo03

52

3.1.2 Conceitos e terminologia do EIGRP

Esta página irá tratar das três tabelas utilizadas pelo EIGRP para armazenar informações sobre a rede.

Os roteadores que utilizam o EIGRP mantêm informações sobre rotas e topologia prontamente disponíveis em RAM para que possam reagir rapidamente a mudanças. Como o OSPF, o EIGRP guarda essas informações em várias tabelas e bancos de dados.

O EIGRP guarda rotas aprendidas de maneira específica. As rotas recebem um determinado status e podem ser marcadas para fornecer outras informações úteis.

As seguintes três tabelas são mantidas pelo EIGRP:

• Tabela de vizinhos • Tabela de topologia • Tabela de roteamento

A tabela de vizinhos é a tabela mais importante do EIGRP. Cada roteador EIGRP mantém uma tabela de vizinhos que lista os roteadores adjacentes. Essa tabela é comparável ao banco de dados de adjacências utilizado pelo OSPF. Existe uma tabela de vizinhos para cada protocolo suportado pelo EIGRP.

Quando novos vizinhos são descobertos, o endereço e a interface do vizinho são registrados. Estas informações são armazenadas na estrutura de dados referente ao vizinho. Quando um vizinho envia um pacote de hello, ele anuncia um hold time (tempo de retenção). O hold time é o período de tempo em que um roteador trata um vizinho como alcançável e operacional. Se um pacote de hello não for recebido dentro do hold time, este hold time expirará. Ao expirar o hold time, o Diffusing Update Algorithm (DUAL), que é o algoritmo de vetor de distância do EIGRP, recebe notificação da mudança na topologia e precisa recalcular a nova topologia.

A tabela de topologia consiste em todas as tabelas de roteamento EIGRP no sistema autônomo. O DUAL utiliza as informações fornecidas pela tabela de vizinhos e pela tabela de topologia e calcula as rotas de menor custo para cada destino. O EIGRP mantém estas informações de modo que os roteadores que utilizam o EIGRP possam identificar e comutar rapidamente para rotas alternativas. As informações que o roteador aprende do DUAL são utilizadas para determinar a rota sucessora (successor route)que é o termo usado para identificar a rota primária ou a melhor rota. Essas informações também são inseridas na tabela de topologia. Os roteadores que utilizam o EIGRP mantêm uma tabela de topologia para cada protocolo de rede configurado. Todas as rotas aprendidas para cada destino são mantidas na tabela de topologia.

Os campos da tabela de topologia são os seguintes:

• Feasible distance (FD) – Esta é a menor métrica calculada para cada destino. Por exemplo, a feasible distance (distância viável) até 32.0.0.0 é 2195456.

• Route source – O número de identificação do roteador que originalmente anunciou essa rota. Esse campo só está preenchido em rotas externas à rede EIGRP. O route tagging pode ser útil quando for utilizado roteamento baseado em diretivas. Por exemplo, a origem da rota até 32.0.0.0 é 200.10.10.10 através de 200.10.10.10.

• Reported distance (RD) – A distância relatada por um vizinho adjacente para um destino específico. Por exemplo, a reported distance para 32.0.0.0 é 281600 como indicado em (2195456/281600).

• Interface information – A interface através da qual o destino pode ser alcançado. • Route status –O status de uma rota. As rotas são identificadas como sendo passivas,

que significa que a rota é estável e pronta para ser usada, ou ativa, que significa que a rota está no processo de ser recomputada pelo DUAL.

Page 53: Cisco CCNA Modulo03

53

A tabela de roteamento EIGRP contém as melhores rotas até cada destino. Estas informações são geradas a partir da tabela de topologia. Os roteadores que utilizam o EIGRP mantêm uma tabela de roteamento para cada protocolo de rede.

Um successor route é uma rota selecionada como rota primária para alcançar um destino. O DUAL identifica essa rota a partir das informações contidas nas tabelas de vizinhos e de topologia e as coloca na tabela de roteamento. Podem existir até quatro successor routes para qualquer determinado destino. Essas podem ser de custo igual ou desigual e são identificadas como os melhores caminhos livres de loops até um dado destino.

Uma feasible successor (FS) é uma rota de reserva.

Essas rotas são identificadas ao mesmo tempo que as successor routes, mas essas rotas só ficam guardadas na tabela de topologia. Podem ser retidas na tabela de topologia várias feasible successors para um destino mas isso não é obrigatório.

Page 54: Cisco CCNA Modulo03

54

Um roteador enxerga as feasible successors como próximos vizinhos, ou seja, mais perto do destino do que ele mesmo. O custo de uma feasible successor é computado de acordo com o custo anunciado pelo roteador vizinho até o destino. Se uma successor route se tornar inativa, o roteador procurará uma feasible successor já identificada. Essa rota será promovida ao status de successor route. Uma feasible successor precisa possuir um custo anunciado inferior ao custo atual da successor route até o destino. Se uma feasible successor não for identificada a partir das informações atuais, o roteador colocará a rota com o status Ativo e enviará pacotes de solicitação para todos os vizinhos de modo a computar a topologia atual. O roteador pode identificar qualquer nova successor route ou feasible successor dentre os novos dados recebidos nos pacotes de resposta (Reply) relativos às solicitações realizadas. O roteador então colocará um status Passivo na rota.

A tabela de topologia pode registrar informações adicionais sobre cada rota. O EIGRP classifica as rotas como internas ou externas. O EIGRP acrescenta um route tag em cada rota para identificar a sua classificação. As rotas internas se originam dentro do AS do EIGRP.

As rotas externas se originam fora do AS do EIGRP. As rotas aprendidas ou redistribuídas de outros protocolos de roteamento tais como o RIP, o OSPF e o IGRP, são externas. As rotas estáticas que se originam fora do AS do EIGRP são externas. O route tag pode ser configurado como número entre 0 e 255 para personalizar o route tag.

3.1.3 Características do projeto do EIGRP

Esta página irá descrever algumas das características de um projeto EIGRP.

O EIGRP opera bastante diferente do IGRP. O EIGRP é um protocolo avançado de vetor de distância, mas também age como protocolo link-state na maneira em que ele atualiza os vizinhos e como mantêm informações de roteamento. A seguir são apresentadas as vantagens do EIGRP sobre os protocolos de vetor de distância mais simples.

• Convergência rápida • Utilização eficiente da largura de banda • Suporte para VLSM e CIDR • Suporte para várias camadas de rede • Não depende dos protocolos roteados

Page 55: Cisco CCNA Modulo03

55

Os protocol-dependent modules (PDMs) protegem o EIGRP contra revisões muito longas. A evolução de protocolos roteados, tais como IP, poderão exigir um novo módulo de protocolo, mas não necessariamente uma revisão do EIGRP propriamente dito.

Os roteadores que utilizam o EIGRP têm convergência rápida porque se valem do DUAL. O DUAL garante uma operação livre de loops durante uma computação de rota que permita que todos os roteadores envolvidas em uma mudança de topologia sincronizem simultaneamente.

O EIGRP envia atualizações parciais e limitadas e utiliza eficientemente a largura de banda. O EIGRP utiliza o mínimo de largura de banda quando a rede está estável. Os roteadores que utilizam o EIGRP não enviam as tabelas inteiras, mas enviam atualizações parciais e incrementais. Esta operação é semelhante à do OSPF, exceto que os roteadores que utilizam o EIGRP enviam essas atualizações parciais somente aos roteadores que precisam das informações e não a todos os roteadores dentro de uma área. Por esta razão, são denominadas atualizações limitadas. Em lugar de atualizações de roteamento temporizadas, os roteadores que utilizam o EIGRP utilizam pequenos pacotes de hello para manter o contato entre si. Embora sejam trocados regularmente, os pacotes de hello não ocupam uma grande quantidade de largura de banda.

O EIGRP suporta IP, IPX e AppleTalk através de PDMs. O EIGRP pode redistribuir informações IPX-RIP e IPX SAP para melhorar o desempenho geral. De fato, o EIGRP pode assumir o papel desses dois protocolos. Os roteadores que utilizam o EIGRP recebem atualizações de roteamento e serviços e atualizam outros roteadores apenas quando ocorrem mudanças no SAP ou nas tabelas de roteamento. Nas redes que utilizam o EIGRP, as atualizações de roteamento ocorrem em atualizações parciais. O EIGRP também pode substituir o RTMP do AppleTalk. Como protocolo de roteamento de vetor de distância, o RTMP depende de trocas periódicas e completas de informações de roteamento. Para reduzir a utilização de recursos, o EIGRP usa atualizações event-driven para redistribuir informações de roteamento AppleTalk. O EIGRP também usa uma métrica composta configurável para determinar a melhor rota até uma rede AppleTalk. O RTMP utiliza a contagem de saltos, que pode resultar em um roteamento menos que ótimo. Os clientes AppleTalk esperam receber informações RTMP dos roteadores locais, de modo que o EIGRP para AppleTalk deve ser executado somente em uma rede sem clientes, tal como um link WAN.

3.1.4 Tecnologias EIGRP

Esta página irá tratar de algumas das novas tecnologias introduzidas pelo EIGRP. Cada nova tecnologia representa uma melhoria na eficiência de operação, velocidade de convergência ou funcionalidade do EIGRP com relação ao IGRP e outros protocolos de roteamento. Essas tecnologias se enquadram em uma das seguintes quatro categorias:

• Descoberta e recuperação de vizinhos • Protocolo de Transporte Confiável • Algoritmo DUAL que usa uma máquina de estado finito • Módulos dependentes do protocolo

Os roteadores que usam os simples protocolos de vetor de distância não estabelecem relações com seus vizinhos. Os roteadores que utilizam o RIP e o IGRP meramente enviam atualizações por broadcast ou multicast nas interfaces configuradas. Em contraste, os roteadores que utilizam o EIGRP ativamente estabelecem relações com seus vizinhos, de maneira muito semelhante àquela dos roteadores OSPF.

Os roteadores que utilizam o EIGRP estabelecem adjacências conforme descrito na Figura .

Page 56: Cisco CCNA Modulo03

56

Os roteadores que utilizam o EIGRP utilizam pequenos pacotes de hello para realizar isso. Os pacotes de hello são enviados por default de cinco em cinco segundos. Um roteador EIGRP supõe que, enquanto recebe pacotes de hello dos seus vizinhos conhecidos, esses vizinhos e suas rotas permaneçam viáveis ou no estado Passivo. Quando os roteadores que utilizam o EIGRP formam adjacências, é possível:

• Aprender dinamicamente novas rotas que se juntam à rede • Identificar roteadores que se tornam inalcançáveis ou inoperantes • Descobrir novamente roteadores que antes eram inalcançáveis

O Reliable Transport Protocol (RTP) é um protocolo da camada de transporte que garante a entrega de pacotes EIGRP para todos os vizinhos. Em uma rede IP, os hosts usam TCP para seqüenciar pacotes e assegurar a sua pronta entrega. No entanto, o EIGRP é independente de protocolo. Isso significa que ele não depende do TCP/IP para trocar informações de roteamento como é o caso do RIP, do IGRP e do OSPF. Para manter-se independente do TCP, o EIGRP usa o RTP como seu protocolo proprietário da camada de transporte para garantir a entrega de informações de roteamento. O EIGRP pode valer-se do RTP para providenciar serviços confiáveis ou não confiáveis conforme as exigências da situação. Por exemplo, os pacotes de hello não exigem o overhead de entrega confiável porque são freqüentes e devem permanecer pequenos. A entrega confiável de outras informações de roteamento podem até acelerar a convergência porque daí, os roteadores que utilizam o EIGRP não esperam a expiração de um temporizador antes de retransmitir.

Com o RTP, o EIGRP pode enviar multicast ou unicast simultaneamente para diferentes pares. Isso permite eficiência máxima.

O ponto forte do EIGRP é o DUAL, que é o mecanismo de cálculo de rotas do EIGRP. O nome completo dessa tecnologia é DUAL finite-state machine (FSM). Uma FSM é uma máquina de estados e não um dispositivo mecânico com peças que se movem. As FSMs definem um conjunto de possíveis estados pelos quais algo pode passar, os eventos que causam tais estados e os eventos que resultam de tais estados. Os projetistas usam FSMs para descrever como um dispositivo, programa de computador ou algoritmo de roteamento irá reagir a um conjunto de eventos especificados. A FSM do DUAL contém toda a lógica usada para calcular e comparar rotas em uma rede EIGRP.

Page 57: Cisco CCNA Modulo03

57

O DUAL rastreia todas as rotas anunciadas por vizinhos. As métricas composta de cada rota são usadas para compará-las.

O DUAL também garante que cada caminho esteja livre de loops. O DUAL insere os caminhos de menor custo na tabela de roteamento. Essas rotas primárias são conhecidas como successor routes. Uma cópia das successor routes é também colocada na tabela de topologia.

O EIGRP mantém disponíveis informações importantes sobre rotas e sobre a topologia na tabela de vizinhos e na tabela de topologia. Essas tabelas fornecem ao DUAL abrangentes informações sobre rotas por ocasião de algum distúrbio da rede. O DUAL usa as informações dessas tabelas para rapidamente selecionar rotas alternativas. Se um link for desativado, o DUAL procura uma rota alternativa, ou seja, uma feasible successor, dentro da tabela de topologia.

Uma das melhores características do EIGRP é o seu projeto modular. Os projetos modulares ou em camadas, são comprovadamente os mais escaláveis e adaptáveis. O suporte para protocolos roteados, tais como IP, IPX e AppleTalk é incluído no EIGRP através de PDMs. Teoricamente, o EIGRP pode adicionalr PDMs para uma fácil adaptação a protocolos novos ou revisados como IPv6.

Cada PDM é responsável por todas as funções relacionadas ao seu protocolo roteado específico. O módulo IP-EIGRP é responsável pelas seguintes funções:

• Enviar e receber pacotes EIGRP que contêm dados IP • Notificar o DUAL sobre novas informações de roteamento recebidas • Manter os resultados de decisões de roteamento do DUAL na tabela de roteamento IP • Redistribuir informações de roteamento que foram aprendidas por outros protocolos de

roteamento compatíveis com IP

Page 58: Cisco CCNA Modulo03

58

3.1.5 Estrutura de dados do EIGRP

Como o OSPF, o EIGRP se vale de diferentes tipos de pacotes para manter suas tabelas e estabelecer relações com roteadores vizinhos. Esta página irá descrever esses tipos de pacotes.

São cinco os tipos de pacotes EIGRP:

• Hello • Acknowledgment • Update • Query • Reply

O EIGRP depende dos pacotes de hello para descobrir, verificar e redescobrir roteadores vizinhos. A redescoberta ocorre se os roteadores que utilizam o EIGRP não recebem pacotes de hello dos seus vizinhos após um intervalo de retenção (hold time interval) e depois restabelecem comunicações.

Os roteadores que utilizam o EIGRP enviam pacotes de hello a um intervalo fixo, mas configurável, denominado intervalo de hello.

O intervalo de hello default depende da largura de banda da interface. Nas redes IP, os roteadores que utilizam o EIGRP enviam pacotes de hello ao endereço IP multicast 224.0.0.10.

Os roteadores que utilizam o EIGRP guardam informações sobre vizinhos na tabela de vizinhos. A tabela de vizinhos inclui o campo Sequence Number (Seq No) para registrar o número do último pacote EIGRP recebido de cada vizinho. A tabela de vizinhos também inclui um campo Hold Time que registra a hora em que foi recebido o último pacote. Os pacotes devem ser recebidos dentro do intervalo de Hold Time para manter um estado Passivo. O estado Passivo representa um status de alcançável e operacional.

Se o EIGRP não receber um pacote de um vizinho dentro do hold time, o EIGRP considerará aquele vizinho como inativo. O DUAL então entra em cena para reavaliar a tabela de roteamento. Por default, o hold time é três vezes o intervalo de hello, mas um administrador pode configurar ambos os temporizadores a seu próprio critério.

O OSPF exige que os roteadores vizinhos tenham os mesmos intervalos de hello e dead interval para se comunicar. O EIGRP não tem tal restrição. Os roteadores vizinhos aprendem sobre cada um dos outros temporizadores respectivos através da troca de pacotes de hello. Em seguida utilizam essas informações para formar uma relação estável independentemente dos temporizadores desiguais. Os pacotes de hello são sempre enviados como não confiáveis. Isto significa que nenhuma confirmação é transmitida.

Os roteadores que utilizam o EIGRP usam pacotes de confirmação (Acknowledgment) para indicar o recebimento de qualquer pacote EIGRP durante uma troca confiável. O RTP provê comunicação confiável entre hosts EIGRP. Uma mensagem recebida precisa ser confirmada

Page 59: Cisco CCNA Modulo03

59

pelo destino para ser confiável. Os pacotes de confirmação (Acknowledgment), que são pacotes de hello sem dados, são usados para esta finalidade. Diferentemente dos hellos multicast, os pacotes de confirmação (Acknowledgment) são unicast. Confirmações podem ser anexadas a outros tipos de pacotes EIGRP, tais como pacotes de resposta (Reply).

Os pacotes de atualização (Update) são utilizados quando um roteador descobre um novo vizinho. Os roteadores que utilizam o EIGRP enviam pacotes de atualização (Update) em unicast àquele novo vizinho para que possa ser adicionado à sua tabela de topologia. Poderá ser necessário enviar mais de um pacote de atualização (Update) para comunicar todas as informações de topologia ao vizinho recém-descoberto.

Os pacotes de atualização (Update) também são usados quando um roteador detecta uma mudança na topologia. Nesse caso, o roteador EIGRP envia um pacote de atualização (Update) em multicast a todos os vizinhos, alertando-os sobre a mudança. Todos os pacotes de atualização (Update) são enviados como confiáveis.

Um roteador EIGRP usa pacotes de consulta (Query) sempre que precise de alguma informação específica de um ou de todos os seus vizinhos. Um pacote de resposta (Reply) é usado para responder à consulta.

Se um roteador EIGRP perder o seu sucessor e não puder encontrar um feasible successor para uma rota, o DUAL coloca a rota no estado Ativo. É então enviado em multicast uma consulta a todos os vizinhos na tentativa de localizar um sucessor até a rede destino. Os vizinhos precisam enviar respostas que proporcionem informações sobre sucessores ou que indiquem a indisponibilidade de informações. As consultas podem ser em multicast ou unicast, mas as respostas sempre são em unicast. Os dois tipos de pacotes são enviados como confiáveis.

3.1.6 Algoritmo EIGRP

Esta página irá descrever o algoritmo DUAL, que proporciona a convergência excepcionalmente rápida do EIGRP. Para melhor entender a convergência com o DUAL, considere o exemplo na Figura . Cada roteador constrói uma tabela de topologia que contém informações sobre como rotear até o destino, Network A.

Cada tabela de topologia identifica as seguintes informações:

• O protocolo de roteamento ou o EIGRP • O custo mais baixo da rota, que é conhecido como feasible distance (FD) • O custo da rota conforme anunciado pelo roteador vizinho, que é conhecido como

reported distance (RD)

A coluna de Topologia identifica a rota primária denominada successor route (successor) e, quando identificada, a rota de reserva, denominada feasible successor (FS). Note que não é necessário haver uma feasible successor identificada.

A rede EIGRP segue uma seqüência de ações para permitir a convergência entre os roteadores, que atualmente possuem as seguintes informações sobre a topologia:

Page 60: Cisco CCNA Modulo03

60

• O Roteador C possui uma successor route através do Roteador B. • O Roteador C possui uma rota feasible successor através do Roteador D. • O Roteador D possui uma successor route através do Roteador B. • O Roteador D não possui rota feasible successor. • O Roteador E possui uma successor route através do Roteador D. • O Roteador E não possui feasible successor.

As regras de seleção da rota feasible successor são especificadas na Figura .

Page 61: Cisco CCNA Modulo03

61

O seguinte exemplo demonstra como cada roteador na topologia seguirá as regras de seleção de feasible successor quando a rota a partir do Roteador D através do Roteador B cair.

• No Roteador D o A rota através do Roteador B é removida da tabela de topologia. o Esta é a successor route. O Roteador D não possui rota feasible successor

identificada. o O Roteador D precisa computar novas rotas.

• No Roteador C o A rota até Network A através do Roteador D está inativa. o A rota através do Roteador D é removida da tabela. o Esta é a rota feasible successor para o Roteador C.

• No Roteador D o O Roteador D não possui feasible successor. Ele não pode comutar para uma

rota alternativa identificada como reserva. o O Roteador D precisa computar a topologia da rede. O caminho até o destino,

Network A, é definido como Ativo. o O Roteador D envia um pacote de consulta (Query) a todos os vizinhos

conectados para solicitar informações sobre a topologia. o O Roteador C tem uma entrada anterior para o Roteador D. o O Roteador D não tem uma entrada anterior para o Roteador E.

• No Roteador E o A rota até Network A através do Roteador D está inativa. o A rota através do Roteador D é removida da tabela. o Esta é a successor route para o Roteador E. o O Roteador E não tem uma feasible route identificada. o Note que o custo RD do roteamento através do Roteador C é de 3. Esse é o

mesmo custo da successor route através do Roteador D. • No Roteador C

o O Roteador E envia um pacote de consulta (Query) ao Roteador C. o O Roteador C remove o Roteador E da tabela. o O Roteador C responde ao Roteador D com uma nova rota até Network A.

• No Roteador D o O status da rota até o destino, Network A, ainda está marcado como Ativo. A

computação ainda não foi concluída.

Page 62: Cisco CCNA Modulo03

62

o O Roteador C respondeu ao Roteador D para confirmar que uma rota até o destino, Network A, está disponível com um custo de 5.

o O Roteador D ainda espera uma resposta do Roteador E. • No Roteador E

o O Roteador E não possui feasible successor para alcançar o destino, Network A.

o O Roteador E, portanto, marca o status da rota até a rede destino como Ativo. o O Roteador E precisa recomputar a topologia da rede. o O Roteador E remove a rota através do Roteador D da tabela. o O Roteador E envia um pacote de consulta (Query) ao Roteador C, para

solicitar informações sobre a topologia. o O Roteador E já possui uma entrada através do Roteador C. O seu custo é de

3, o mesmo que o da successor route. • No Roteador E

o O Roteador C responde com uma RD de 3. o O Roteador E agora pode enviar a rota através do Roteador C como a nova

successor route com uma FD de 4 e uma RD de 3. o O Roteador E troca o status Ativo da rota até o destino, Network A, por um

status Passivo. Note que a rota terá um status Passivo por default sempre que estejam sendo recebidos pacotes de hello. Neste exemplo, somente as rotas com status Ativo são marcadas.

• No Roteador E o O Roteador E envia uma resposta (Reply) ao Roteador D para informá-lo sobre

as informações de topologia do Roteador E. • No Roteador D

o O Roteador D recebe o pacote de resposta (Reply) do Roteador E. o O Roteador D introduz esses dados para a rota até o destino, Network A,

através do Roteador E. o Esta rota se torna mais uma successor route dado que o custo é idêntico

àquele do roteamento através do Roteador C e a RD é inferior ao custo FD de 5.

A convergência ocorre entre todos os roteadores que utilizam o EIGRP que utilizam o algoritmo DUAL.

3.2 Configuração do EIGRP 3.2.1 Configurando o EIGRP

Apesar da complexidade do DUAL, a configuração do EIGRP pode ser relativamente simples. Os comandos de configuração do EIGRP variam conforme o protocolo a ser utilizado. Alguns exemplo desses protocolos são IP, IPX e AppleTalk. Esta página descreve a configuração do EIGRP para o protocolo IP.

Page 63: Cisco CCNA Modulo03

63

Siga as seguintes etapas para configurar o EIGRP para IP:

1. Use o seguinte comando para ativar o EIGRP e definir o sistema autônomo:

router(config)#router eigrp autonomous-system-number

O autonomous-system-number é usado para identificar todos os roteadores cujo lugar é dentro da rede. Esse valor precisa ser igual para todos os roteadores pertencentes a uma determinada rede.

2. Indique quais redes pertencem ao sistema autônomo EIGRP no roteador local através do seguinte comando:

router(config-router)#network network-number

O network-number é o número da rede que determina quais interfaces do roteador estão participando do EIGRP e quais redes são anunciadas pelo roteador.

O comando network configura somente as redes conectadas. Por exemplo, a rede 3.1.0.0, localizada bem à esquerda da Figura principal, não está diretamente conectada ao Roteador A. Conseqüentemente, essa rede não faz parte da configuração do Roteador A.

3. Ao configurar links seriais usando o EIGRP, é importante configurar o parâmetro de largura de banda (Bandwidth) na interface. Se a largura de banda para essas interfaces não for modificada, o EIGRP assume a largura de banda default no link em vez da largura de banda verdadeira. Se o link for mais lento, o roteador talvez não possa realizar a convergência, e as atualizações de roteamento poderão ser perdidas ou poderá resultar uma seleção de caminhos que não seja ótima. Para definir a largura de banda da interface, use a seguinte sintaxe:

router(config-if)#bandwidth kbps

O comando bandwidth é só usado pelo processo de roteamento e deve ser definido para corresponder à velocidade da linha da interface.

Page 64: Cisco CCNA Modulo03

64

4. A Cisco também recomenda adicionar o seguinte comando a todas as configurações do EIGRP:

router(config-if)#eigrp log-neighbor-changes

Este comando possibilita o registro de mudanças de adjacências de vizinhos para monitorar a estabilidade do sistema de roteamento e para ajudar na detecção de problemas.

3.2.2 Configurando a sumarização do EIGRP

Esta página irá ensinar aos alunos como configurar manualmente endereços de sumarização.

O EIGRP faz automaticamente a sumarização das rotas no limite classful. Este é o limite onde termina o endereço da rede, conforme definido pelo endereçamento baseado em classe. Isso significa que embora RTC esteja conectado somente à sub-rede 2.1.1.0, ele anunciará que é conectado à rede Classe A 2.0.0.0 inteira. Na maioria dos casos, a sumarização automática é vantajosa porque mantém as tabelas de roteamento tão compactas como possível.

No entanto, a sumarização automática poderá não ser a opção preferida em certos casos. Por exemplo, se houver sub-redes não contíguas, a sumarização automática precisa ser desativada para uma operação correta do roteamento.

Para desativar a sumarização automática, use o seguinte comando:

router(config-router)#no auto-summary

Page 65: Cisco CCNA Modulo03

65

Com o EIGRP, um endereço para sumarização pode ser manualmente configurado pela configuração de uma rede de prefixo. Rotas sumarizadas manualmente são configuradas em cada interface, de modo que a interface que irá propagar a sumarização das rotas precisa ser selecionada primeiro. Depois, o endereço para sumarização poderá ser definido com o comando ip summary-address eigrp:

router(config-if)#ip summary-address eigrp autonomous-system-number ip-address mask administrative-distance

As rotas de sumarização EIGRP têm uma distância administrativa de 5 por default. Opcionalmente, podem ser configuradas com um valor entre 1 e 255.

Na Figura , RTC pode ser configurado usando os comandos indicados:

RTC(config)#router eigrp 2446 RTC(config-router)#no auto-summary RTC(config-router)#exit RTC(config)#interface serial 0/0 RTC(config-if)#ip summary-address eigrp 2446 2.1.0.0 255.255.0.0

Portanto, RTC adicionará uma rota a sua tabela da seguinte maneira:

D 2.1.0.0/16 is a summary, 00:00:22, Null0

Note que a rota de sumarização origina de Null0 e não de uma interface real. Isso é porque essa rota é usada para fins de anúncio e não representa um caminho que o RTC pode seguir para alcançar a rede. No RTC, essa rota tem uma distância administrativa de 5.

O RTD não está ciente da sumarização mas aceita a rota. À rota é atribuída a distância administrativa de uma rota EIGRP normal, que é 90 por default.

Na configuração para o RTC, a sumarização automática é desativada através do comando no auto-summary. Se a sumarização automática não estivesse desativada, o RTD receberia duas rotas, o endereço para sumarização manual, que é 2.1.0.0 /16, e o endereço para sumarização automática, classful, que é 2.0.0.0 /8.

Na maioria dos casos de sumarização manual, deve ser utilizado o comando no auto-summary.

3.2.3 Verificando o EIGRP básico

Page 66: Cisco CCNA Modulo03

66

Esta página irá explicar como os comandos show podem ser usados para verificar configurações do EIGRP. A Figura enumera os comandos show mais importantes para o EIGRP e explica brevemente as suas funções.

O recurso debug do Cisco IOS também proporciona comandos de monitoramento úteis para o EIGRP.

Page 67: Cisco CCNA Modulo03

67

3.2.4 Criando tabelas de vizinhos

Esta página irá explicar como o EIGRP cria tabelas de vizinhos. Os alunos também irão aprender sobre as informações armazenadas em uma tabela de vizinhos e como são utilizadas.

Os roteadores vetor de distância simples não estabelecem relações com seus vizinhos. Os roteadores que utlizam o RIP e o IGRP meramente enviam atualizações por broadcast ou multicast nas interfaces configuradas. Em contraste, os roteadores que utilizam o EIGRP estabelecem de forma ativa relações com seus vizinhos como é o caso dos roteadores OSPF.

A tabela de vizinhos é a tabela mais importante do EIGRP. Cada roteador EIGRP mantém uma tabela de vizinhos que lista os roteadores adjacentes. Essa tabela é comparável ao banco de dados de adjacências utilizado pelo OSPF. Existe uma tabela de vizinhos para cada protocolo suportado pelo EIGRP.

Os roteadores que utilizam o EIGRP estabelecem adjacências com os roteadores vizinhos usando pequenos pacotes de hello. Os pacotes de hello são enviados por default de cinco em cinco segundos. Um roteador EIGRP supõe que enquanto recebe pacotes de hello dos seus vizinhos conhecidos, esses vizinhos e suas rotas permanecem viáveis ou com estado passivo. Ao formar adjacências, os roteadores que utilizam o EIGRP fazem o seguinte:

• Aprendem dinamicamente sobre novas rotas que se juntam à sua rede • Identificam roteadores que se tornam inalcançáveis ou inoperantes • Descobrem novamente roteadores que antes eram inalcançáveis

Os seguintes campos encontram-se em uma tabela de vizinhos:

• Neighbor address – Este é o endereço de camada de rede do roteador vizinho. • Hold time – Este é o intervalo de espera sem receber nada de um vizinho antes de

considerar o link inalcançável. Originalmente, o pacote esperado era um pacote de hello, mas em versões mais recentes do software Cisco IOS, qualquer pacote EIGRP recebido após o primeiro pacote de hello renovará o temporizador.

• Smooth Round-Trip Timer (SRTT) – Este é o tempo médio que leva para enviar e receber pacotes de um vizinho. Este temporizador é usado para determinar o retransmit interval (RTO).

• Queue count (Q Cnt) – Este é o número de pacotes esperando em uma fila para serem enviados. Se este campo constantemente apresentar um valor superior a zero, poderá haver um problema de congestionamento no roteador. Um zero significa que não há pacotes EIGRP na fila.

• Sequence Number (Seq No) – Este é o número do último pacote recebido daquele vizinho. O EIGRP usa este campo para confirmar uma transmissão de um vizinho e

Page 68: Cisco CCNA Modulo03

68

para identificar pacotes que estejam fora de seqüência. A tabela de vizinhos é usada para suportar uma entrega seqüenciada e confiável de pacotes e pode ser considerada como análoga ao protocolo TCP usado na entrega confiável de pacotes IP.

3.2.5 Descobrir rotas

Esta página irá explicar como o EIGRP armazena informações sobre rotas e topologias. Os alunos também irão aprender como o DUAL usa estas informações para rotear dados.

Os roteadores que utilizam o EIGRP mantêm informações sobre rotas e topologia disponíveis em RAM para que possam reagir rapidamente a mudanças. Como o OSPF, o EIGRP guarda essas informações em várias tabelas ou bancos de dados.

O DUAL, o algoritmo de vetor de distância do EIGRP, utiliza as informações reunidas nas tabelas de vizinhos e de topologia e calcula a rota de custo mais baixo até o destino. A rota primária é denominada successor route. O DUAL, depois de calcular a successor route, coloca-a na tabela de roteamento e uma cópia dela na tabela de topologia.

O DUAL também tenta calcular uma rota de reserva no caso da successor route falhar. Essa é conhecida como rota feasible successor. O DUAL, depois de calcular a rota feasible successor coloca-a na tabela de topologia. Essa rota pode evocada se a successor route até o destino se tornar inalcançável ou não confiável.

3.2.6 Selecionar rotas

Esta página irá explicar como o DUAL seleciona uma rota alternativa na tabela de topologia quando um link se torna inativo. Se não for encontrada uma rota feasible successor, a rota é marcada como Ativa, ou seja, não utilizável no momento. Pacotes de consulta (Query) são enviados aos roteadores vizinhos solicitando informações sobre a topologia. O DUAL utiliza essas informações para recalcular rotas successor route e feasible successor até o destino.

Quando o DUAL tiver concluído esses cálculos, a successor route é colocada na tabela de roteamento. Em seguida tanto a successor route como a rota feasible successor são colocadas na tabela de topologia. A rota até o destino final agora passa do estado Ativo ao estado Passivo. Isto significa que a rota está operacional e confiável.

O sofisticado algoritmo do DUAL resulta em uma convergência excepcionalmente rápida do EIGRP. Para melhor entender a convergência com o DUAL, considere o exemplo na Figura . Todos os roteadores construíram uma tabela de topologia que contém informações sobre como rotear até o destino, network Z.

Cada tabela identifica o seguinte:

• O protocolo de roteamento ou o EIGRP • O custo mais baixo da rota ou Feasible Distance (FD) • O custo da rota conforme anunciado pelo roteador vizinho ou Reported Distance (RD)

O DUAL identifica a rota primária preferida, conhecida como successor route (Successor). O DUAL também identificará rotas backup, se houver, conhecidas como feasible successors (FS). Observe que não é necessário ter uma feasible successor identificada.

Page 69: Cisco CCNA Modulo03

69

3.2.7 Mantendo tabelas de roteamento

Esta página irá explicar como o DUAL mantém e atualiza tabelas de roteamento.

O DUAL rastreia todas as rotas anunciadas pelos vizinhos usando a métrica composta de cada rota para sua comparação. O DUAL também garante que cada caminho esteja livre de loops.

Os caminhos de custo mais baixo são inseridos pelo algoritmo DUAL na tabela de roteamento. Essas rotas primárias são conhecidas como successor routes. Uma cópia dessas rotas é colocada na tabela de topologia.

O EIGRP mantém disponíveis informações importantes sobre rotas e sobre a topologia na tabela de vizinhos e na tabela de topologia. Essas tabelas fornecem ao DUAL abrangentes informações sobre rotas por ocasião de algum distúrbio da rede. O DUAL seleciona rapidamente as rotas alternativas, utilizando as informações nessas tabelas.

Se um link for desativado, o DUAL procura um caminho alternativo, ou seja, uma feasible successor, dentro da tabela de topologia. Se não for encontrada uma feasible successor, a rota é marcada como Ativa, ou seja, não utilizável no momento. Pacotes de consulta (Query) são enviados aos roteadores vizinhos solicitando informações sobre a topologia. O DUAL utiliza essas informações para recalcular as successor routes e feasible successor routes até o destino.

Quando o DUAL tiver concluído esses cálculos, a successor route é colocada na tabela de roteamento. Em seguida tanto a successor route como a rota feasible successor são colocadas na tabela de topologia. A rota até o destino final agora passa do estado Ativo ao estado Passivo. Isto significa que a rota está operacional e confiável.

Os roteadores que utilizam o EIGRP estabelecem e mantêm adjacências com os roteadores vizinhos usando pequenos pacotes de hello. Os pacotes de hello são enviados por default de cinco em cinco segundos. Um roteador EIGRP supõe que enquanto recebe pacotes de hello dos seus vizinhos conhecidos, esses vizinhos e suas rotas permanecem viáveis ou com status passivo.

Quando novos vizinhos são descobertos, o endereço e a interface do vizinho são registrados. Estas informações são armazenadas na estrutura de dados referente ao vizinho. Quando um vizinho envia um pacote de hello, ele anuncia um hold time. O hold time é o período de tempo em que um roteador trata um vizinho como alcançável e operacional. Em outras palavras, se não for ouvido um pacote de hello dentro do hold time, o hold time vence. Ao vencer o hold time, o DUAL é informado sobre a mudança na topologia e precisa recalcular a nova topologia.

As novas successor routes serão colocadas na tabela de roteamento atualizada.

3.3 Identificando e Resolvendo Problemas com Protocolos de Roteamento 3.3.1 Processo de identificação e resolução de problemas com protocolos de roteamento

Esta página irá explicar a seqüência lógica de etapas que devem ser usadas para identificar e resolver qualquer problema com protocolos de roteamento.

Qualquer identificação e resolução de problemas com protocolos de roteamento deve começar com uma seqüência ou fluxo lógico do processo. Esse fluxo do processo não é uma estrutura rígida para a identificação e resolução de problemas de uma rede. No entanto é uma base sobre a qual um administrador de rede pode criar um processo de resolução de problemas que se adapte a um ambiente em particular.

Page 70: Cisco CCNA Modulo03

70

1. Quando estiver analisando uma falha da rede, faça uma descrição clara do problema.

2. Colete os fatos necessários para ajudar na determinação das causas possíveis.

3. Considere possíveis problemas baseando-se nos fatos coletados.

4. Crie um plano de ação baseando-se nos problemas em potencial restantes.

5. Implemente o plano de ação, realizando cuidadosamente cada etapa enquanto testa para ver se o sintoma desaparece.

Page 71: Cisco CCNA Modulo03

71

6. Analise os resultados para determinar se o problema já foi resolvido. Caso tenha sido, então o processo está completo.

7. Se por acaso o problema não foi resolvido, crie um plano de ação baseado no problema mais provável na lista. Volte à Etapa 4, mude uma variável de cada vez e repita o processo até que seja resolvido o problema.

8. Uma vez identificada a causa real do problema, tente resolvê-lo.

Os roteadores Cisco providenciam vários comandos integrados para ajudar na monitoramento e resolução de problemas de uma rede:

• Os comandos show ajudam a monitorar o comportamento de uma instalação assim como o comportamento normal de uma rede assim como a isolar áreas problemáticas

• Os comandos debug auxiliam no isolamento de problemas de configuração e de protocolos.

• Ferramentas de rede TCP/IP tais como ping, traceroute e telnet

Page 72: Cisco CCNA Modulo03

72

Os comandos show do Cisco IOS encontram-se entre as ferramentas mais importantes para entender o status de um roteador, detectar roteadores vizinhos, monitorar a rede em geral e isolar problemas na rede.

Os comandos EXEC debug podem fornecer uma abundância de informações sobre o tráfego nas interfaces, mensagens de erros internos, pacotes de diagnóstico específicos ao protocolo e outros dados úteis para a identificação e resolução de problemas. Use os comando debug para isolar problemas, não para monitorar a operação normal da rede. Use os comandos debug apenas para procurar tipos específicos de tráfego ou de problemas. Antes de usar o comando debug, restrinja os problemas a um subconjunto de causas mais prováveis. Use o comando show debugging para examinar quais recursos de depuração estão ativados.

3.3.2 Identificando e resolvendo problemas de configuração do RIP

Esta página irá tratar de VLSM como o problema mais comum que ocorre nas redes RIP. VLSM impede o anúncio de rotas RIP. Isso deve-se ao fato de que o RIP Versão 1 não suporta VLSM. Se as rotas RIP não estão sendo anunciadas, verifique o seguinte:

• Se existem questões de conectividade de Camada 1 ou Camada 2. • Se estão configuradas sub-redes VLSM. Sub-redes VLSM não podem ser usadas com

RIP v1. • Se existem incompatibilidades de configurações de roteamento do RIP v1 e do RIP v2. • Se estão faltando comandos network ou se estes foram usados incorretamente. • Se a interface de saída está inativa. • Se a interface da rede anunciada está inativa.

O comando show ip protocols fornece informações sobre os parâmetros e sobre o estado atual do processo do protocolo de roteamento ativo. O RIP envia atualizações às interfaces nas redes especificadas. Se a interface FastEthernet 0/1 fosse configurada mas a rede não fosse adicionada ao roteamento RIP, nenhuma atualização seria enviada ou recebida através da interface.

Use o comando EXEC debug ip rip para exibir informações sobre transações de roteamento RIP. O comando no debug ip rip, no debug all, ou undebug all desativa toda a depuração.

Page 73: Cisco CCNA Modulo03

73

A Figura mostra que o roteador sendo depurado recebeu uma atualização de outro roteador no endereço origem 192.168.3.1. Esse roteador enviou informações sobre dois destinos na atualização da tabela de roteamento. O roteador sendo depurado também enviou atualizações. Ambos os roteadores enviaram um broadcast para o endereço 255.255.255.255 como destino. O número entre parênteses representa o endereço origem encapsulado no cabeçalho IP.

Na saída abaixo, aparece uma entrada que muito provavelmente foi causada por um pacote malformado vindo do transmissor:

RIP: bad version 128 from 160.89.80.43 3.3.3 Identificando e resolvendo problemas de configuração do IGRP

Esta página ensinará aos alunos como identificar e resolver problemas com o IGRP.

O IGRP é um protocolo de roteamento avançado de vetor de distância que foi desenvolvido pela Cisco nos anos 1980. O IGRP possui várias características que o diferenciam de outros protocolos de roteamento de vetor de distância tais como o RIP.

Page 74: Cisco CCNA Modulo03

74

Use o comando router igrp autonomous-system para ativar o processo de roteamento do IGRP:

R1(config)#router igrp 100

Use o comando de configuração de roteador network network-number para permitir que as interfaces participem do processo de atualização do IGRP:

R1(config-router)#network 172.30.0.0 R1(config-router)#network 192.168.3.0

Verifique a configuração do IGRP com os comandos show running-configuration e show ip protocols:

R1#show ip protocols

Verifique a operação do IGRP com o comando show ip route:

R1#show ip route

Se o IGRP não parece estar funcionando corretamente, verifique o seguinte:

• Se existem questões de conectividade de Camada 1 ou Camada 2. • Se os números dos sistemas autônomos nos roteadores que utilizam IGRP não

correspondem. • Se estão faltando comandos network ou se estes foram incorretamente utilizados. • Se a interface de saída está inativa. • Se a interface da rede anunciada está inativa. • Para examinar informações de depuração do IGRP, use os seguintes comandos: • debug ip igrp transactions [host ip address] para examinar informações

das transações IGRP • debug ip igrp events [host ip address] para examinar informações de

atualização de roteamento

Para desligar a depuração, use o comando no debug ip igrp.

Se uma rede se tornar inacessível, os roteadores que executam o IGRP enviam triggered updates aos vizinhos para informá-los sobre o fato. Um roteador vizinho então responderá com atualizações poison reverse e manterá a rede suspeita em estado holddown durante 280 segundos.

3.3.4 Identificando e resolvendo problemas de configuração do EIGRP

Esta página irá apresentar alguns comandos utilizados para identificar e resolver problemas do EIGRP.

Normalmente, a operação do EIGRP é estável, eficiente na utilização de largura de banda e simples de monitorar e identificar e resolver problemas.

Use o comando router eigrp autonomous-system para ativar o processo de roteamento EIGRP:

R1(config)#router eigrp 100

Para trocar atualizações de roteamento, cada roteador na rede EIGRP precisa ser configurado com o mesmo número de sistema autônomo.

Page 75: Cisco CCNA Modulo03

75

Use o comando de configuração de roteador network network-number para permitir que as interfaces participem no processo de atualização do EIGRP:

R1(config-router)#network 172.30.0.0 R1(config-router)#network 192.168.3.0

Verifique a configuração do EIGRP com os comandos show running-configuration e show ip protocols:

R1#show ip protocols

As seguintes são algumas razões possíveis porque o EIGRP não funcione corretamente:

• Se existem questões de conectividade de Camada 1 ou Camada 2. • Se os números dos sistemas autônomos nos roteadores que utilizam o EIGRP não

correspondem. • O link poderá estar congestionado ou inativo. • Se a interface de saída está inativa. • Se a interface da rede anunciada está inativa. • A sumarização automática poderá estar ativada em roteadores com sub-redes não

contíguas. Utilize o comando no auto-summary para desativar a sumarização automática de redes.

Uma das causas mais comuns da perda de contato com um vizinho é uma falha no link atual. Outra causa possível é um temporizador de holddown expirado. Já que os pacotes de hello são enviados de 5 em 5 segundos na maioria das rede, o tempo de holddown na saída de um comando show ip eigrp neighbors normalmente deve ter um valor entre 10 e 15.

Para monitorar e identificar e resolver problemas com eficácia nas redes que utilizam o EIGRP, use os comandos descritos nas Figuras

Page 76: Cisco CCNA Modulo03

76

3.3.5 Identificando e resolvendo problemas de configuração do OSPF

Esta página ensinará aos alunos como identificar e resolver problemas com o OSPF.

O OSPF é um protocolo de roteamento link-state. Um link é uma interface em um roteador. O estado do link é uma descrição daquela interface e da sua relação com os seus roteadores vizinhos. Por exemplo, uma descrição da interface que incluiria o endereço IP, a máscara, o tipo de rede à qual está conectada, os roteadores conectados àquela rede e assim por diante. Estas informações formam um banco de dados link-state (do estado do link).

A maioria dos problemas encontrados com o OSPF se relaciona à formação de adjacências e à sincronização dos bancos de dados link-state. O comando show ip ospf neighbor é útil para identificar e resolver problemas com a formação de adjacências. Os comandos show que podem ser utilizados para detecção e solução de problemas envolvendo OSPF são mostrados na Figura .

Use o comando EXEC privilegiado debug ip ospf events para exibir as seguintes informações sobre eventos relacionados ao OSPF:

• Adjacências • Informações de flooding • Seleção do designated router • Cálculo do shortest path first (SPF)

Se um roteador configurado para o roteamento OSPF não enxerga um vizinho OSPF em uma rede conectada, realize as seguintes tarefas:

• Certifique-se de que ambos os roteadores tenham sido configurados com a mesma máscara IP, o mesmo intervalo de hello do OSPF e o mesmo intervalo dead do OSPF.

Page 77: Cisco CCNA Modulo03

77

• Certifique-se de que ambos os vizinhos façam parte da mesma área.

Para exibir informações sobre cada pacote do Open Shortest Path First (OSPF) recebido, use o comando EXEC privilegiado debug ip ospf packet. A forma no desse comando desativa a saída da depuração.

O comando debug ip ospf packet produz um conjunto de informações para cada pacote recebido. A saída varia levemente, conforme a autenticação utilizada.

Resumo

Esta página faz um resumo dos tópicos apresentados neste módulo.

Embora o IGRP e o EIGRP sejam compatíveis, existem algumas diferenças. O EIGRP oferece suporte de vários protocolos, mas o IGRP não. O EIGRP e o IGRP usam cálculo da métrica diferentes. O IGRP tem uma contagem máxima de saltos de 255. O EIGRP tem um limite de contagem de saltos de 224.

Os roteadores que utilizam o EIGRP mantêm informações sobre rotas e topologia prontamente disponíveis em RAM. Como o OSPF, o EIGRP guarda essas informações em três tabelas. A tabela de vizinhos enumera os roteadores adjacentes, a tabela de topologia, que consiste em todas as tabelas de roteamento do EIGRP no sistema autônomo, e a tabela de roteamento que contém as melhores rotas até um destino. O DUAL (o algoritmo de vetor de distância do EIGRP) utiliza as informações fornecidas na tabela de vizinhos e na tabela de topologia e calcula as rotas de menor custo para cada destino. A rota primária preferida é conhecida como successor route e a rota de reserva é conhecida como feasible successor (FS).

O EIGRP é um protocolo de roteamento de vetor de distância avançado e age como protocolo link-state ao atualizar os vizinhos e ao manter informações de roteamento. Suas vantagens incluem convergência rápida, utilização eficiente de largura de banda, suporte para VLSM e CIDR, suporte para várias camadas de rede e independência de protocolos roteados.

O algoritmo DUAL realiza a convergência rápida do EIGRP. Cada roteador constrói uma tabela de topologia que contém informações sobre como rotear até cada destino. Cada tabela de topologia identifica o protocolo de roteamento ou o EIGRP, o custo mais baixo da rota, conhecido como Feasible Distance (FD) e o custo da rota conforme anunciado pelo roteador vizinho, conhecido como Reported Distance (RD).

Os comandos de configuração do EIGRP variam conforme o protocolo sendo usado. Alguns exemplo desses protocolos são IP, IPX e AppleTalk. O comando network configura somente as redes conectadas. O EIGRP faz a sumarização automática das rotas no limite classful. Se houver sub-redes não contíguas, a sumarização automática precisa ser desativada para uma operação correta do roteamento. A verificação do funcionamento do EIGRP é realizada pela utilização de vários comandos show.

A tabela mais importante do EIGRP é a tabela de vizinhos que lista roteadores adjacentes. Pacotes de hello são utilizados para estabelecer adjacências com roteadores vizinhos. Por default, os pacotes de hello são enviados de cinco em cinco segundos. As tabelas de vizinhos contêm campos para o endereço do vizinho, hold time, smooth round-trip timer (SRTT), queue count (Q Cnt) e um sequence number (Seq NO).

Se um link for desativado, o DUAL procura um caminho de rota alternativo, ou seja, uma feasible successor, dentro da tabela de topologia. Se não for encontrada uma feasible successor, a rota é marcada como Ativa, ou seja, não utilizável no momento. Pacotes de consulta (Query) são enviados aos roteadores vizinhos solicitando informações sobre a topologia. O DUAL utiliza essas informações para recalcular rotas successor route e feasible successor até o destino.

Page 78: Cisco CCNA Modulo03

78

As oito etapas do processo de identificação e resolução de problemas devem ser seguidas ao determinar a causa de problemas com protocolos de roteamento. Variable-length subnet mask (VLSM) é o problema mais comum encontrado no Routing Information Protocol (RIP) que impede que as rotas RIP sejam anunciadas. O comando show ip protocols fornece informações sobre os parâmetros e sobre o estado atual do processo do protocolo de roteamento ativo. Para o IGRP, use o comando router igrpautonomous-system para ativar o processo de roteamento IGRP. Para o EIGRP, use o comando router eigrp autonomous-system para ativar o processo de roteamento EIGRP: O comando show ip ospf neighbor é útil para a identificação e resolução de problemas na formação de adjacências no OSPF, já que a maioria dos problemas se relacionam com a formação de adjacências e com a sincronização do banco de dados link-state

MODULO 04 - Conceitos de comutação Visão Geral

Os projetos das redes locais têm evoluído. Até muito recentemente, os projetistas usavam hubs e bridges para construir redes. Agora, os switches e os roteadores são os principais componentes dos projetos de redes locais, e a capacidade e o desempenho desses dispositivos melhoram continuamente.

Este módulo descreve as raízes das redes locais Ethernet modernas, com ênfase na evolução da Ethernet/802.3, a arquitetura de rede local implantada com mais freqüência. Uma observação do contexto histórico do desenvolvimento das redes locais e dos vários dispositivos de rede que podem ser usados nas diferentes camadas do modelo OSI ajudarão os alunos a entenderem melhor as razões pelas quais os dispositivos de rede evoluíram da forma como evoluíram.

Até recentemente, usava-se repetidores na maioria das redes Ethernet. O desempenho da rede piorava quando uma quantidade excessiva de dispositivos compartilhavam o mesmo segmento. Então, os engenheiros de redes adicionaram bridges para criar vários domínios de colisão. Conforme as redes cresceram em tamanho e complexidade, a bridge evoluiu para o switch moderno, que permite microssegmentação da rede. Agora, as redes modernas são construídas com switches e roteadores, geralmente com ambas as funcionalidades em um único dispositivo.

Muitos switches modernos são capazes de realizar tarefas variadas e complexas na rede. Este módulo oferecerá uma introdução à segmentação de redes e descreverá os princípios básicos de operação dos switches.

Switches e bridges realizam a maior parte do trabalho pesado nas redes locais, tomando decisões quase instantâneas ao receber quadros. Este módulo descreve em detalhe como os switches aprendem os endereços físicos dos nós e como transmitem e filtram os quadros. Este módulo descreve também os princípios da segmentação de redes locais e dos domínios de colisão.

Page 79: Cisco CCNA Modulo03

79

Os switches são dispositivos da Camada 2 usados para aumentar a largura de banda disponível e reduzir o congestionamento da rede. Um switch pode segmentar uma rede local em microssegmentos, que são segmentos com apenas um único host. A microssegmentação cria vários domínios sem colisão a partir de um grande domínio. Por ser um dispositivo da Camada 2, o switch de rede local aumenta a quantidade de domínios de colisão, mas todos os hosts conectados ao switch continuam fazendo parte do mesmo domínio de broadcast.

Este módulo aborda alguns dos objetivos dos exames CCNA 640-801 e ICND 640-811.

Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:

• Descrever o histórico e a função da Ethernet compartilhada, ou half-duplex; • Definir colisão em relação às redes Ethernet; • Definir microssegmentação; • Definir CSMA/CD; • Descrever alguns dos principais elementos que afetam o desempenho da rede; • Descrever a função dos repetidores; • Definir latência da rede; • Definir tempo de transmissão; • Definir a segmentação de redes com roteadores, switches e bridges; • Definir latência de um switch Ethernet; • Explicar as diferenças entre comutação de Camada 2 e de Camada 3; • Definir comutação simétrica e assimétrica; • Definir bufferização de memória; • Comparar e contrastar as comutações store-and-forward e cut-through; • Entender as diferenças entre hubs, bridges e switches; • Descrever as principais funções dos switches; • Listar os principais modos de transmissão de quadros de um switch; • Descrever o processo através do qual os switches aprendem os endereços; • Identificar e definir os modos de encaminhamento; • Definir segmentação de uma rede local; • Definir microssegmentação com a utilização de switches; • Descrever o processo de filtragem de quadros; • Comparar e contrastar domínios de colisão e de broadcast; • Identificar os cabos necessários para conectar os switches às estações de trabalho; • Identificar os cabos necessários para conectar os switches a outros switches.

4.1 Introdução às redes locais Ethernet/802.3 4.1.1 Desenvolvimento da rede local Ethernet/802.3

Esta página fará uma revisão sobre os dispositivos encontrados em uma rede.

As primeiras tecnologias de rede local usavam infra-estruturas thick Ethernet ou thin Ethernet. É importante entender as limitações dessas infra-estruturas, conforme mostrado na figura , a fim de compreender os avanços na comutação das redes locais.

Page 80: Cisco CCNA Modulo03

80

O acréscimo de hubs ou concentradores na rede ofereceu uma melhora para as tecnologias thick Ethernet e thin Ethernet. Um hub é um dispositivo da Camada 1 e às vezes é conhecido como concentrador Ethernet ou repetidor multiporta. Os hubs permitem melhor acesso à rede para mais usuários. Eles regeneram sinais de dados, permitindo que as redes sejam estendidas para distâncias maiores. Os hubs fazem isso gerando os sinais de dados novamente. Eles não tomam nenhuma decisão quando os sinais são recebidos. Simplesmente regeneram e amplificam os sinais de dados para todos os dispositivos conectados, exceto para o dispositivo que enviou o sinal originalmente.

Ethernet é fundamentalmente uma tecnologia compartilhada em que todos os usuários de um determinado segmento da rede local competem pela mesma largura de banda disponível. Essa situação é análoga a uma determinada quantidade de carros que tentem entrar em uma estrada de faixa única ao mesmo tempo. Como a estrada tem somente uma faixa, apenas um carro pode entrar nela de cada vez. Conforme eram adicionados hubs à rede, mais usuários competiam pela mesma largura de banda.

As colisões são um subproduto das redes Ethernet. Se dois ou mais dispositivos tentarem transmitir ao mesmo tempo, ocorre uma colisão. Esta situação é análoga a dois carros que tentam mudar para uma mesma faixa e que causam uma colisão. O tráfego fica parado até que a colisão tenha sido resolvida. Um excesso de colisões em uma rede resulta em tempos de resposta lentos. Isso indica que a rede está muito congestionada ou tem muitos usuários que precisam acessá-la ao mesmo tempo.

Page 81: Cisco CCNA Modulo03

81

Os dispositivos da Camada 2 são mais inteligentes que os da Camada 1. Eles tomam decisões de encaminhamento com base nos endereços MAC (Media Access Control) contidos nos cabeçalhos dos quadros de dados transmitidos.

Uma bridge é um dispositivo da Camada 2 usada para dividir, ou segmentar, uma rede. As bridges coletam e transmitem seletivamente os quadros de dados entre dois segmentos da rede. Para isso, elas aprendem o endereço MAC dos dispositivos de cada segmento conectado. Com essa informação, a bridge constrói uma tabela de bridging e encaminha ou bloqueia o tráfego com base nessa tabela. Isso resulta em domínios de colisão menores e maior eficiência da rede. As bridges não restringem o tráfego de broadcast. Entretanto, elas oferecem maior controle de tráfego dentro de uma rede.

Um switch também é um dispositivo da Camada 2 e às vezes é chamado de bridge multiportas. Os switches tomam decisões de encaminhamento com base nos endereços MAC contidos nos quadros de dados transmitidos. Os switches aprendem os endereços MAC dos dispositivos conectados a cada porta e inserem essas informações em uma tabela de comutação.

Os switches criam um circuito virtual entre dois dispositivos conectados que querem se comunicar. Quando o circuito virtual é criado, um caminho de comunicação dedicado é estabelecido entre os dois dispositivos. A implementação de um switch na rede oferece microssegmentação. Isso cria entre a origem e o destino um ambiente livre de colisões, permitindo a máxima utilização da largura de banda disponível. Os switches são capazes de facilitar múltiplas conexões simultâneas de circuito virtual. Isso é semelhante a uma rodovia dividida em várias faixas, em que cada carro tem sua própria faixa exclusiva.

A desvantagem dos dispositivos da Camada 2 é que eles encaminham quadros de broadcast para todos os dispositivos conectados da rede. Um excesso de broadcasts em uma rede resulta em tempos de resposta lentos.

Um roteador é um dispositivo da Camada 3. Os roteadores tomam decisões com base em grupos de endereços de rede, ou classes, em vez de endereços MAC individuais. Os roteadores usam tabelas de roteamento para gravar os endereços de Camada 3 das redes diretamente conectadas às interfaces locais e os caminhos de rede aprendidos dos roteadores vizinhos.

• Estas são as funções de um roteador: Examinar pacotes de entrada com dados da Camada 3;

• Escolher o melhor caminho para os dados através da rede; • Rotear os dados para a porta de saída adequada.

Os roteadores não encaminham broadcasts, a menos que sejam programados para fazer isso. Assim, reduzem o tamanho tanto dos domínios de colisão como dos domínios de broadcast de uma rede. Os roteadores são os dispositivos de controle de tráfego mais importantes nas grandes redes. Eles permitem a comunicação entre dois computadores, independentemente da localização ou do sistema operacional.

Geralmente, as redes locais empregam uma combinação de dispositivos de Camada 1, Camada 2 e Camada 3. A implementação desses dispositivos depende de fatores específicos relacionados às necessidades particulares de uma organização.

Page 82: Cisco CCNA Modulo03

82

4.1.2 Fatores que afetam o desempenho da rede

Esta página descreverá alguns fatores que fazem com que as redes locais fiquem congestionadas e sobrecarregadas.

As redes locais atuais estão ficando cada vez mais congestionadas e sobrecarregadas. Além de uma grande quantidade de usuários de rede, existem vários outros fatores que contribuem para testar os limites das redes locais tradicionais:

• O ambiente multitarefa presente nos atuais sistemas operacionais de desktop, tais como Windows, Unix/Linux e MAC OS X, permite transações de rede simultâneas. Esse aumento de capacidade gerou um aumento de demanda por recursos de rede.

• O uso de aplicativos que fazem uso intensivo da rede, como a World Wide Web, aumentou. Os aplicativos cliente/servidor permitem que os administradores centralizem as informações e facilitam a manutenção e a proteção das informações.

Page 83: Cisco CCNA Modulo03

83

• Os aplicativos cliente/servidor não exigem que as estações de trabalho mantenham as informações nem forneçam espaço em disco para armazená-las. Devido ao custo/benefício dos aplicativos cliente/servidor, esses aplicativos provavelmente serão ainda mais usados no futuro.

4.1.3 Elementos das redes Ethernet/802.3

Esta página descreverá alguns fatores que podem ter impacto negativo no desempenho de uma rede Ethernet.

A Ethernet é uma tecnologia de transmissão de broadcast. Por isso, dispositivos de rede tais como computadores, impressoras e servidores de arquivos comunicam-se entre si através de um meio compartilhado. O desempenho de uma rede local Ethernet/802.3 de meio compartilhado pode ser afetado negativamente por vários fatores:

• A entrega dos quadros de dados das redes locais Ethernet/802.3 tem uma natureza de broadcast.

• O método CSMA/CD (carrier sense multiple access/collision detect) permite que apenas uma estação transmita de cada vez.

• Os aplicativos multimídia que exigem maior largura de banda, como, por exemplo, vídeo e Internet, associados à natureza de broadcast da Ethernet, podem criar congestionamento na rede.

• Ocorre uma latência normal conforme os quadros percorrem o meio físico da rede e os dispositivos da rede.

A Ethernet usa CSMA/CD e pode suportar taxas de transmissão rápidas. A Fast Ethernet, ou 100BASE-T, oferece velocidades de transmissão de até 100 Mbps. A Gigabit Ethernet oferece velocidades de transmissão de até 1000 Mbps e a 10-Gigabit Ethernet oferece velocidades de transmissão de até 10.000 Mbps. O objetivo da Ethernet é fornecer a melhor prestação de serviços possível e permitir que todos os dispositivos no meio compartilhado transmitam igualmente. Uma certa quantidade de colisões é esperada no projeto da Ethernet e CSMA/CD. As colisões ocorrem naturalmente em redes Ethernet e podem se tornar um grande problema.

4.1.4 Redes half-duplex

Esta página explicará como ocorrem as colisões em uma rede half-duplex.

Em sua origem, a Ethernet era uma tecnologia half-duplex. O half-duplex permite que os hosts apenas transmitam ou recebam em um determinado momento, mas não as duas coisas. Cada host examina a rede para ver se está ocorrendo transmissão de dados antes de transmitir mais dados. Se a rede já estiver em uso, a transmissão sofre um atraso. Apesar do adiamento da transmissão, dois ou mais hosts podem transmitir ao mesmo tempo. Isto resulta em uma colisão. Quando ocorre uma colisão, o host que a detecta primeiro emite um sinal de congestionamento para os outros hosts. Quando um sinal de congestionamento é recebido, cada host pára a transmissão de dados e, em seguida, espera um tempo aleatório até retransmiti-los. O algoritmo de recuo gera esse atraso aleatório. Quanto mais hosts forem adicionados à rede e começarem a transmitir, maior a probabilidade de ocorrerem colisões.

As redes locais Ethernet ficam saturadas porque os usuários executam softwares que exigem muito da rede, como aplicativos cliente/servidor, que fazem com que os hosts transmitam com mais freqüência e por períodos de tempo mais longos. A placa de rede (NIC), usada pelos dispositivos de uma rede local, fornece vários circuitos para que a comunicação entre os dispositivos possa ocorrer

Page 84: Cisco CCNA Modulo03

84

4.1.5 Congestionamento da rede

Esta página discutirá alguns fatores que criam uma necessidade de maior largura de banda em uma rede.

Os avanços tecnológicos produzem estações de trabalho e computadores desktop mais rápidos e inteligentes. A combinação de estações de trabalho mais poderosas e aplicativos que utilizam a rede intensamente criou uma necessidade de maior capacidade da rede, ou de largura de banda.

Todos esses fatores aumentam a demanda por velocidade nas redes com largura de banda disponível de 10 Mbps e é por isso que muitas redes oferecem hoje uma largura de banda de 100 Mbps em suas redes locais.

Os tipos de mídia a seguir sofreram um aumento de transmissão pelas redes:

• Grandes arquivos gráficos; • Imagens; • Filmes • Aplicativos multimídia.

Page 85: Cisco CCNA Modulo03

85

Também houve um aumento na quantidade de usuários em uma rede. À medida em que mais pessoas utilizam as redes para compartilhar arquivos maiores, acessar servidores de arquivos e conectar-se à Internet, ocorre o congestionamento da rede. Com isso, os tempos de resposta ficam mais lentos, as transferências de arquivos ficam mais longas e os usuários da rede tornam-se menos produtivos. Para aliviar o congestionamento na rede, é necessária mais largura de banda, ou a largura de banda disponível deve ser usada com mais eficiência.

4.1.6 Latência da rede

Esta página ajudará os alunos a entenderem os fatores que aumentam a latência da rede.

Latência, ou atraso, é o tempo que um quadro ou um pacote leva para trafegar da estação de origem até o destino final. É importante quantificar a latência total do caminho entre a origem e o destino nas LANs e WANs. No caso específico da rede local Ethernet, é importante entender a latência e seu efeito na sincronização da rede, já que ela é usada para determinar se o CSMA/CD funcionará adequadamente.

A latência tem pelo menos três origens:

• Primeiramente, há o tempo que a placa de rede de origem leva para colocar os pulsos elétricos no fio e o tempo que a placa de rede de destino leva para interpretar esses pulsos. Às vezes, isso é chamado de atraso da placa de rede, geralmente em torno de 1 microssegundo para uma placa de rede Ethernet 10BASE-T.

• Em segundo lugar, há o atraso real de propagação, correspondente ao tempo que o sinal leva para trafegar através do cabo. Geralmente, é de aproximadamente 0,556 microssegundos a cada 100 m para cabos UTP Cat 5. Cabos mais longos e menor velocidade nominal de propagação (NVP) resultam em um maior atraso de propagação.

• Em terceiro lugar, a latência cresce dependendo dos dispositivos de rede que estão no caminho entre dois computadores. Esses dispositivos são de Camada 1, de Camada 2 ou de Camada 3.

A latência não depende somente da distância e do número de dispositivos. Por exemplo, se duas estações de trabalho estiverem separadas por três switches corretamente configurados, elas podem sofrer menos latência do que se estivessem separadas por dois roteadores corretamente configurados. Isso se deve ao fato de os roteadores realizarem funções mais complexas e demoradas. Um roteador precisa analisar dados da Camada 3.

Page 86: Cisco CCNA Modulo03

86

4.1.7 Tempo de transmissão da Ethernet 10BASE-T

Esta página explicará como se determina o tempo de transmissão da Ethernet 10BASE-T.

Todas as redes têm o que chamamos bit time ou slot time. Muitas tecnologias rede local, como a Ethernet, definem bit time como a unidade básica de tempo na qual apenas um bit pode ser enviado. Para que os dispositivos ópticos ou eletrônicos reconheçam o um ou o zero binários, deve haver um tempo mínimo durante o qual o bit está ligado ou desligado.

O tempo de transmissão é igual ao número de bits a serem enviados multiplicado pelo bit time de uma determinada tecnologia. Outra maneira de pensar o tempo de transmissão é o intervalo entre o início e o final da transmissão de um quadro, ou entre o início da transmissão de um quadro e uma colisão. Quadros pequenos precisam de uma quantidade de tempo menor. Quadros grandes precisam de uma quantidade de tempo maior.

Cada bit da Ethernet de 10 Mbps tem uma janela de transmissão de 100 ns. Esse é o bit time. Um byte equivale a 8 bits. Portanto, 1 byte leva no mínimo 800 ns para ser transmitido. Um quadro de 64 bytes, que é o menor quadro Ethernet 10BASET que permite que o CSMA/CD funcione corretamente, tem um tempo de transmissão de 51.200 ns ou 51,2 microssegundos. A transmissão de um quadro inteiro de 1000 bytes pela estação de origem exige 800 microssegundos. O tempo em que o quadro efetivamente chega à estação de destino depende da latência adicional introduzida pela rede. Essa latência pode ser devida a diversos atrasos, incluindo todos os seguintes:

• Atrasos da placa de rede; • Atrasos de propagação; • Atrasos dos dispositivos das Camadas 1, 2 ou 3.

A Atividade com Mídia Interativa ajudará os alunos a determinarem os tempos de transmissão da Ethernet 10BASE-T para diferentes tamanhos de quadros.

4.1.8 As vantagens da utilização de repetidores

Esta página explicará como um repetidor pode ser usado para ampliar a distância de uma rede local.

A distância que pode ser coberta por uma rede local é limitada pela atenuação. Atenuação significa que o sinal se enfraquece conforme trafega ao longo da rede. A resistência do cabo ou do meio através do qual o sinal trafega causa a perda de força do sinal. Um repetidor Ethernet é um dispositivo da camada física da rede que amplifica ou regenera o sinal em uma rede local Ethernet. Quando se usa um repetidor para aumentar a distância de uma rede local, uma única rede pode abranger uma distância maior e mais usuários podem compartilhar essa mesma rede. Entretanto, o uso de repetidores e hubs aumenta os problemas associados a broadcasts e colisões. Tem um efeito negativo também sobre o desempenho geral da rede local de meio compartilhado.

Page 87: Cisco CCNA Modulo03

87

4.1.9 Transmissão full-duplex

Esta página explicará como a Ethernet full-duplex permite a transmissão de um pacote e o recebimento de outro pacote ao mesmo tempo. A recepção e a transmissão simultâneas exigem o uso de dois pares de fios no cabo e de uma conexão comutada entre os nós. Essa conexão é considerada ponto-a-ponto e é livre de colisão. Como os dois nós podem transmitir e receber ao mesmo tempo, não há negociações pela largura de banda. A Ethernet full-duplex pode usar uma infra-estrutura de cabos já existente, desde que o meio atenda os padrões Ethernet mínimos.

Para transmitir e receber simultaneamente, é exigida uma porta do switch dedicada para cada nó. As conexões full-duplex podem usar meios 10BASE-T, 100BASE-TX ou 100BASE-FX para criar conexões ponto-a-ponto. As placas de rede de todos os dispositivos conectados precisam ter capacidade full-duplex.

O switch Ethernet full-duplex aproveita os dois pares de fios do cabo e cria uma conexão direta entre o transmissor (TX) em uma extremidade do circuito e o receptor (RX) na outra extremidade. Com as duas estações conectadas dessa forma, cria-se um ambiente livre de colisão, pois a transmissão e a recepção dos dados ocorrem em circuitos independentes e não-concorrentes.

Geralmente, a Ethernet só pode usar de 50% a 60% dos 10 Mbps de largura de banda disponíveis devido às colisões e à latência. A Ethernet full-duplex oferece 100% da largura de banda nas duas direções. Isso produz um throughput potencial de 20 Mbps, resultante dos 10 Mbps de TX e dos 10 Mbps de RX.

4.2 Introdução à comutação de redes locais 4.2.1 Segmentação de redes locais

Esta página explicará a segmentação das redes locais. A figura mostra um exemplo de uma rede Ethernet segmentada. A rede inteira tem 15 computadores. Dos quinze, 6 são servidores e 9 são estações de trabalho. Cada segmento usa o método de acesso CSMA/CD e mantém o tráfego entre os usuários no segmento. Cada segmento é o seu próprio domínio de colisão.

Page 88: Cisco CCNA Modulo03

88

A segmentação permite uma redução significativa do congestionamento da rede dentro de cada segmento. Quando há transmissão de dados em um segmento, os dispositivos dentro desse segmento compartilham a largura de banda total. Os dados que passam entre os segmentos são transmitidos através do backbone da rede por meio de uma bridge, de um roteador ou de um switch.

4.2.2 Segmentação de redes locais com bridges

Esta página descreverá as principais funções de uma bridge em uma rede local.

As bridges são dispositivos da Camada 2 que encaminham os quadros de dados com base no endereço MAC. As bridges lêem o endereço MAC de origem dos pacotes de dados para descobrir os dispositivos que estão em cada segmento. Em seguida, os endereços MAC são usados para construir uma tabela de bridging. Isso permite que as bridges bloqueiem os pacotes que não precisam ser encaminhados para fora do segmento local.

Embora as bridges sejam transparentes para outros dispositivos de rede, a latência da rede aumenta de 10% a 30% quando se usa uma bridge. O aumento de latência se deve às decisões tomadas pelas bridges antes de encaminhar os pacotes. Uma bridge é considerada um dispositivo store-and-forward. As bridges examinam o campo de endereço de destino e calculam o CRC (cyclic redundancy check), presente no campo Frame Check Sequence (FCS) antes de encaminhar o quadro. Se a porta de destino estiver ocupada, as bridges armazenam temporariamente o quadro até que a porta fique disponível

Page 89: Cisco CCNA Modulo03

89

4.2.3 Segmentação de redes locais com roteadores

Esta página explicará como os roteadores são usados para segmentar uma rede local.

Os roteadores fornecem segmentação da rede, o que acrescenta um fator de latência de 20% a 30% em relação a uma rede com switches. Esse aumento de latência se deve ao fato de o roteador operar na camada de rede e usar o endereço IP para determinar o melhor caminho até o nó de destino. Bridges e switches fornecem segmentação dentro de uma única rede ou sub-rede. Os roteadores fornecem conectividade entre redes e sub-redes.

Page 90: Cisco CCNA Modulo03

90

Além disso, os roteadores não encaminham broadcasts, enquanto os switches e as bridges precisam encaminhar quadros de broadcast

4.2.4 Segmentação de redes locais com switches

Esta página explicará como os switches são usados para segmentar uma rede local.

Os switches reduzem a escassez de largura de banda e os gargalos de rede, como os que ocorrem entre várias estações de trabalho e um servidor de arquivos remoto. Os switches segmentam as redes locais em microssegmentos, o que diminui o tamanho dos domínios de colisão. Entretanto, todos os hosts conectados a um switch continuam no mesmo domínio de broadcast.

Em uma rede local Ethernet totalmente comutada, os nós de origem e de destino funcionam como se fossem os únicos nós da rede. Quando esses dois nós estabelecem um link, ou circuito virtual, eles têm acesso à maior largura de banda disponível. Esses links fornecem significativamente mais throughput do que as redes locais Ethernet conectadas por bridges ou hubs. Esse circuito de rede virtual é estabelecido no interior do switch e existe apenas quando os nós precisam se comunicar.

4.2.5 Operações básicas de um switch

Esta página discutirá as funções básicas de um switch em uma rede local.

A comutação (switching) é uma tecnologia que diminui o congestionamento em redes locais Ethernet, Token Ring e FDDI (Fiber Distributed Data Interface). Os switches usam microssegmentação para reduzir os domínios de colisão e o tráfego da rede. Essa redução resulta em um uso mais eficiente da largura de banda e em um aumento do throughput. Os switches de rede local geralmente substituem os hubs compartilhados e são concebidos para trabalhar com as infra-estruturas de cabeamento já existentes.

Page 91: Cisco CCNA Modulo03

91

A seguir estão duas operações básicas realizadas pelos switches:

• Comutar quadros de dados – Os switches recebem quadros em uma interface, selecionam a porta correta para encaminhar os quadros e, em seguida, encaminham os quadros com base na escolha do caminho.

• Manter as operações do switch – Os switches criam e mantêm tabelas de encaminhamento. Eles também constroem e mantêm uma topologia sem loops ao longo da rede local.

Page 92: Cisco CCNA Modulo03

92

Page 93: Cisco CCNA Modulo03

93

4.2.6 Latência do switch Ethernet

Esta página explicará como os switches Ethernet contribuem para a latência.

A latência de um switch é o tempo desde o momento em que um quadro entra no switch até o momento em que o quadro sai do switch. A latência está diretamente relacionada ao processo de comutação configurado e ao volume de tráfego.

Ela é medida em frações de segundo. Os dispositivos de rede operam em velocidades extremamente altas, portanto qualquer nanossegundo adicional de latência afeta negativamente o desempenho da rede.

4.2.7 Comutação da Camada 2 e da Camada 3

Esta página mostrará aos alunos como a comutação ocorre na camada de enlace de dados e na camada de rede.

Page 94: Cisco CCNA Modulo03

94

Roteadores e switches da Camada 3 usam endereços IP para rotear um pacote. Switches de rede local ou switches da Camada 2 encaminham quadros com base nas informações de endereço MAC. Atualmente, os termos comutação da Camada 3 e roteamento são usados como sinônimos.

Existem dois métodos para a comutação de quadros de dados: comutação da Camada 2 e comutação da Camada 3. Roteadores e switches da Camada 3 usam a comutação da Camada 3 para comutar pacotes. Switches da Camada 2 e bridges usam a comutação da Camada 2 para encaminhar quadros.

A diferença entre a comutação da Camada 2 e a comutação da Camada 3 é o tipo de informação contida no quadro, que é usada para determinar a interface de saída correta. A comutação da Camada 2 se baseia nas informações de endereço MAC. A comutação da Camada 3 se baseia nos endereços da camada de rede, ou endereços IP. Os recursos e a funcionalidade dos switches da Camada 3 e dos roteadores têm diversas semelhanças. A única grande diferença entre a operação de comutação de pacotes de um roteador e de um switch da Camada 3 é a implementação física. Em roteadores genéricos, a comutação de pacotes acontece no software, usando mecanismos baseados em microprocessadores, enquanto em um switch da Camada 3 o encaminhamento de pacotes é realizado usando hardware ASIC (application specific integrated circuit). A comutação da Camada 2 toma um endereço MAC de destino no cabeçalho do quadro e encaminha o quadro para a interface ou porta apropriada com base no endereço MAC da tabela de comutação.

A tabela de comutação está contida na CAM (Content Addressable Memory). Se o switch da Camada 2 não souber para onde enviar o quadro, ele faz o broadcast do quadro por todas as suas portas para a rede. Ao receber uma resposta, o switch grava o novo endereço na CAM.

A comutação da Camada 3 é uma função da camada de rede. As informações do cabeçalho da Camada 3 são examinadas e o pacote é encaminhado com base no endereço IP.

Page 95: Cisco CCNA Modulo03

95

O fluxo de tráfego em uma rede comutada ou linear é inerentemente diferente do fluxo de tráfego em uma rede roteada ou hierárquica. As redes hierárquicas oferecem fluxo de tráfego mais flexível do que as redes lineares.

4.2.8 Comutação simétrica e assimétrica

Esta página explicará a diferença entre a comutação simétrica e a comutação assimétrica.

A comutação das redes locais pode ser classificada em simétrica ou assimétrica dependendo da maneira como a largura de banda é alocada para as portas do switch. Um switch simétrico fornece conexões comutadas entre portas com a mesma largura de banda. Um switch de rede local assimétrico fornece conexões comutadas entre portas com larguras de banda diferentes, por exemplo uma combinação de portas de 10 Mbps e de 100 Mbps.

A comutação assimétrica permite dedicar mais largura de banda à porta do switch conectada a um servidor a fim de evitar um gargalo. Isso permite fluxos de tráfego mais suaves, em que vários clientes se comunicam com um servidor ao mesmo tempo. Um switch assimétrico requer bufferização de memória. O uso de buffers mantém os quadros contíguos entre portas com diferentes taxas de dados.

4.2.9 Buffers de memória

Esta página explicará o que é um buffer de memória e como ele é usado.

Um switch Ethernet pode usar a técnica de bufferização para armazenar e encaminhar quadros. A bufferização também pode ser usada quando a porta de destino estiver ocupada. A área de memória onde o switch armazena os dados é chamada de buffer de memória. Esse buffer de memória pode usar dois métodos para encaminhar quadros: a bufferização de memória por porta e a bufferização em memória compartilhada.

Page 96: Cisco CCNA Modulo03

96

Na bufferização por porta, os quadros são armazenados em filas vinculadas a portas de entrada específicas. Um quadro só é transmitido para a porta de saída quando todos os quadros à frente dele na fila tiverem sido transmitidos com êxito. É possível que um único quadro atrase a transmissão de todos os quadros na memória devido a uma porta de destino que esteja ocupada. Esse atraso ocorre mesmo se os outros quadros puderem ser transmitidos para portas de destino que estejam abertas.

A bufferização em memória compartilhada deposita todos os quadros em um buffer de memória comum, que é compartilhado por todas as portas do switch. A quantidade de memória exigida por uma porta para o buffer é alocada dinamicamente. Os quadros no buffer são vinculados dinamicamente à porta de destino. Isso permite que o pacote seja recebido em uma porta e, em seguida, transmitido em outra, sem ser movido para outra fila.

O switch mantém um mapa de vínculos entre quadros e portas, mostrando para onde um pacote precisa ser transmitido. O vínculo é apagado do mapa depois que o quadro é transmitido com êxito. O buffer de memória é compartilhado. A quantidade de quadros armazenados no buffer é restringida pelo tamanho de todo o buffer de memória e não limitada a um único buffer de porta. Isso permite que quadros maiores sejam transmitidos e menos quadros sejam descartados. Isso é importante para a comutação assimétrica, em que há troca de quadros entre portas com taxas diferentes.

4.2.10 Dois métodos de comutação

Esta página apresentará as comutações store-and-forward e cut-through.

Os dois modos de comutação a seguir estão disponíveis para encaminhar quadros:

• Store-and-forward (armazenar e encaminhar) – O quadro inteiro é recebido antes de ser encaminhado. Os endereços de destino e de origem são lidos e os filtros são aplicados antes que o quadro seja encaminhado. A latência ocorre enquanto o quadro está sendo recebido. A latência é maior com quadros maiores, pois todo o quadro precisa ser recebido antes que o processo de comutação comece. O switch é capaz de verificar se há erros em todo o quadro, o que proporciona maior detecção de erros.

• Cut-through (transpassar) – O quadro é encaminhado através do switch antes de ser recebido por completo. Pelo menos o endereço de destino do quadro precisa ser lido

Page 97: Cisco CCNA Modulo03

97

antes que o quadro possa ser encaminhado. Esse modo diminui a latência da transmissão, mas também reduz a detecção de erros.

A seguir estão duas formas de comutação cut-through:

• Fast-forward (encaminhamento rápido) – A comutação fast-forward oferece o menor nível de latência. Ela encaminha imediatamente um pacote após ler o endereço de destino. Como a comutação fast-forward começa o encaminhamento antes de receber todo o pacote, pode acontecer que alguns pacotes sejam retransmitidos com erros. Contudo, isso raramente ocorre e o adaptador de rede do destino descarta o pacote defeituoso após recebê-lo. No modo fast-forward, a latência é medida a partir do primeiro bit recebido até o primeiro bit transmitido.

• Fragment-free (sem fragmentos) – A comutação fragment-free filtra e elimina os fragmentos de colisão antes de iniciar o encaminhamento. Os fragmentos de colisão constituem a maior parte dos erros de pacotes. Em uma rede funcionando corretamente, os fragmentos de colisão devem ser menores que 64 bytes. O que for maior que 64 bytes é um pacote válido e normalmente é recebido sem erro. A comutação fragment-free aguarda até que seja determinado que o pacote não é um fragmento de colisão antes de encaminhá-lo. No modo fragment-free, a latência também é medida a partir do primeiro bit recebido até o primeiro bit transmitido.

A latência de cada modo de comutação depende de como o switch encaminha os quadros. Para realizar um encaminhamento de quadros mais rápido, o switch reduz o tempo de verificação de erros. Entretanto, reduzir o tempo de verificação de erros pode levar a uma quantidade maior de retransmissões.

4.3 Operação do switch 4.3.1 Funções dos switches Ethernet

Esta página examinará as funções dos switches da Camada 2.

Um switch é um dispositivo que conecta segmentos de rede local usando uma tabela de endereços MAC para determinar o segmento para onde um quadro precisa ser transmitido. Tanto os switches como as bridges operam na Camada 2 do modelo OSI.

Às vezes os switches são chamados de bridges multiportas, hubs de comutação ou comutadores. Os switches tomam decisões com base nos endereços MAC e, portanto, são dispositivos da Camada 2. Em comparação, os hubs regeneram os sinais da Camada 1 e os transmitem por todas as portas sem tomar qualquer decisão. Como um switch tem a capacidade de tomar decisões de escolha de caminhos, a rede local fica muito mais eficiente. Geralmente, em uma rede Ethernet, as estações de trabalho estão conectadas

diretamente ao switch. Os switches aprendem quais hosts estão conectados a uma porta lendo o endereço MAC de origem nos quadros. O switch abre um circuito virtual apenas entre os nós de origem e de destino. Isso confina a comunicação a essas duas portas, sem afetar o tráfego nas outras portas. Em comparação, um hub encaminha os dados por todas as portas, de maneira que todos os hosts vêem e precisam processar esses dados, mesmo que não sejam destinados a eles. As redes locais de alto desempenho geralmente são totalmente compostas por switches.

Page 98: Cisco CCNA Modulo03

98

• Um switch concentra a conectividade, tornando a transmissão de dados mais eficiente. Os quadros são comutados das portas de entrada para as portas de saída. Cada porta ou interface pode oferecer toda a largura de banda da conexão ao host.

• Em um hub Ethernet típico, todas as portas se conectam a um backplane ou conexão física comum dentro do hub, e todos os dispositivos conectados ao hub compartilham a largura de banda da rede. Se duas estações estabelecerem uma sessão que use um nível significativo de largura de banda, o desempenho de rede de todas as outras estações conectadas ao hub sofrerá degradação.

• Para reduzir a degradação, o switch trata cada interface como um segmento individual. Quando estações em diferentes interfaces precisam se comunicar, o switch encaminha quadros na velocidade do fio de uma interface para a outra, para garantir que cada sessão receba toda a largura de banda.

Para comutar quadros de maneira eficiente entre as interfaces, o switch mantém uma tabela de endereços. Quando um quadro entra no switch, este associa o endereço MAC da estação emissora com a interface na qual o quadro foi recebido.

As principais características dos switches Ethernet são:

• Isolar tráfego entre segmentos; • Alcançar maior largura de banda por usuário criando domínios de colisão menores.

A primeira característica, isolar o tráfego entre segmentos, proporciona maior segurança para os hosts da rede. Cada segmento usa o método de acesso CSMA/CD para manter o fluxo de tráfego de dados entre os usuários desse segmento. Essa segmentação permite que vários usuários enviem informações ao mesmo tempo em diferentes segmentos sem que a rede fique mais lenta.

Usando os segmentos na rede, menos usuários e/ou dispositivos compartilham a mesma largura de banda ao se comunicarem entre si. Cada segmento tem seu próprio domínio de colisão. Os switches Ethernet filtram o tráfego, redirecionando os datagramas para a(s) porta(s) correta(s), baseando-se nos endereços MAC da Camada 2.

A segunda característica é chamada de microssegmentação. A microssegmentação permite a criação de segmentos de rede dedicados com um host por segmento. Cada host recebe acesso a toda a largura de banda e não tem que competir pela largura de banda disponível com outros hosts. Os servidores mais utilizados podem então ser colocados em links individuais de 100 Mbps. Geralmente, nas redes atuais, um switch Fast Ethernet atua como backbone da rede local, e os hubs Ethernet, switches Ethernet ou hubs Fast Ethernet fornecem as conexões dos desktops nos grupos de trabalho. Conforme se popularizarem novos aplicativos mais exigentes, tais como multimídia ou videoconferência, certos computadores desktop individuais terão links dedicados de 100 Mbps com a rede.

4.3.2 Modos de transmissão de quadros

Esta página descreverá os três principais modos de transmissão de quadros:

Page 99: Cisco CCNA Modulo03

99

• Cut-through – Um switch que realiza comutação cut-through somente lê o endereço de destino ao receber o quadro. O switch começa a encaminhar o quadro antes que este chegue por completo. Esse modo diminui a latência da transmissão, mas tem uma detecção de erros ruim. Há duas formas de comutação cut-through:

o Fast-forward – Este tipo de comutação oferece o nível mais baixo de latência encaminhando imediatamente um pacote após receber o endereço de destino. A latência é medida a partir do primeiro bit recebido até o primeiro bit transmitido, ou seja, o primeiro a entrar é o primeiro a sair (FIFO, first in first out). Este modo tem uma detecção de erros ruim na comutação de rede local.

o Fragment-free – Este tipo de comutação filtra e elimina os fragmentos de colisão, que constituem a maior parte dos erros de pacote, antes de iniciar o encaminhamento. Geralmente, os fragmentos de colisão são menores do que 64 bytes. A comutação fragment-free aguarda até que seja determinado que o pacote recebido não é um fragmento de colisão antes de encaminhá-lo. A latência também é medida como FIFO.

o Store-and-forward – Todo o quadro é recebido antes de ser encaminhado. Os endereços de destino e de origem são lidos e os filtros são aplicados antes que o quadro seja encaminhado. A latência ocorre enquanto o quadro está sendo recebido. A latência é maior com quadros maiores, pois todo o quadro precisa ser recebido antes que o processo de comutação comece. O switch tem tempo para verificar se há erros, o que proporciona maior detecção de erros.

• Adaptive cut-through – Este modo de transmissão é um modo híbrido que combina cut-through e store-and-forward. Neste modo, o switch usa cut-through até detectar uma determinada quantidade de erros. Uma vez atingido o limiar de erros, o switch muda para o modo store-and-forward.

Page 100: Cisco CCNA Modulo03

100

4.3.3 Como os switches e as bridges aprendem endereços

Esta página explicará como as bridges e os switches aprendem endereços e encaminham quadros.

As bridges e os switches só encaminham quadros que precisam trafegar de um segmento da rede local para outro. Para realizar essa tarefa, eles precisam aprender quais dispositivos estão conectados a qual segmento da rede local.

Uma bridge é considerada um dispositivo inteligente, pois pode tomar decisões com base nos endereços MAC. Para isso, ela consulta uma tabela de endereços. Quando uma bridge é ligada, são transmitidas mensagens de broadcast, pedindo que todas as estações no segmento local da rede respondam. Conforme as estações devolvem a mensagem de broadcast, a bridge constrói uma tabela de endereços locais. Esse processo é chamado de aprendizagem.

As bridges e os switches aprendem da seguinte maneira:

• Lendo o endereço MAC de origem de cada quadro ou datagrama recebido; • Gravando a porta na qual o endereço MAC foi recebido.

Dessa forma, a bridge ou o switch aprendem quais endereços pertencem aos dispositivos conectados a cada porta.

Os endereços aprendidos e a respectiva porta ou interface são armazenados na tabela de endereçamento. A bridge examina o endereço de destino de todos os quadros recebidos. Em seguida, ela rastreia a tabela de endereços em busca do endereço de destino.

• A tabela de comutação é armazenada na CAM (Content Addressable Memory). Nesse tipo de memória, o conteúdo é acessado rapidamente. A CAM é usada em aplicações

Page 101: Cisco CCNA Modulo03

101

de comutação para realizar as seguintes funções: Para extrair e processar as informações de endereço dos pacotes de dados de entrada;

• Para comparar o endereço de destino com uma tabela de endereços armazenada nela.

A CAM armazena os endereços MAC dos hosts e os respectivos números de porta. A CAM compara o endereço MAC de destino recebido com o conteúdo da tabela da CAM. Se a comparação resultar em uma correspondência, a porta é fornecida e o controle de roteamento encaminha o pacote para a porta e para o endereço corretos.

Um switch Ethernet pode aprender o endereço de cada dispositivo da rede lendo o endereço de origem de cada quadro transmitido e observando a porta por onde o quadro entrou no switch. O switch então adiciona essas informações ao seu banco de dados de encaminhamento. Os endereços são aprendidos de forma dinâmica. Isso significa que, enquanto os novos endereços são lidos, eles são aprendidos e armazenados na CAM. Quando um endereço de origem não é encontrado na CAM, ele é aprendido e armazenado para uso futuro.

Cada vez que um endereço é armazenado, o horário é registrado. Isso permite que os endereços sejam armazenados por um determinado período de tempo. Cada vez que um endereço é consultado ou encontrado na CAM, ele recebe um novo registro de hora. Os endereços que não forem consultados durante um determinado período são removidos da lista. Ao remover endereços antigos ou obsoletos, a CAM mantém um banco de dados de encaminhamento preciso e funcional.

Os processos seguidos pela CAM são os seguintes:

1. Se o endereço não for encontrado, a bridge encaminha o quadro por todas as portas exceto aquela na qual ele foi recebido. Esse processo é chamado de inundação (flooding). O endereço também pode ter sido excluído pela bridge porque seu software foi reiniciado recentemente, teve escassez de entradas na tabela de endereços ou excluiu o endereço porque ele estava muito velho. Como a bridge não sabe qual porta deve usar para encaminhar o quadro, ela o envia por todas as portas exceto aquela na qual ele foi recebido. Obviamente não é necessário enviá-lo de volta para o mesmo segmento de cabo do qual ele foi recebido, uma vez que todos os outros computadores ou bridges nesse cabo já devem ter recebido o pacote.

2. Se o endereço for encontrado em uma tabela de endereços e estiver associado à porta na qual foi recebido, o quadro é descartado. Ele já deve ter sido recebido pelo destino.

3. Se o endereço for encontrado em uma tabela de endereços e não estiver associado à porta na qual foi recebido, a bridge encaminha o quadro para a porta associada ao endereço.

Se o endereço for encontrado em uma tabela de endereços e não estiver associado à porta na qual foi recebido, a bridge encaminha o quadro para a porta associada ao endereço.

4.3.4 Como os switches e as bridges filtram quadros

Esta página explicará como os switches e as bridges filtram quadros. Nesta discussão, os termos "switch" e "bridge" são sinônimos.

A maior parte das bridges é capaz de filtrar quadros com base em qualquer campo de quadro da Camada 2. Por exemplo, uma bridge pode ser programada para rejeitar, não encaminhar, todos os quadros cuja origem seja uma determinada rede. Como as informações da camada de enlace geralmente incluem uma referência a um protocolo de camada superior, normalmente as bridges podem filtrar com esse parâmetro. Além disso, os filtros podem ser úteis para lidar com pacotes desnecessários de broadcast e multicast.

Assim que a bridge termina de construir a tabela de endereços locais, ela está pronta para operar. Ao receber um quadro, ela examina o endereço de destino. Se o endereço do quadro

Page 102: Cisco CCNA Modulo03

102

for local, a bridge o ignora. Se o quadro for endereçado a outro segmento da rede local, a bridge copia o quadro para o segundo segmento.

• O processo de ignorar um quadro é chamado de filtragem. • O processo de copiar um quadro é chamado de encaminhamento.

A filtragem básica mantém os quadros locais no mesmo local e envia os quadros remotos para outro segmento da rede local.

A filtragem em endereços específicos de origem e destino executa as seguintes ações:

• Impede que uma estação envie quadros para fora do seu segmento local da rede local; • Pára todos os quadros "externos" destinados a uma determinada estação, restringindo

assim as outras estações com as quais ele pode se comunicar.

Os dois tipos de filtragem proporcionam certo controle sobre o tráfego inter-redes e podem oferecer melhor segurança.

A maioria das bridges Ethernet pode filtrar quadros de broadcast e multicast. As bridges e os switches que podem filtrar quadros com base nos endereços MAC também podem ser usados para filtrar quadros Ethernet por endereços de multicast e broadcast. Essa filtragem é obtida por meio da implementação de redes locais virtuais ou VLANs. As VLANs permitem que os administradores de rede evitem a transmissão de mensagens de multicast e broadcast desnecessárias através de uma rede. Às vezes, um dispositivo apresenta defeito e envia continuamente quadros de broadcast, que são copiados ao redor da rede. Isso é chamado de tempestade de broadcasts e pode reduzir significativamente o desempenho da rede. Uma bridge que possa filtrar quadros de broadcast reduz os danos causados por uma tempestade de broadcasts. Hoje em dia, as bridges também são capazes de filtrar de acordo com o protocolo da camada de rede. Isso torna menos nítida a demarcação entre bridges e roteadores. Um roteador opera na camada de rede usando um protocolo de roteamento para orientar o tráfego ao redor da rede. Uma bridge que implemente técnicas avançadas de filtragem geralmente é chamada de "brouter". Os brouters realizam filtragem observando as informações da camada de rede, mas não usam um protocolo de roteamento.

4.3.5 Por que segmentar as redes locais?

Esta página explicará os dois principais motivos para segmentar uma rede local.

Há duas razões principais para a segmentação de uma rede local. A primeira é para isolar o tráfego entre os segmentos. A segunda é para alcançar mais largura de banda por usuário criando domínios de colisão menores.

Sem segmentação, as redes locais com mais do que um pequeno grupo de trabalho rapidamente poderiam ficar obstruídas com o tráfego e as colisões.

A segmentação da rede local pode ser implementada por meio da utilização de bridges, switches e roteadores. Cada um desses dispositivos tem seus prós e contras.

Page 103: Cisco CCNA Modulo03

103

Com o acréscimo de dispositivos como bridges, switches e roteadores, a rede local é segmentada em diversos domínios de colisão menores. No exemplo mostrado, foram criados quatro domínios de colisão.

Ao dividir redes extensas em unidades autocontidas, as bridges e os switches oferecem muitas vantagens. As bridges e os switches diminuem o tráfego observado pelos dispositivos em todos os segmentos conectados, porque apenas uma determinada porcentagem do tráfego é encaminhada. As bridges e os switches reduzem o domínio de colisão, mas não o domínio de broadcast.

Cada interface do roteador se conecta a uma rede diferente. Assim, a inserção de um roteador em uma rede local cria domínios de colisão menores e domínios de broadcast menores. Isso ocorre porque os roteadores não encaminham broadcasts, a menos que sejam programados para tal.

Um switch emprega "microssegmentação" para reduzir o domínio de colisão de uma rede local. O switch faz isso criando segmentos de rede dedicados ou conexões ponto a ponto. Ele conecta esses segmentos em uma rede virtual dentro do switch.

Esse circuito de rede virtual existe apenas quando dois nós precisam se comunicar. É chamado de circuito virtual pois existe apenas quando necessário e é estabelecido dentro do switch.

4.3.6 Implementação da microssegmentação

Esta página explicará as funções de um switch em uma rede local devido à microssegmentação.

Os switches de rede local são considerados bridges multiportas sem domínio de colisão, devido à microssegmentação. Os dados são trocados em altas velocidades através da comutação do quadro para o seu destino. Lendo as informações do endereço MAC de Camada 2 de destino, os switches podem alcançar transferências de dados de alta velocidade, da mesma forma que uma bridge. Esse processo leva a baixos níveis de latência e a uma alta taxa de velocidade de encaminhamento de quadros.

Page 104: Cisco CCNA Modulo03

104

A comutação Ethernet aumenta a largura de banda disponível em uma rede. Ela faz isso criando segmentos de rede dedicados, ou conexões ponto-a-ponto, e conectando esses segmentos em uma rede virtual dentro do switch. Esse circuito de rede virtual existe apenas quando dois nós precisam se comunicar. É chamado de circuito virtual, pois existe apenas quando necessário e é estabelecido dentro do switch.

Embora o switch de rede local reduza o tamanho do domínio de colisão, todos os hosts conectados ao switch continuam no mesmo domínio de broadcast. Portanto, um broadcast de um nó ainda será visto por todos os outros nós conectados através do switch da rede local.

Os switches são dispositivos da camada de enlace que, como as bridges, permitem que vários segmentos de rede local físicos sejam interconectados em uma única rede maior. Semelhantes às bridges, os switches encaminham e inundam tráfego com base em endereços MAC. Como a comutação é executada no hardware em vez de no software, ela é significativamente mais rápida. Cada porta do switch pode ser considerada uma micro-bridge, que age como uma bridge independente e oferece a largura de banda total do meio para cada host.

4.3.7 Switches e domínios de colisão

Esta página discutirá as colisões, que são uma grande desvantagem das redes Ethernet 802.3.

Os colisões ocorrem quando dois hosts transmitem quadros simultaneamente. Quando ocorre uma colisão, os quadros transmitidos são corrompidos ou destruídos. Os hosts emissores param de enviar outras transmissões durante um período aleatório, com base nas regras Ethernet 802.3 do CSMA/CD. Um excesso de colisões torna as redes improdutivas.

A área da rede onde os quadros se originam e colidem é chamada de domínio de colisão. Todos os ambientes de meio físico compartilhado são domínios de colisão. Quando um host é conectado a uma porta do switch, o switch cria uma conexão dedicada. Essa conexão é considerada um domínio de colisão individual. Por exemplo, se um switch com 12 portas tiver um dispositivo conectado a cada porta, serão criados 12 domínios de colisão.

Um switch cria uma tabela de comutação aprendendo os endereços MAC dos hosts que estão conectados a cada uma de suas portas. Quando dois hosts conectados querem se comunicar, o switch consulta a tabela de comutação e estabelece uma conexão virtual entre as portas. O circuito virtual é mantido até que a sessão seja encerrada.

Na figura , Host B e Host C querem se comunicar. O switch cria a conexão virtual, que é chamada de microssegmento. O microssegmento se comporta como se a rede tivesse apenas dois hosts, um que envia e outro que recebe, proporcionando a máxima utilização da largura de banda disponível.

Page 105: Cisco CCNA Modulo03

105

Os switches reduzem as colisões e aumentam a largura de banda nos segmentos da rede porque fornecem largura de banda dedicada a cada segmento da rede.

4.3.8 Switches e domínios de broadcast

Esta página descreverá os três métodos de transmissão de dados utilizados em uma rede. A maneira mais comum de comunicação é por transmissões unicast. Em uma transmissão unicast, um transmissor tenta alcançar um receptor.

Outra forma de comunicação é conhecida como transmissão multicast. A transmissão multicast ocorre quando um transmissor tenta alcançar apenas um subconjunto, ou grupo, de todo o segmento.

A última forma de comunicação é por broadcast. Broadcast é quando um transmissor tenta alcançar todos os receptores da rede. A estação servidora envia uma mensagem e todos que estão nesse segmento recebem a mensagem.

Quando um dispositivo quer enviar um broadcast de Camada 2, o endereço MAC de destino no quadro é definido como apenas 1s. Um endereço MAC apenas com 1s é FF:FF:FF:FF:FF:FF em hexadecimal. Definindo o destino com esse valor, todos os dispositivos aceitam e processam o quadro enviado por broadcast.

O domínio de broadcast na Camada 2 é chamado de domínio de broadcast MAC. O domínio de broadcast MAC consiste em todos os dispositivos da rede local que recebem broadcasts de quadros enviados por um host a todas as outras máquinas da rede local.

Um switch é um dispositivo da Camada 2. Quando um switch recebe um broadcast, ele o encaminha para todas as portas do switch exceto a porta de entrada. Cada dispositivo conectado deve processar o quadro de broadcast. Isso resulta em diminuição da eficiência da rede, pois a largura de banda disponível é usada para fins de broadcast.

Page 106: Cisco CCNA Modulo03

106

Quando dois switches estão conectados, o domínio de broadcast aumenta. Neste exemplo, um quadro de broadcast é encaminhado para todas as portas conectadas ao Switch 1. O switch 1 está conectado ao Switch 2. O quadro é propagado para todos os dispositivos conectados ao Switch 2.

O resultado geral é uma redução da largura de banda disponível. Isso ocorre porque todos os dispositivos no domínio de broadcast precisam receber e processar o quadro de broadcast.

Os roteadores são dispositivos da Camada 3. Eles não propagam broadcasts. Os roteadores são usados para segmentar tanto domínios de broadcast como domínios de colisão.

4.3.9 Comunicação entre switches e estações de trabalho

Esta página explicará como os switches aprendem sobre as estações de trabalho de uma rede local.

Quando uma estação de trabalho se conecta a uma rede local, ela não se preocupa com os outros dispositivos que estão conectados ao meio físico da rede local. A estação de trabalho simplesmente transmite os quadros de dados usando uma placa de rede para o meio que compõe a rede.

Ela poderia estar conectada diretamente a outra estação de trabalho usando um cabo cruzado. Os cabos cruzados são usados para conectar os seguintes dispositivos:

• Estação de trabalho a estação de trabalho; • Switch a switch; • Switch a hub; • Hub a hub; • Roteador a roteador; • Roteador a PC.

Os cabos diretos são usados para conectar os seguintes dispositivos:

• Switch a roteador; • Switch a estação de trabalho ou servidor; • Hub a estação de trabalho ou servidor.

Os switches são dispositivos da Camada 2 que usam inteligência para aprender os endereços MAC dos dispositivos conectados às suas portas. Esses dados são inseridos em uma tabela de

Page 107: Cisco CCNA Modulo03

107

comutação. Uma vez preenchida a tabela, o switch pode ler o endereço MAC de destino de um quadro de dados de entrada em uma porta e encaminhá-lo imediatamente. Até que um dispositivo transmita, o switch não sabe seu endereço MAC.

Os switches oferecem significativa escalabilidade em uma rede e podem ser conectados diretamente. A figura ilustra uma situação de transmissão de quadro utilizando uma rede com vários switches.

Resumo

Ethernet é a arquitetura rede local mais comum e é usada para transportar dados entre os dispositivos de uma rede. Em sua origem, a Ethernet era uma tecnologia half-duplex. Usando half-duplex, um host podia ou transmitir ou receber em um determinado momento, mas não as duas coisas. Quando dois ou mais hosts Ethernet transmitem ao mesmo tempo em uma meio compartilhado, o resultado é uma colisão. O tempo que um quadro ou um pacote leva para trafegar da estação de origem até o destino final é conhecido como latência ou atraso. As três fontes de latência são o atraso da placa de rede, o atraso efetivo de propagação e o atraso devido a dispositivos específicos da rede.

Bit time ou slot time é a unidade básica de tempo na qual UM bit pode ser enviado. Deve haver um tempo mínimo durante o qual o bit está ligado ou desligado, para que o dispositivo reconheça o um ou o zero binários.

Atenuação significa que um sinal se enfraquece conforme trafega ao longo da rede. Isso limita a distância que pode ser abrangida por uma rede local. Um repetidor pode ampliar a distância de uma rede local, mas também tem um efeito negativo sobre o seu desempenho geral.

A transmissão full-duplex entre estações é obtida pelo uso de conexões Ethernet ponto a ponto. A transmissão full-duplex proporciona um ambiente de transmissão sem colisões. As duas estações podem transmitir e receber ao mesmo tempo, e não há negociações pela largura de banda. É possível utilizar a infra-estrutura de cabeamento existente, desde que o meio físico atenda aos padrões mínimos da Ethernet.

A segmentação divide uma rede em unidades menores para reduzir o congestionamento da rede e melhorar a segurança. O método de acesso CSMA/CD em cada segmento mantém o tráfego entre os usuários. A segmentação com uma bridge de Camada 2 é transparente para os outros dispositivos da rede, mas a latência aumenta significativamente. Quanto mais trabalho um dispositivo da rede realiza, maior a latência que ele introduz na rede. Os roteadores fornecem segmentação de redes, mas podem acrescentar um fator de latência de 20% a 30% em relação a uma rede comutada. Esse aumento de latência se deve ao fato de o

Page 108: Cisco CCNA Modulo03

108

roteador operar na camada de rede e usar o endereço IP para determinar o melhor caminho até o nó de destino. Um switch pode segmentar uma rede local em microssegmentos, o que diminui o tamanho dos domínios de colisão. Entretanto, todos os hosts conectados ao switch continuam no mesmo domínio de broadcast.

A comutação (switching) é uma tecnologia que diminui o congestionamento em redes locais Ethernet, Token Ring e FDDI (Fiber Distributed Data Interface). Comutação é o processo de receber um quadro em uma interface e encaminhá-lo através de outra interface. Os roteadores usam comutação da Camada 3 para rotear um pacote. Os switches usam comutação da Camada 2 para encaminhar quadros. Um switch simétrico fornece conexões comutadas entre portas com a mesma largura de banda. Um switch rede local assimétrico fornece conexões comutadas entre portas com diferentes larguras de banda, como uma combinação de portas de 10 Mbps e de 100 Mbps.

Um buffer de memória é uma área de memória onde um switch armazena dados. Ele pode usar dois métodos para encaminhar quadros: a bufferização por porta e a bufferização em memória compartilhada.

Existem dois modos de encaminhamento de quadros. Store-and-forward recebe todo o quadro antes de encaminhá-lo, enquanto cut-through encaminha o quadro conforme ele é recebido, diminuindo a latência. Fast-forward e fragment-free são dois tipos de encaminhamento cut-through.

Page 109: Cisco CCNA Modulo03

109

MODULO 05 - Switches Visão Geral

A tarefa de projetar uma rede pode ser um desafio porque envolve mais do que a simples conexão de dois computadores. Uma rede requer vários recursos para ser confiável, gerenciável e escalável. Para projetar redes confiáveis, gerenciáveis e escaláveis, os projetistas de redes devem entender que cada um dos principais componentes de uma rede tem requisitos de projeto diferentes.

O projeto de uma rede tornou-se mais difícil, apesar de avanços no desempenho dos equipamentos e nas capacidades dos meios físicos. A utilização de vários tipos de meios físicos e redes locais que fazem interconexão com outras redes aumentou a complexidade do ambiente de redes. Bons projetos de redes melhoram o desempenho e também reduzem as dificuldades associadas ao crescimento e evolução das redes.

Uma rede local abrange uma sala, edifício ou conjunto de edifícios relativamente contíguos. Um grupo de edifícios localizados perto uns dos outros e pertencentes a uma única organização é denominado campus. Os seguintes aspectos da rede precisam ser identificados antes de se projetar uma rede local de grande porte:

• Uma camada de acesso que conecte usuários finais à rede local • Uma camada de distribuição que ofereça conectividade baseada em diretivas entre

redes locais de usuários finais • Uma camada central que proporcione a conexão mais rápida entre os pontos de

distribuição.

Cada uma dessas camadas do projeto de uma rede local exige switches que são melhor adaptados às tarefas específicas. Os recursos, funções e especificações técnicas de cada switch variam conforme a camada do projeto de rede local para a qual se destina o switch. Para obter o melhor desempenho, é importante entender o papel de cada camada para, então, escolher o switch que melhor se adapte aos requisitos da camada.

5.1 Projeto de uma Rede Local 5.1.1 Objetivos de um projeto de rede local

A primeira etapa no projeto de uma rede local é estabelecer e documentar os objetivos do projeto. Esses objetivos são específicos de cada organização ou situação. Esta página irá descrever os requisitos da maioria dos projetos de uma rede:

• Funcionalidade -- A rede precisa funcionar. A rede precisa permitir que os usuários desempenhem os seus deveres profissionais. A rede precisa oferecer conectividade de usuário-para-usuário e de usuário-para-aplicativo com velocidade e confiabilidade razoáveis.

• Escalabilidade -- A rede deve ser capaz de se expandir. O projeto inicial deve poder ser ampliado sem causar grandes mudanças no projeto geral.

• Adaptabilidade – A rede precisa ser projetada com vistas a tecnologias futuras. A rede não deve incluir elementos que limitem a implementação de novas tecnologias ao surgirem.

• Gerenciabilidade - A rede deve ser projetada de modo a facilitar sua monitoração e gerenciamento, para assegurar estabilidade permanente de operação.

A Atividade Interativa com Mídia irá ajudar os alunos a se familiarizarem com os quatro objetivos principais de um projeto

Page 110: Cisco CCNA Modulo03

110

5.1.2 Considerações do projeto de uma rede local

Esta página irá descrever alguns fatores importantes a serem considerados ao se projetar uma rede local.

Muitas organizações já atualizaram suas redes locais atuais ou planejam implementar novas redes locais. Essa expansão no projeto de redes locais deve-se ao desenvolvimento de tecnologias de alta velocidade, tais como o Asynchronous Transfer Mode (ATM). Essa expansão também deve-se a arquiteturas complexas de redes locais que utilizam a comutação de redes locais e redes locais virtuais (VLANs).

Para utilizar ao máximo a largura de banda disponível e o desempenho da rede local, as seguintes considerações no projeto de uma rede local precisam ser abordadas:

• A função e colocação dos servidores • Questões de domínios de colisão • Questões de segmentação • Questões de domínios de broadcast

Os servidores permitem que os usuários das redes comuniquem-se, compartilhem arquivos, impressoras e serviços de aplicativos. Os servidores tipicamente não funcionam como estações de trabalho. Os servidores executam sistemas operacionais especializados, tais como NetWare, Windows NT, UNIX e Linux. Cada servidor costuma ser dedicado a uma função, como correio eletrônico ou compartilhamento de arquivos.

Os servidores podem ser categorizados como servidores corporativos ou servidores de grupo de trabalho. Um servidor corporativo dá suporte a todos os usuários da rede, oferecendo serviços como correio eletrônico ou DNS (Domain Name System). O correio eletrônico ou o DNS é um serviço de que todos dentro de uma organização precisam, porque é uma função centralizada. Um servidor de grupo de trabalho dá suporte a um conjunto específico de usuários e oferece serviços tais como processamento de palavras e compartilhamento de arquivos.

Page 111: Cisco CCNA Modulo03

111

Com se vê na Figura, os servidores corporativos devem ser colocados nas instalações principais de distribuição (main distribution facility – MDF). Sempre que possível, o tráfego para os servidores corporativos deve transitar até a MDF e não ser transmitido através de outras redes. No entanto, algumas redes utilizam um núcleo roteado ou até um server farm para os servidores corporativos. Nesses casos, o tráfego de rede transita através de outras redes e isso geralmente não pode ser evitado. Idealmente, os servidores de grupo de trabalho devem ser colocados nas instalações de distribuição intermediárias (intermediate distribution facilities - IDFs) mais próximas aos usuários que acessam os aplicativos desses servidores. Isso permite que o tráfego transite através da infra-estrutura da rede até uma IDF, e não afeta outros usuários naquele segmento da rede. Os switches de rede local de camada 2, no interior da MDF e das IDFs, devem ter 100 Mbps ou mais alocados para esses servidores.

Os nós Ethernet utilizam CSMA/CD. Cada nó precisa competir com os demais nós para acessar os meios físicos compartilhados, ou domínio de colisão. Se dois nós transmitem simultaneamente, ocorre uma colisão. Quando ocorrem colisões, o quadro transmitido é destruído e um sinal de congestionamento é enviado a todos os nós do segmento. Os nós esperam um período de tempo aleatório e, então, enviam os dados novamente. Um número excessivo de colisões pode reduzir a largura de banda disponível em um segmento de rede em trinta e cinco a quarenta por cento da largura de banda disponível.

A segmentação ocorre quando um só domínio de colisão é dividido em domínios de colisão menores.

Domínios de colisão menores reduzem o número de colisões em um segmento de uma rede local e permitem uma melhor utilização da largura de banda. Dispositivos de camada 2, tais como bridges e switches, podem ser utilizados para segmentar uma rede local. Os roteadores podem fazer isso na camada 3.

Um broadcast ocorre quando o endereço MAC (media access control) de destino é definido como FF-FF-FF-FF-FF-FF. O termo domínio de broadcast refere-se a um conjunto de dispositivos que recebem um quadro de dados de broadcast vindo de qualquer dispositivo dentro do próprio conjunto. Todos os hosts que recebem um quadro de dados de broadcast precisam processá-lo. Esse processo consome os recursos e a largura de banda disponível do host. Os dispositivos de camada 2, tais como bridges e switches, reduzem o tamanho de um domínio de colisão. Esses dispositivos não reduzem o tamanho do domínio de broadcast. Os roteadores reduzem o tamanho do domínio de colisão e o tamanho do domínio de broadcast na camada 3.

Page 112: Cisco CCNA Modulo03

112

5.1.3 Metodologia de projeto de uma rede local

Para que uma rede local seja eficiente e atenda às necessidades de seus usuários, ela deve ser projetada e implementada de acordo com uma série planejada de etapas sistemáticas. Esta página irá descrever as seguintes etapas:

• Coletar requisitos e expectativas • Analisar requisitos e dados • Projetar a estrutura das camadas 1, 2 e 3 da rede local, ou seja, a topologia • Documentar a implementação física e lógica da rede

O processo de coletar informações ajuda a esclarecer e identificar quaisquer problemas atuais na rede. Essas informações incluem o histórico e o estado atual da organização, projeções de crescimento, diretrizes operacionais e procedimentos de gerenciamento, sistemas e procedimentos burocráticos e as opiniões dos futuros usuários da rede local.

As seguintes perguntas devem ser feitas ao coletar informações:

• Quem serão os futuros usuários da rede?

Page 113: Cisco CCNA Modulo03

113

• Qual é o nível de perícia dessas pessoas? • Quais são suas atitudes com relação aos computadores e aplicativos? • Até que ponto estão desenvolvidas as diretrizes organizacionais documentadas? • Algum tipo de dados foi definido como sendo de suma importância aos propósitos da

organização? • Alguma operação foi definida como sendo de suma importância aos propósitos da

organização? • Que protocolos são permitidos na rede? • Há suporte apenas para certos hosts de desktop? • Quem é responsável pelos endereços, nomes, projeto de topologia e configuração da

rede local? • Quais são os recursos organizacionais humanos, de hardware e de software? • Como esses recursos estão vinculados e compartilhados atualmente? • Quais recursos financeiros estão disponíveis para a organização?

Uma documentação dos requisitos permite a formulação de uma estimativa informada dos custos e prazos para a implementação do projeto da rede local. É importante entender as questões de desempenho de qualquer rede.

A disponibilidade mede a utilidade da rede. Segue abaixo uma lista de algumas das muitas coisas que afetam a disponibilidade:

• Throughput • Tempo de resposta • Acesso aos recursos

Cada cliente tem uma definição diferente de disponibilidade. Por exemplo, pode ser necessário transmitir voz e imagens de vídeo pela rede. Esses serviços podem requerer muito mais largura de banda do que aquela disponível na rede ou no backbone. Para aumentar a disponibilidade, podem ser adicionados recursos, mas isso aumenta o custo da rede. Os projetos de rede devem proporcionar a maior disponibilidade possível pelo menor preço.

A próxima etapa no projeto de uma rede é analisar os requisitos da rede e de seus usuários. As necessidades dos usuários de uma rede estão sempre evoluindo. À medida que vão se tornando disponíveis mais aplicativos de voz e de vídeo nas redes, vai crescendo também a necessidade de aumentar a largura de banda nas redes.

Uma rede local que não tem a capacidade de proporcionar informações aos seus usuários de maneira rápida e precisa é inútil. Deve-se tomar as medidas necessárias para garantir que sejam atendidos os requisitos de informações da organização e de seus funcionários.

Page 114: Cisco CCNA Modulo03

114

A próxima etapa é escolher uma topologia geral para a rede local que atenda aos requisitos dos usuários.

Neste currículo, o foco estará na topologia em estrela e na topologia em estrela estendida. A topologia em estrela e a topologia em estrela estendida utilizam a tecnologia Ethernet 802.3 CSMA/CD. A topologia em estrela CSMA/CD é a configuração dominante na indústria.

O projeto da topologia de uma rede local pode ser dividido nas seguintes três categorias únicas do modelo de referência OSI:

• Camada de rede • Camada de enlace de dados • Camada física

A etapa final da metodologia do projeto de uma rede local é documentar a topologia física e lógica da rede. A topologia física da rede refere-se à maneira pela qual os vários componentes de uma rede local são interconectados. O projeto lógico de uma rede refere-se ao fluxo de

Page 115: Cisco CCNA Modulo03

115

dados dentro de uma rede. Também se refere aos esquemas de nomes e endereços usados nas implementações das soluções do projeto de uma rede local.

Os seguintes itens são importantes para a documentação do projeto de uma rede local.

• Mapa da topologia das camadas do modelo OSI

• Mapa lógico da rede local • Mapa físico da rede local • Diagramas de cabeamento

Page 116: Cisco CCNA Modulo03

116

• Mapa lógico de VLANs

• Mapa lógico da camada 3

Page 117: Cisco CCNA Modulo03

117

• Mapas de endereços

5.1.4 Projeto de camada 1

Esta página irá ensinar aos alunos como projetar a topologia de camada 1 de uma rede.

Um dos componentes mais importantes a considerar no projeto de uma rede é o cabeamento. Hoje, a maior parte do cabeamento das redes locais é baseada na tecnologia Fast Ethernet. Fast Ethernet é Ethernet que foi atualizada de 10 MBPS para 100 Mbps, e que tem a capacidade de utilizar a funcionalidade full duplex. Fast Ethernet usa a topologia de barramento lógico orientada a broadcast Ethernet 10BASE-T e o método CSMA/CD para os endereços MAC.

Questões de projeto de camada 1 incluem o tipo de cabeamento a ser usado, normalmente cobre ou fibra e a estrutura geral do cabeamento. Isso também inclui o padrão TIA/EIA-568-A para a disposição e conexão de esquemas de fiação. Tipos de meios físicos de camada 1 incluem 10/100BASE-TX, Categoria 5, 5e, ou 6 unshielded twisted-pair (UTP), ou shielded twisted-pair (STP) e cabo de fibra ótica 100BaseFX.

Uma avaliação cuidadosa dos pontos fortes e fracos das topologias deve ser feita. A eficácia de uma rede depende dos cabos a serem utilizados.

Questões de camada 1 causam a maioria dos problemas nas redes. Deve ser feita uma auditoria completa dos cabos quando se planeja fazer mudanças radicais em uma rede. Isso ajuda a identificar áreas que requerem atualizações ou novo cabeamento.

Cabos de fibra ótica devem ser utilizados no backbone e risers (conexões verticais) em todos os projetos de cabeamento. Cabos de Categoria 5e UTP devem ser utilizados nos lances horizontais. A atualização do cabeamento deve ter preferência sobre qualquer outra modificação

Page 118: Cisco CCNA Modulo03

118

necessária. As empresas também devem certificar-se de que estes sistemas cumprem os padrões bem definidos da indústria, tais como as especificações TIA/EIA-568-A.

O padrão TIA/EIA-568-A especifica que todo dispositivo conectado à rede deve ser ligado a um ponto central através de cabeamento horizontal. Isso se aplica se todos os hosts que necessitam ter acesso à rede estiverem dentro do limite de distância de 100 metros (328 pés) para Categoria 5e UTP Ethernet.

Em uma simples topologia em estrela com apenas um wiring closet, o MDF inclui um ou mais patch panels de conexão horizontal (HCC).

Os patch cables HCC são usados para conectar o cabeamento horizontal da camada 1 às portas dos switches de rede local da camada 2. A porta uplink do switch da rede local, conforme o modelo, é conectada à porta Ethernet do roteador de camada 3 através de um patch cable. Neste ponto, o host final tem uma conexão física completa à porta do roteador.

Quando os hosts em redes maiores excederem o limite de 100 metros (328 pés) para Categoria 5e UTP, é necessário mais de um wiring closet. Mais de um wiring closet implica mais de uma área de captação. Os wiring closets secundários são conhecidos como IDFs. Os padrões TIA/EIA -568-A especificam que os IDFs devem ser conectados ao MDF através de cabeamento vertical, também conhecido como cabeamento de backbone.

Page 119: Cisco CCNA Modulo03

119

Uma conexão cruzada vertical (VCC) é usada para fazer a interconexão entre as várias IDFs e a MDF. Cabo de fibra ótica é normalmente usado porque os lances de cabo vertical geralmente excedem o limite de 100 metros (328 pés) para cabo Categoria 5e UTP.

O diagrama lógico é o modelo da topologia da rede sem todos os detalhes do caminho exato da instalação dos cabos. O diagrama lógico é o mapa básico da rede local, que inclui os seguintes elementos:

• A especificação dos locais e a identificação dos wiring closets da MDF e das IDFs. • Documentação do tipo e quantidade de cabos usados para interconectar as IDFs com

a MDF. • Documentação do número de cabos sobressalentes disponíveis para aumentar a

largura de banda entre os wiring closets. Por exemplo, se o cabeamento vertical entre a IDF 1 e a MDF estiver sendo utilizado em oitenta por cento, poderão ser utilizados dois pares adicionais para duplicar a capacidade.

• Fornecimento da documentação detalhada de todos os lances de cabos, seus números de identificação e a porta na qual termina o lance no HCC ou no VCC.

O diagrama lógico é essencial para identificar e resolver problemas de conectividade na rede. Se a Sala 203 perder a conectividade à rede, o diagrama de cabeamento indica que aquela sala é servida pelo lance 203-1, que termina na porta 13 do HCC1. É possível usar um testador de cabos para identificar falhas de camada 1. Nesse caso, um dos outros dois lances pode ser usado para restabelecer a conectividade e dar tempo para resolver o problema com o lance 203-1.

5.1.5 Projeto de camada 2

O propósito dos dispositivos de camada 2 na rede é comutar quadros conforme o seu endereço MAC de destino, providenciar a detecção de erros e reduzir o congestionamento na rede. Os dois dispositivos de rede mais comuns de camada 2 são bridges e switches de rede local. Os dispositivos na camada 2 determinam o tamanho dos domínios de colisão.

As colisões e a dimensão do domínio de colisão são dois fatores que afetam negativamente o desempenho da rede.

Page 120: Cisco CCNA Modulo03

120

A microssegmentação da rede reduz o tamanho dos domínios de colisão e reduz o número de colisões. A microssegmentação é implementada através da utilização de bridges e switches. O objetivo é melhorar o desempenho para um grupo de trabalho ou para um backbone. Os switches podem ser usados com hubs para fornecer o nível apropriado de desempenho a diferentes usuários e servidores.

Outra importante característica de um switch de rede local é como ele aloca a largura de banda para cada porta. Isso proporciona maior largura de banda para o cabeamento

vertical, uplinks e servidores.

Este tipo de comutação é conhecido como comutação assimétrica. A comutação assimétrica fornece conexões comutadas entre portas com diferentes larguras de banda, como uma combinação de portas de 10 Mbps e de 100 Mbps. A comutação simétrica fornece conexões comutadas entre portas com largura de banda semelhante.

A capacidade desejada de um lance de cabo vertical é superior àquela de um lance de cabo horizontal. A instalação de um switch de rede local na MDF e na IDF permite que o lance

de cabo vertical faça o gerenciamento do tráfego de dados entre a MDF e a IDF.

Page 121: Cisco CCNA Modulo03

121

Os lances horizontais entre a IDF e as estações de trabalho utilizam cabo Categoria 5e UTP. Um cabo de acesso horizontal deve ter um comprimento superior a 100 metros (328 pés). Em um ambiente normal, 10 Mbps é adequado para o cabo de acesso horizontal. Os switches de rede local assimétricos permitem misturar portas de 10 Mbps e 100 Mbps no mesmo switch.

A próxima tarefa é determinar o número de portas de 10 Mbps e de 100 Mbps necessárias na MDF e em cada IDF. Isso é realizado por meio de um exame dos requisitos dos usuários quanto ao número de cabos de acesso horizontais para cada sala e o número total de cabos de acesso em qualquer área de captação. Isso inclui o número de lances de cabo verticais. Por exemplo, digamos que os requisitos dos usuários exijam quatro lances de cabos horizontais instalados em cada sala. A IDF cobre uma área de captação de 18 salas. Portanto, quatro cabos de acesso em cada uma das 18 salas totaliza 4x18, ou seja, 72 portas de switch de rede local.

O tamanho de um domínio de colisão é determinado pelo número de hosts fisicamente conectados a qualquer porta no switch. Isso também afeta a largura de banda disponível para qualquer host. A situação ideal é apenas um host conectado a uma porta do switch de rede local. O domínio de colisão consistiria somente no host de origem e o host de destino. O tamanho do domínio de colisão seria dois. Devido ao tamanho diminuto desse domínio de colisão, deveria haver virtualmente nenhuma colisão quando dois hosts se comunicam entre si. Outra maneira de implementar a comutação de uma rede local é instalar hubs de rede local compartilhados nas portas do(s) switch(es). Isso permite que vários hosts façam a conexão a uma só porta de switch.

Page 122: Cisco CCNA Modulo03

122

Todos os hosts conectados ao hub de rede local compartilham o mesmo domínio de colisão e a mesma largura de banda. Isso significa que ocorrerão colisões com mais freqüência.

Os hubs de meios físicos compartilhados são geralmente usados no ambiente de um switch de rede local para criar mais pontos de conexão na extremidade dos lances de cabos horizontais.

Page 123: Cisco CCNA Modulo03

123

Os hubs de meios físicos compartilhados são geralmente usados no ambiente de um switch de rede local para criar mais pontos de conexão na extremidade dos lances de cabos horizontais. Essa solução é aceitável mas é preciso ter cuidado. Os domínios de colisão devem ser mantidos pequenos e a largura de banda para o host precisa ser providenciada de acordo com as especificações coletadas na fase de levantamento de requisitos do processo de projeto da rede.

5.1.6 Projeto de camada 3

Um roteador é um dispositivo de camada 3 e é considerado um dos dispositivos mais possantes na topologia de uma rede.

Os dispositivos de camada 3 podem ser usados para criar segmentos únicos de rede local. Os dispositivos de camada 3 permitem comunicações entre segmentos com base nos endereços de camada 3, tais como endereços IP. A implementação dos dispositivos de camada 3 permite a segmentação da rede local em redes lógicas e físicas únicas. Os roteadores também permitem a conectividade com WANs, como, por exemplo, a Internet.

O roteamento de camada 3 determina o fluxo de tráfego entre segmentos únicos de rede física baseados em endereços de camada 3. Um roteador encaminha pacotes de dados com base nos endereços de destino. Um roteador não encaminha broadcasts baseados em redes locais, tais como solicitações ARP. Portanto, a interface do roteador é considerada o ponto de entrada e saída de um domínio de broadcast e interrompe broadcasts para outros segmentos da rede local.

Os roteadores oferecem escalabilidade porque servem de firewalls para broadcasts e podem dividir as redes em sub-redes com base nos endereços de camada 3.

Na decisão de usar roteadores ou switches, é importante determinar qual é o problema que precisa ser resolvido. Se o problema for relacionado antes ao protocolo do que a questões de competição, os roteadores serão a solução apropriada. Os roteadores resolvem problemas de broadcasts excessivos, de protocolos que não escalam bem, de questões de segurança e de endereços da camada de rede. Os roteadores são mais caros e mais difíceis de se configurar que os switches.

Page 124: Cisco CCNA Modulo03

124

A Figura mostra um exemplo de uma implementação que tem várias redes. Todo o tráfego de dados da Rede 1 destinado à Rede 2 tem que passar pelo roteador. Nesta implementação, há dois domínios de broadcast. As duas redes possuem esquemas únicos de endereçamento de rede de camada 3. Várias redes físicas podem ser criadas com a inserção do cabeamento horizontal e vertical no switch de camada 2 apropriado. Isso pode ser realizado com patch cables. Essa implementação também proporciona uma segurança robusta porque todo o tráfego que entra e sai da rede local precisa passar pelo roteador.

Uma vez criado um esquema de endereços IP para um cliente, ele deve ser claramente documentado. Uma convenção padrão deve ser definida para os endereços de hosts importantes na rede.

Esse esquema de endereços deve permanecer consistente através de toda a rede. Mapas de endereços proporcionam uma visão instantânea da rede.

Page 125: Cisco CCNA Modulo03

125

Mapas físicos da rede ajudam na solução de problemas na rede.

Page 126: Cisco CCNA Modulo03

126

A implementação de VLANs combina a comutação de camada 2 com as tecnologias de roteamento de camada 3 para limitar tanto os domínios de colisão como os domínios de broadcast. As VLANs também proporcionam segurança, com a criação de grupos VLAN que se comunicam com outras VLANs através de roteadores.

Uma associação de porta física é usada para implementar a designação de VLANs. As portas P1, P4 e P6 foram atribuídas à VLAN 1. A VLAN 2 tem as portas P2, P3 e P5. A comunicação entre a VLAN 1 e a VLAN 2 pode ocorrer apenas através do roteador. Isso limita o tamanho dos domínios de broadcast e utiliza o roteador para determinar se a VLAN 1 pode falar com a VLAN 2.

5.2 Switches de Redes Locais 5.2.1 Redes locais comutadas, visão geral da camada de acesso

A construção de uma rede local que satisfaça às exigências de organizações de médio e grande porte terá mais probabilidade de sucesso se for utilizado um modelo de projeto hierárquico. Essa página irá tratar das três camadas de um modelo de projeto hierárquico.

• A camada de acesso proporciona acesso à rede para usuários em grupos de trabalho. • A camada de distribuição proporciona uma conectividade com base em diretivas. • A camada central fornece o melhor transporte possível entre instalações. A camada

central é freqüentemente conhecida como backbone.

Page 127: Cisco CCNA Modulo03

127

Esse modelo hierárquico aplica-se a qualquer projeto de rede. É importante reconhecer que essas três camadas poderão existir em entidades físicas evidentes e distintas. No entanto, isso não é obrigatório. Essas camadas têm a finalidade de ajudar no projeto bem sucedido de uma rede e para representar uma funcionalidade que precisa existir em uma rede.

A camada de acesso é o ponto de entrada à rede para estações de trabalho e servidores. Em uma rede local de campus, o dispositivo usado na camada de acesso pode ser um switch ou um hub.

Se for usado um hub, a largura de banda será compartilhada. Se for usado um switch, a largura de banda será dedicada. Se uma estação de trabalho ou servidor for conectado diretamente à porta do switch, toda a largura de banda da conexão no switch estará disponível ao computador conectado. Se um hub for conectado a uma porta do switch, a largura de banda será compartilhada entre todos os dispositivos conectados ao hub.

As funções da camada de acesso também incluem filtragem de camada MAC e microssegmentação. A filtragem da camada MAC permite que os switches encaminhem

Page 128: Cisco CCNA Modulo03

128

quadros somente à porta do switch conectado ao dispositivo de destino. O switch cria pequenos segmentos de camada 2 chamados microssegmentos. O domínio de colisão pode ter um mínimo de dois dispositivos. Switches de camada 2 são usados na camada de acesso.

5.2.2 Switches da camada de acesso

Os switches da camada de acesso operam na camada 2 do modelo OSI e proporcionam serviços como associação de VLANs. O prop��sito principal de um switch de camada de acesso é admitir usuários finais à rede. Um switch de camada de acesso deve fornecer essa funcionalidade com baixo custo e alta densidade de portas.

Os seguintes switches da Cisco são freqüentemente utilizados na camada de acesso:

• Catalyst da Série 1900 • Catalyst da Série 2820 • Catalyst da Série 2950 • Catalyst da Série 4000 • Catalyst da Série 5000

O switch Catalyst da Série 1900 ou 2820 é um dispositivo de acesso eficaz para redes de campos de pequeno ou médio porte. O switch Catalyst da Série 2950 oferece um acesso eficaz para servidores e usuários que exigem uma largura de banda mais alta. Isso é realizado através de portas de switch com capacidade Fast Ethernet. Os switches Catalyst da Série 4000 e 5000 incluem portas Gigabit Ethernet e são dispositivos de acesso eficazes para um grande número de usuários em redes de campus de grande porte.

5.2.3 Visão geral da camada de distribuição

A camada de distribuição da rede encontra-se entre a camada de acesso e a camada central. Ela ajuda a definir e separar a camada central. O propósito desta camada é proporcionar uma definição de limite dentro do qual pode ocorrer a manipulação de pacotes. As redes são segmentadas em domínios de broadcast por esta camada. Diretivas podem ser aplicadas e listas de controle de acesso podem filtrar os pacotes. A camada de distribuição isola problemas com a rede para os grupos de trabalho nos quais ocorrem. A camada de distribuição também impede que tais problemas afetem a camada central. Os switches nesta camada operam na camada 2 e na camada 3. As seguintes são algumas funções da camada de distribuição em uma rede comutada:

• Agregação de conexões dos wiring closets

• Definição de domínio de broadcast/multicast

• Roteamento VLAN • Quaisquer

transições de meios físicos que precisem ocorrer

• Segurança

Page 129: Cisco CCNA Modulo03

129

5.2.4 Switches de camada de distribuição

Esta página irá explicar as funções dos switches da camada de distribuição.

Os switches da camada de distribuição são os pontos de agregação para os switches de camada de acesso múltiplo. O switch precisa poder acomodar todo o tráfego vindo dos dispositivos da camada de acesso.

Um switch da camada de distribuição precisa ser de alto desempenho. Um switch da camada de distribuição é um ponto em que é delineado um domínio de broadcast. A camada de distribuição combina o tráfego VLAN e é um ponto de focalização para decisões de diretivas sobre o fluxo de tráfego. Por essas razões, os switches da camada de distribuição operam tanto na camada 2 como na camada 3 do modelo OSI. Os switches nesta camada são conhecidos como switches multicamada. Esses switches multicamadas reúnem as funções de um roteador e de um switch em um só dispositivo. Têm a finalidade de comutar tráfego, a fim de obter um desempenho mais alto do que um roteador normal. Se não tiverem um módulo de roteador associado, um roteador externo será utilizado para as funções de camada 3.

Os seguintes switches da Cisco são próprios para a camada de distribuição:

• Catalyst 2926G

Page 130: Cisco CCNA Modulo03

130

• A família Catalyst 5000 • A família Catalyst 6000

5.2.5 Visão geral da camada central

A camada central é um backbone de comutação de alta velocidade. Se não tiver um módulo de roteador associado, um roteador externo será utilizado para as funções de camada 3. Essa camada do projeto da rede não deve realizar nenhuma manipulação de pacotes. A manipulação de pacotes, como a filtragem por lista de acesso, retardaria a comutação de pacotes. Uma infra-estrutura central com caminhos alternativos redundantes proporciona estabilidade à rede na eventualidade da falha de um só dispositivo.

O núcleo (backbone) pode ser projetado para usar comutação da camada 2 ou da camada 3. Podem ser usados switches ATM ou Ethernet.

Page 131: Cisco CCNA Modulo03

131

5.2.6 Switches da camada central

A camada central é o backbone da rede comutada de campus. Os switches nesta camada podem valer-se de várias tecnologias de camada 2. Contanto que a distância entre os switches da camada central não seja muito grande, os switches podem utilizar a tecnologia Ethernet. Outras tecnologias de camada 2, tais como comutação de células ATM, também podem ser utilizadas. Em um projeto de rede, a camada central pode ser um backbone roteado ou de camada 3. Os switches da camada central têm a finalidade de proporcionar uma funcionalidade eficiente de camada 3 quando necessário. Devem ser considerados fatores como necessidade, custo e desempenho antes de se tomar uma decisão.

Os seguintes switches da Cisco são próprios para a camada central:

• Catalyst da Série 6500 • Catalyst da Série 8500 • IGX da Série 8400 • Lightstream 1010

Page 132: Cisco CCNA Modulo03

132

Resumo

O projeto de uma rede local depende dos requisitos de diferentes organizações, mas tipicamente focaliza a funcionalidade, escalabilidade, gerenciabilidade e adaptabilidade. Para que uma rede local seja eficaz, ela deve ser projetada e implementada conforme uma série planejada de etapas sistemáticas. As etapas exigem que os dados e requisitos sejam coletados e analisados, as camadas 1, 2 e 3 sejam implementadas e que tudo seja documentado. Os seguintes itens são importantes para a documentação do projeto de uma rede local:

• Mapa da topologia das camadas do modelo OSI • Mapa lógico da rede local • Mapa físico da rede local • Diagramas de cabeamento • Mapa lógico da VLAN • Mapa lógico da camada 3 • Mapas de endereços

As questões de projeto de camada 1 incluem o tipo de cabos a serem usados e a estrutura geral do cabeamento. Isso também inclui o padrão TIA/EIA-568-A para a disposição e conexão de esquemas de fiação. Tipos de meios físicos de camada 1 incluem 10/100BASE-TX, Categoria 5, 5e ou 6 unshielded twisted-pair (UTP), ou shielded twisted-pair (STP) e cabo de fibra ótica 100BaseFX.

O diagrama lógico da rede local inclui os locais e a identificação dos wiring closets da MDF e das IDFs, o tipo e a quantidade de cabos usados para interconectar as IDFs com a MDF e o número de cabos sobressalentes disponíveis para aumentar a largura de banda entre os wiring closets.

Os dispositivos de camada 2 proporcionam o controle de fluxo, a detecção de erros, a correção de erros e a redução de congestionamento na rede. Bridges e switches de rede local são os dois dispositivos de rede mais comuns de camada 2. A microssegmentação da rede reduz o tamanho dos domínios de colisão e reduz o número de colisões.

Os roteadores são dispositivos de camada 3 que podem ser usados para criar segmentos únicos de rede local. Eles permitem comunicações entre segmentos com base nos endereços de camada 3, tais como endereços IP. A implementação dos dispositivos de camada 3 permite a segmentação da rede local em redes lógicas e físicas únicas. Os roteadores também permitem a conectividade com WANs, como, por exemplo, a Internet.

A implementação de VLANs combina a comutação de camada 2 com as tecnologias de roteamento de camada 3 para limitar tanto os domínios de colisão como os domínios de broadcast. As VLANs também podem ser usadas para proporcionar segurança, pela criação de grupos VLAN conforme as funções e pela utilização de roteadores para comunicação entre VLANs.

O modelo do projeto hierárquico inclui três camadas. A camada de acesso proporciona acesso à rede para usuários em grupos de trabalho. A camada de distribuição proporciona uma conectividade com base em diretivas. A camada central fornece o melhor transporte possível entre instalações. A camada central é freqüentemente conhecida como backbone.

Os switches da camada de acesso operam na camada 2 do modelo OSI e proporcionam serviços como associação de VLANs. O propósito principal de um switch de camada de acesso é admitir usuários finais à rede. Um switch de camada de acesso deve fornecer essa funcionalidade com baixo custo e alta densidade de portas.

Um switch da camada de distribuição é um ponto em que é delineado um domínio de broadcast. A camada de distribuição combina o tráfego VLAN e é um ponto de focalização para decisões de diretivas sobre o fluxo de tráfego. Por essas razões, os switches da camada de

Page 133: Cisco CCNA Modulo03

133

distribuição operam tanto na camada 2 como na camada 3 do modelo OSI. Os switches nesta camada são conhecidos como switches multicamada.

A camada central é um backbone de comutação de alta velocidade. Essa camada do projeto da rede não deve realizar nenhuma manipulação de pacotes. A manipulação de pacotes, como a filtragem por lista de acesso, retardaria a comutação de pacotes. Uma infra-estrutura central com caminhos alternativos redundantes proporciona estabilidade à rede na eventualidade da falha de um só dispositivo.

Módulo 6 - Configuração de Switches Visão Geral

Um switch é um dispositivo de rede da camada 2 que atua como ponto de concentração para a conexão de estações de trabalho, servidores, roteadores, hubs e outros switches.

Um hub é um tipo antigo de dispositivo de concentração que também provê várias portas. Entretanto, os hubs são inferiores aos switches porque todos os dispositivos conectados a um hub compartilham a largura de banda e o mesmo domínio de colisão. Outra desvantagem dos hubs é que eles só operam no modo half-duplex. No modo half-duplex, em um determinado momento, os hubs só podem enviar ou receber dados, não podem fazer as duas coisas ao mesmo tempo. Os switches podem operar no modo full-duplex, o que significa que podem enviar e receber dados simultaneamente.

Os switches são bridges com várias portas. Os switches são a tecnologia padrão atual das Redes locais Ethernet que usam uma topologia em estrela. Um switch fornece vários circuitos virtuais dedicados ponto-a-ponto entre os dispositivos conectados à rede, então não há a possibilidade de ocorrerem colisões.

Devido ao papel predominante dos switches nas redes modernas, a capacidade de entender e configurar switches é essencial para o suporte de rede.

Os switches novos têm uma configuração predefinida com valores de fábrica. Essa configuração raramente atende as necessidades dos administradores de rede. Os switches podem ser configurados e gerenciados a partir de uma interface de linha de comando (CLI). Os dispositivos de rede também podem ser configurados e gerenciados através de uma interface baseada na web e de um navegador.

Os administradores de rede precisam estar familiarizados com todas as tarefas associadas ao gerenciamento de redes com switches. Algumas dessas tarefas incluem a manutenção do switch e seu IOS. Outras tarefas incluem o gerenciamento das interfaces e tabelas para uma operação otimizada, confiável e segura. A configuração básica do switch, atualizações do IOS e a recuperação de senhas são habilidades essenciais em um administrador de rede.

Este módulo aborda alguns dos objetivos dos exames CCNA 640-801 e ICND 640-811.

Page 134: Cisco CCNA Modulo03

134

Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:

• Identificar os principais componentes de um switch Catalyst; • Monitorar a atividade e o status do switch com o uso dos LEDs indicadores; • Examinar o resultado da inicialização do switch com o uso do HyperTerminal; • Usar os recursos de ajuda da interface de linha de comando; • Listar os principais modos de comando de um switch; • Verificar as configurações padrão de um switch Catalyst; • Definir um endereço IP e um gateway padrão para o switch, a fim de permitir a conexão

e o gerenciamento através de uma rede; • Examinar as configurações do switch com o uso de um navegador Web; • Configurar a velocidade e a operação duplex das interfaces; • Examinar e gerenciar a tabela de endereços MAC de um switch; • Configurar a segurança das portas; • Gerenciar os arquivos de configuração e as imagens do IOS; • Realizar a recuperação de senha em um switch; • Atualizar o IOS de um switch.

6.1 Inicialização do switch

Os switches são computadores dedicados e especializados que contêm uma unidade central de processamento (CPU), memória de acesso aleatório (RAM) e um sistema operam.

Conforme mostrado na figura, os switches geralmente têm várias portas às quais os hosts podem se conectar, além de portas especializadas para fins de gerenciamento. É possível gerenciar os switches e visualizar e alterar sua configuração por meio da porta do console.

Normalmente, os switches não têm um botão liga/desliga. Simplesmente se conectam ou desconectam de uma fonte de energia elétrica.

Diversos switches Cisco Catalyst da série 2900 estão mostrados na figura. Esses modelos são de 12, 24 e 48 portas. Os dois switches na parte superior da figura já mostrada são switches simétricos de configuração fixa, que oferecem FastEthernet em todas as portas ou uma combinação de portas com 10Mbps e 100Mbps. Os três switches seguintes são modelos assimétricos com duas portas Gigabit Ethernet fixas de cobre ou fibra. Os quatro switches da parte inferior são modelos assimétricos com slots modulares GBIC (Gigabit Interface Converter), que podem acomodar uma variedade de opções de mídia de cobre e fibra.

Page 135: Cisco CCNA Modulo03

135

6.1.2 LEDs indicadores do switch

O painel frontal de um switch tem diversas luzes para ajudar a monitorar a atividade e o desempenho do sistema. Essas luzes são chamadas de LEDs (diodos emissores de luz). Esta página discutirá os LEDs da parte frontal de um switch:

• LED do Sistema; • LED da fonte de alimentação remota (RPS); • LEDs de Modo das Portas; • LEDs de Status das Portas.

O LED do Sistema mostra se o sistema está recebendo energia e funcionando corretamente.

O LED RPS indica se a fonte de alimentação remota está sendo usada.

Os LEDs de Modo indicam o estado do botão Modo. Os modos são usados para determinar como os LEDs de Status das Portas são interpretados. Para selecionar ou alterar o modo das portas, pressione o botão Modo repetidas vezes até que os LEDs de Modo indiquem o modo desejado.

A figura descreve as cores dos LED de Status das Portas e sua relação com os valores dos LEDs de Modo.

Page 136: Cisco CCNA Modulo03

136

6.1.3 Verificação dos LEDs das portas durante o POST do switch

Esta página explicará como os LEDs podem ser usados para determinar se um switch está funcionando corretamente e estabeleceu um link com seu alvo.

Uma vez conectado o cabo de alimentação, o switch inicia uma série de testes, chamada de autoteste de inicialização, ou power-on self test (POST). O POST é executado automaticamente para verificar se o switch está funcionando corretamente. O LED do Sistema indica se o POST obteve êxito ou não. Se o LED do Sistema estiver apagado mas o switch estiver ligado à energia, então o POST está sendo executado. Se o LED do Sistema estiver verde, o POST foi bem sucedido. Se o LED do Sistema estiver âmbar, o POST falhou. A falha do POST é considerada um erro fatal. Não se deve esperar que o switch funcione de maneira confiável se o POST falhar.

Os LEDs de Status das Portas também mudam durante o POST. Os LEDs de Status das Portas ficam na cor âmbar por cerca de 30 segundos enquanto o switch descobre a topologia da rede e procura por loops. Se os LEDs de Status das Portas ficarem verdes, o switch estabeleceu um link entre a porta e o alvo, por exemplo, um computador. Se os LEDs de Status das Portas ficarem apagados, o switch determinou que não há nada conectado à porta

6.1.4 Visualização do resultado da primeira inicialização de um switch

Esta página explicará como usar o HyperTerminal para verificar e configurar um switch.

Para configurar ou verificar o status de um switch, conecte um computador ao switch, estabelecendo uma sessão de comunicação. Use um cabo rollover para conectar a porta do console da parte traseira do switch a uma porta COM da parte traseira do computador.

Page 137: Cisco CCNA Modulo03

137

Inicie o HyperTerminal no computador. Uma janela de diálogo será exibida. Ao realizar a configuração inicial da comunicação entre o HyperTerminal e o switch, é necessário dar um nome à conexão. Selecione a porta COM à qual o switch está conectado a partir do menu pull-down e clique no botão OK. Uma segunda janela de diálogo será exibida. Configure os parâmetros conforme mostrado na figura e clique no botão OK.

Conecte o switch a uma tomada. O resultado da inicialização do switch deve ser exibido na tela do HyperTerminal. Esse resultado mostra informações sobre o switch, detalhes sobre o status do POST e dados sobre o hardware do switch.

Depois que o switch termina a inicialização e conclui o POST, aparecem prompts para o diálogo de Configuração do Sistema. O switch pode ser configurado manualmente com ou sem o auxílio do diálogo de Configuração do Sistema. O diálogo de Configuração do Sistema de um switch é mais simples do que o de um roteador.

6.1.5 Examinando o recurso de ajuda (help) da CLI do switch

Esta página explicará como usar o comando de ajuda na CLI dos switches da Cisco.

A CLI dos switches da Cisco é muito semelhante à CLI dos roteadores da Cisco.

Digite um ponto de interrogação (?) para emitir o comando de ajuda. Quando se digita esse comando no prompt do sistema, é exibida uma lista dos comandos disponíveis no modo de comando atual.

O comando help é muito flexível. Para obter uma lista dos comandos que começam com uma determinada seqüência de caracteres, digite esses caracteres seguidos imediatamente de um ponto de interrogação (?). Não digite espaço antes do ponto de interrogação. Essa forma de ajuda é chamada de ajuda de palavra, pois completa uma palavra.

Para listar palavras-chave ou argumentos associados a um determinado comando, digite uma ou mais palavras associadas ao comando, seguidas de um espaço e de um ponto de interrogação (?). Essa forma de ajuda é chamada de ajuda de sintaxe de comando, pois fornece palavras-chave ou argumentos aplicáveis com base em um comando parcial.

Page 138: Cisco CCNA Modulo03

138

6.1.6 Modos de comando do switch

Esta página discutirá dois modos de comando dos switches. O modo padrão é o modo EXEC do Usuário. O modo EXEC do Usuário é reconhecido por seu prompt, que termina com um sinal de maior (>). Os comandos disponíveis no modo EXEC do Usuário são aqueles que se limitam a alterar configurações do terminal, realizar testes básicos e exibir informações do sistema. A figura descreve os comandos show disponíveis no modo EXEC do Usuário.

O comando enable é usado para entrar no modo EXEC Privilegiado a partir do modo EXEC do Usuário. O modo EXEC Privilegiado também é reconhecido por seu prompt, que termina com um sinal de tralha (#). O conjunto de comandos do modo EXEC Privilegiado inclui o comando configure, assim como todos os comandos do modo EXEC do Usuário. O comando configure permite acessar outros modos de comando. Como esses modos são usados para configurar o switch, o acesso ao modo EXEC Privilegiado deve ser protegido por senha, para evitar uso não autorizado. Se for definida uma senha, os usuários recebem uma solicitação para digitar a senha a fim de obter acesso ao modo EXEC Privilegiado. A senha não aparece na tela, e faz distinção entre maiúsculas e minúsculas.

6.2 Configuração do switch 6.2.1 Verificação da configuração padrão do switch Catalyst

Ao ser ligado pela primeira vez, um switch tem dados padrão no arquivo de configuração atual. O nome do host padrão é Switch. Não há senhas definidas nas linhas do console nem do terminal virtual (vty).

Um switch pode receber um endereço IP para fins de gerenciamento. Isso é configurado na interface virtual, VLAN 1. Por padrão, o switch não tem endereço IP.

Page 139: Cisco CCNA Modulo03

139

As portas ou interfaces do switch estão definidas para o modo automático,

E todas as portas do switch estão na VLAN 1. A VLAN 1 é conhecida como VLAN de gerenciamento padrão.

Page 140: Cisco CCNA Modulo03

140

Por padrão, o diretório flash tem um arquivo que contém a imagem do IOS, um arquivo chamado env_vars e um subdiretório chamado html. Depois que o switch for configurado, o diretório flash conterá um arquivo chamado config.text e um banco de dados de VLANs.

Conforme mostrado na figura, o diretório flash não contém um arquivo config.text nem um arquivo de banco de dados de VLANs chamado vlan.dat.

A versão do IOS e as definições do registro de configuração podem ser verificadas com o comando show version.

Neste estado padrão, o switch tem um único domínio de broadcast e a CLI pode ser usada para gerenciar e configurar o switch através da porta do console. O protocolo Spanning-Tree também está ativado e permite que a bridge construa uma topologia sem loops ao longo de uma rede local estendida.

Em redes pequenas, a configuração padrão pode ser suficiente. Os benefícios do melhor desempenho com microssegmentação são obtidos imediatamente.

6.2.2 Configuração do switch Catalyst

Pode ser que um switch já esteja pré-configurado e que seja necessário apenas inserir as senhas dos modos EXEC do Usuário e EXEC Privilegiado. Entra-se no modo de configuração do switch a partir do modo EXEC Privilegiado.

Page 141: Cisco CCNA Modulo03

141

Na CLI, o prompt do modo EXEC Privilegiado padrão é Switch#. No modo EXEC do Usuário, o prompt é Switch>.

As etapas a seguir garantem que uma nova configuração sobrescreva completamente a configuração atual:

• Para remover as atuais informações de VLAN, exclua o arquivo de banco de dados de VLANs, chamado vlan.dat, do diretório flash.

• Apague o arquivo de configuração de backup, chamado startup-config. • Reinicie o switch com o comando reload.

Segurança, documentação e gerenciamento são importantes para todos os dispositivos de rede.

É necessário dar um nome de host ao switch e definir senhas nas linhas do console e vty.

Para permitir que o switch seja acessível por Telnet e por outros aplicativos TCP/IP, é necessário definir endereços IP e um gateway padrão.

Page 142: Cisco CCNA Modulo03

142

Por padrão, a VLAN 1 é a VLAN de gerenciamento. Em uma rede baseada em switches, todos os dispositivos devem estar na VLAN de gerenciamento. Isso permite que uma única estação de trabalho de gerenciamento acesse, configure e gerencie todos os dispositivos da rede.

O padrão das portas Fast Ethernet do switch é velocidade automática (auto-speed) e modo duplex automático (auto-duplex). Isso permite que as interfaces negociem essas configurações. Se necessário, os administradores de rede podem configurar manualmente a velocidade da interface e os valores duplex.

Alguns dispositivos de rede podem fornecer uma interface baseada na web para fins de configuração e gerenciamento. Uma vez configurado com um endereço IP e um gateway, um switch pode ser acessado dessa maneira. Um navegador pode acessar esse serviço usando o endereço IP e a porta 80, a porta padrão do http. O serviço HTTP pode ser ligado e desligado e é possível escolher o endereço de porta do serviço.

Page 143: Cisco CCNA Modulo03

143

É possível fazer download de qualquer software adicional, tal como um applet, para o navegador a partir do switch. Além disso, a rede pode ser gerenciada por uma interface gráfica com o usuário (GUI) baseada em navegador.

6.2.3 Gerenciamento da tabela de endereços MAC

Os switches examinam o endereço de origem dos quadros recebidos nas portas para aprender o endereço MAC dos PCs ou estações de trabalho conectados a estas. Esses endereços MAC aprendidos são então gravados em uma tabela de endereços MAC. Os quadros que têm um endereço MAC de destino que foi gravado na tabela podem ser comutados para a interface correta.

O comando show mac-address-table pode ser inserido no modo EXEC Privilegiado para examinar os endereços que um switch aprendeu.

Page 144: Cisco CCNA Modulo03

144

Um switch aprende e mantém dinamicamente milhares de endereços MAC. Para preservar a memória e otimizar a operação do switch, as entradas aprendidas podem ser descartadas da tabela de endereços MAC. Máquinas podem ter sido removidas de uma porta, desligadas ou movidas para outra porta do mesmo switch ou de outro switch. Isso pode causar confusão ao encaminhar quadros. Por todos esses motivos, se não for visto nenhum quadro com um endereço aprendido previamente, a entrada do endereço MAC é automaticamente descartada ou considerada obsoleta após 300 segundos.

Em vez de esperar que uma entrada dinâmica fique obsoleta, os administradores de rede podem usar o comando clear mac-address-table no modo EXEC Privilegiado.

As entradas de endereço MAC configuradas pelos administradores de rede também podem ser removidas com esse comando. Esse método de limpar as entradas da tabela garante que os endereços inválidos sejam removidos imediatamente.

6.2.4 Configuração de endereços MAC estáticos

É possível atribuir um endereço MAC permanentemente a uma interface. A seguir estão algumas razões para atribuir um endereço MAC permanente a uma interface:

• O endereço MAC não será considerado obsoleto automaticamente pelo switch. • Um determinado servidor ou estação de trabalho de usuário precisam ser conectados à

porta e o endereço MAC é conhecido. • A segurança aumenta.

Page 145: Cisco CCNA Modulo03

145

O seguinte comando pode ser usado para configurar um endereço MAC estático em um switch:

Switch(config)#mac-address-table static <endereço_mac_do_host> interface FastEthernet <número_Ethernet> vlan<nome_da_vlan>

O seguinte comando pode ser usado para remover um endereço MAC estático de um switch:

Switch(config)#no mac-address-table static <endereço_mac_do_host>interface FastEthernet <número_Ethernet>vlan<nome_da_vlan>

6.2.5 Configuração da segurança das portas

A segurança da rede é uma responsabilidade importante dos administradores de rede. As portas do switch da camada de acesso podem ser acessadas através do cabeamento das tomadas do cabeamento estruturado. Qualquer pessoa pode ligar um PC ou laptop a uma dessas tomadas. Esse é um ponto de entrada potencial da rede por usuários não autorizados. Os switches oferecem um recurso chamado Port Security. É possível limitar a quantidade de endereços que podem ser aprendidos em uma interface. O switch pode ser configurado para tomar uma atitude caso esse limite seja ultrapassado. Endereços MAC seguros podem ser configurados estaticamente. Entretanto, configurar endereços MAC seguros estaticamente é uma tarefa complexa, além de ser passível de erros.

Uma alternativa é definir port security em uma interface do switch. A quantidade de endereços MAC por porta pode ser limitada a 1. O primeiro endereço aprendido dinamicamente pelo switch se torna o endereço seguro.

Para reverter a segurança de porta em uma interface, usa-se a forma no do comando.

O comando show port security pode ser usado para verificar o status da segurança de porta.

Page 146: Cisco CCNA Modulo03

146

6.2.6 Adições, movimentações e alterações

Esta página discutirá alguns itens que devem ser configurados antes que um switch seja adicionado a uma rede.

Os parâmetros a seguir devem ser configurados em um novo switch adicionado a uma rede:

• Nome do switch; • Endereço IP do switch na VLAN de gerenciamento; • Um gateway padrão; • Senhas de linha.

Quando um host é removido de uma porta ou movido para outra, as configurações que podem causar um comportamento inesperado devem ser eliminadas. Em seguida, o switch pode ser reconfigurado para refletir as alterações.

Page 147: Cisco CCNA Modulo03

147

6.2.7 Gerenciamento do arquivo do sistema operacional do switch

Esta página ensinará os alunos a documentar e a manter os arquivos da configuração operacional dos dispositivos de rede.

Os administradores de rede devem documentar e manter os arquivos de configuração operacional dos dispositivos de rede. Deve ser feita uma cópia de backup do arquivo de configuração atual (running-configuration) mais recente para um servidor ou disco. Isso não é somente uma documentação essencial, mas é muito útil se for necessário restaurar uma configuração.

Também deve ser feita uma cópia de backup do IOS em um servidor local. Em seguida, o IOS pode ser recarregado para a memória flash se necessário.

6.2.8 Recuperação de senha no 1900/2950

Esta página discutirá a importância das senhas e explicará como é possível recuperá-las.

Para fins de segurança e gerenciamento, é necessário definir senhas nas linhas do console e vty. Também é necessário definir uma senha de ativação e uma senha de ativação secreta. Essas práticas ajudam a garantir que somente usuários autorizados tenham acesso aos modos EXEC do Usuário e Privilegiado do switch.

Há circunstâncias em que se consegue ter acesso físico ao switch, mas não ao modo EXEC Usuário ou Privilegiado porque as senhas não são conhecidas ou foram esquecidas.

Nessas circunstâncias, deve-se seguir um procedimento de recuperação de senha.

6.2.9 Atualização do firmware do 1900/2950

Esta página explicará a finalidade das atualizações do IOS e do firmware e como elas são realizadas.

Periodicamente, são lançadas imagens do sistema operacional e do firmware com correções de bugs, novos recursos e aperfeiçoamentos de desempenho. Se for possível tornar a rede mais segura ou fazê-la operar de maneira mais eficiente com uma nova versão do IOS, este deve ser atualizado.

Page 148: Cisco CCNA Modulo03

148

Para atualizar o IOS, faça download de uma cópia da nova imagem para um servidor local a partir do Cisco Connection Online (CCO) Software Center.

Resumo

Esta página resume os tópicos discutidos neste módulo.

Os switches são semelhantes aos roteadores. Eles têm os componentes básicos de um computador, como CPU, RAM e sistema operacional. Têm diversas portas, que são usadas para conectar os hosts e para gerenciamento. Os LEDs na parte frontal do switch mostram o status do sistema, do RPS, o modo das portas e o status das portas. Ao ser ligado, um switch executa o POST automaticamente para verificar se o switch está funcionando corretamente. O HyperTerminal pode ser usado para configurar ou verificar o status de um switch.

Outra semelhança com os roteadores da Cisco é a CLI. Digitando um ponto de interrogação (?), pode-se acessar a ajuda. É exibida uma lista dos comandos disponíveis. Os switches fornecem ajuda de palavra e ajuda de sintaxe de comando.

Os switches e os roteadores têm os mesmos modos de comando. A EXEC do Usuário é o padrão e é indicada pelo sinal de maior (>). O comando enable passa de EXEC do Usuário para EXEC Privilegiado, conforme indicado pelo sinal de tralha (#). O acesso ao modo EXEC Privilegiado deve ser protegido com senha para evitar a utilização não autorizada. O comando configure permite acessar outros modos de comando.

Quando o switch é ligado pela primeira vez, são configurados dados padrão. Para fins de gerenciamento, um switch recebe um endereço IP. O comando show version permite verificar a versão do IOS e as definições do configuration register.

Uma vez configurado com um endereço IP e um gateway, um switch pode ser acessado através de uma interface baseada em navegador. Isso permite a configuração e o gerenciamento do switch. Esse serviço pode ser acessado através de um navegador com o endereço IP e a porta 80, a porta padrão do http.

Um switch aprende e mantém dinamicamente milhares de endereços MAC. Se não forem recebidos quadros com um endereço aprendido previamente, a entrada do endereço MAC é automaticamente descartada ou considerada obsoleta após 300 segundos. O comando clear mac-address-table, inserido no modo EXEC Privilegiado, pode ser usado para limpar manualmente as tabelas de endereços.

Um endereço MAC permanente, atribuído a uma interface, garante que o endereço MAC não será considerado obsoleto automaticamente pelo switch. O comando mac-address-table static <endereço_mac_do_host> interface FastEthernet <número_Ethernet> vlan <nome_da_vlan> pode ser usado para configurar um endereço MAC estático. Use a forma no desse comando para removê-lo. O comando show port security pode ser usado para verificar a segurança das portas.

O nome do switch, endereço IP, gateway padrão e as senhas de linha devem ser configurados em um novo switch que é adicionado a uma rede. Quando um host é removido de uma porta ou movido para outra, as configurações que podem causar um comportamento inesperado devem ser eliminadas. Deve-se manter uma documentação da configuração atual e realizar backups periódicos para o servidor ou para um disco.

Page 149: Cisco CCNA Modulo03

149

Módulo 07 - Spanning-Tree Protocol Visão Geral

Redundância é crucial em uma rede. Ela permite que a rede seja tolerante a falhas. Topologias redundantes protegem contra downtime (tempo de inatividade) ou indisponibilidade da rede. O downtime pode ser causado pela falha de um único link, porta ou dispositivo da rede. Os engenheiros de rede geralmente precisam equilibrar o custo da redundância com a necessidade de disponibilidade da rede.

Topologias redundantes baseadas em switches e bridges são susceptíveis a tempestades de broadcasts, múltiplas transmissões de quadros e instabilidade do banco de dados de endereços MAC. Esses problemas podem tornar uma rede inutilizável. Portanto, a redundância deve ser planejada e monitorada cuidadosamente.

Redes comutadas (com switches) fornecem os benefícios de menores domínios de colisão, microssegmentação e operação full-duplex. Fornecem também melhor desempenho.

A redundância em uma rede é necessária para protegê-la contra perda de conectividade causada por falha de componentes individuais. Entretanto, essa providência pode resultar em topologias físicas com loops. Loops na camada física podem causar sérios problemas em redes comutadas.

O Spanning-Tree Protocol é usado nas redes comutadas para criar uma topologia lógica sem loops a partir de uma topologia física com loops. Links, portas e switches que não fazem parte da topologia ativa sem loops não encaminham quadros de dados. O Spanning-Tree Protocol é uma ferramenta poderosa que oferece aos administradores de rede a segurança de uma topologia redundante sem o risco dos problemas causados pelos loops de comutação.

Este módulo aborda alguns dos objetivos dos exames CCNA 640-801 e ICND 640-811.

Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:

• Definir redundância e sua importância para as redes; • Descrever os principais elementos de uma topologia de rede redundante; • Definir tempestades de broadcasts e descrever seu impacto nas redes comutadas; • Definir múltiplas transmissões de quadros e descrever seu impacto nas redes

comutadas;

Page 150: Cisco CCNA Modulo03

150

• Identificar as causas e os resultados da instabilidade do banco de dados de endereços MAC;

• Identificar os benefícios e os riscos de uma topologia redundante; • Descrever o papel da spanning-tree em uma rede comutada com caminhos

redundantes; • Identificar os principais elementos da operação da spanning-tree; • Descrever o processo de eleição da bridge raiz; • Listar os estados da spanning-tree na ordem correta; • Comparar o Spanning-Tree Protocol e Rapid Spanning-Tree Protocol.

7.1 Topologias redundantes 7.1.1 Redundância

Esta página explicará como a redundância pode melhorar a confiabilidade e o desempenho da rede.

Muitas empresas e organizações dependem cada vez mais das redes de computadores para suas operações. O acesso a servidores de arquivos, bancos de dados, Internet, intranets e extranets é crucial para o sucesso dos negócios. Se a rede ficar inoperante, a produtividade e a satisfação dos clientes diminuem.

Cada vez mais, as empresas exigem disponibilidade (ou tempo de atividade) contínua da rede. Um tempo de atividade de 100% talvez seja impossível, mas muitas organizações tentam atingir tempos de atividade de 99,999% (cinco noves). Redes extremamente confiáveis precisam alcançar essa meta. Isso é interpretado como uma hora de inatividade, em média, a cada 4.000 dias, ou aproximadamente 5,25 minutos de inatividade por ano. Atingir tal meta requer redes extremamente confiáveis.

A confiabilidade da rede é alcançada por meio de equipamentos e projetos de rede confiáveis, tolerantes a defeitos e falhas. As redes devem ser projetadas para reconvergir rapidamente, para que a falha seja contornada.

A figura 1 ilustra a redundância. Suponha que seja necessário usar um carro para chegar ao trabalho. Se o carro tiver um defeito que o torne inutilizável, será impossível usar o carro para ir ao trabalho até que ele seja consertado.

Na média, se o carro ficar inutilizável por motivo de defeito em um a cada dez dias, ele terá noventa por cento de uso. Portanto, a confiabilidade também é de 90%.

Um segundo carro melhoraria a situação. Não há necessidade de dois carros apenas para ir ao trabalho. Entretanto, isso fornece redundância, ou backup, em caso de falha do veículo principal. A capacidade de chegar ao trabalho não depende mais de um único carro.

Os dois carros podem ficar inutilizáveis simultaneamente, em um a cada 100 dias. O segundo carro aumenta a confiabilidade para 99%.

7.1.2 Topologias redundantes

Esta página explicará o conceito e os benefícios de uma topologia redundante.

Uma das metas das topologias redundantes é eliminar as interrupções da rede causadas por um ponto único de falha. Todas as redes precisam de redundância para melhorar sua confiabilidade.

Uma rede de estradas é um exemplo global de topologia redundante. Se uma estrada for fechada para obras, provavelmente haverá uma rota alternativa até o destino.

Page 151: Cisco CCNA Modulo03

151

Considere um bairro separado do centro da cidade por um rio. Se houver apenas uma ponte sobre o rio, haverá apenas um caminho para o centro da cidade. Essa topologia não tem redundância.

Se a ponte ficar inundada ou danificada por um acidente, será impossível chegar ao centro da cidade pela ponte.

Page 152: Cisco CCNA Modulo03

152

Uma segunda ponte sobre o rio cria uma topologia redundante. O bairro não ficará isolado do centro caso uma das pontes fique intransitável

7.1.3 Topologias comutadas redundantes

Redes com caminhos e dispositivos redundantes oferecem maior tempo de atividade. As topologias redundantes eliminam os pontos únicos de falha. Se um caminho ou dispositivo falhar, o caminho ou dispositivo redundante pode assumir suas tarefas.

Se o Switch A falhar, o tráfego ainda pode fluir do Segmento 2 para o Segmento 1 e para o roteador através do Switch B.

Os switches aprendem os endereços MAC dos dispositivos em suas portas, para que os dados possam ser encaminhados corretamente para o destino. Os switches inundam (flood) quadros para destinos desconhecidos até aprenderem os endereços MAC dos dispositivos.

Page 153: Cisco CCNA Modulo03

153

Broadcasts e multicasts também são despejados.

Uma topologia comutada redundante pode causar tempestades de broadcast, múltiplas cópias de quadros e problemas de instabilidade da tabela de endereços MAC.

7.1.4 Tempestades de broadcast

Esta página explicará os efeitos dos broadcasts e dos multicasts em uma rede comutada. Os multicasts são tratados como broadcasts pelos switches. Quadros de broadcast e multicast são inundados (flooded) por todas as portas, exceto a que recebeu o quadro.

Se o Host X enviar um broadcast, como uma solicitação ARP, para o endereço da camada 2 do roteador, o Switch A encaminhará o broadcast por todas as portas. O Switch B, estando no mesmo segmento, também encaminha todos os broadcasts. O Switch B recebe todos os broadcasts encaminhados pelo Switch A e o Switch A recebe todos os broadcasts encaminhados pelo Switch B. O Switch A encaminha os broadcasts recebidos do Switch B. O Switch B encaminha os broadcasts recebidos do Switch A.

Page 154: Cisco CCNA Modulo03

154

Os switches continuam a propagar o tráfego de broadcast indefinidamente. Isso é chamado de tempestade de broadcasts. Essa tempestade de broadcasts continuará até que um dos switches seja desconectado. Como os broadcasts exigem tempo e recursos da rede para serem processados, eles reduzem o fluxo de tráfego dos usuários. A rede parecerá inoperante ou extremamente lenta.

7.1.5 Múltiplas transmissões de quadros

Suponha que o endereço MAC do Roteador Y excedeu o limite de tempo nos dois switches. Suponha também que o Host X ainda tem o endereço MAC do Roteador Y em sua cache ARP e envia um quadro unicast para o Roteador Y. O roteador recebe o quadro, pois está no mesmo segmento do Host X.

O Switch A não tem o endereço MAC do Roteador Y e, portanto, inunadrá o quadro por suas portas. O Switch B também não sabe em qual porta está o Roteador Y. Então, o Switch B inunda o quadro que recebeu. Isso faz com que o Roteador Y receba várias cópias do mesmo quadro. Essa é uma causa da utilização desnecessária dos recursos da rede.

7.1.6 Instabilidade do banco de dados MAC

Esta página explicará como pode ocorrer encaminhamento de informações incorretas em uma rede comutada redundante. Um switch pode aprender incorretamente que um endereço MAC está em uma porta, quando na verdade ele está em outra.

Page 155: Cisco CCNA Modulo03

155

Neste exemplo, o endereço MAC do Roteador Y não está na tabela de endereços MAC de nenhum dos switches.

O Host X envia um quadro destinado ao Roteador Y. Os Switches A e B aprendem o endereço MAC do Host X na porta 0.

O quadro para o Roteador Y é despejado na porta 1 dos dois switches. Os Switches A e B recebem essa informação na porta 1 e aprendem incorretamente o endereço MAC do Host X na porta 1. Quando o Roteador Y envia um quadro para o Host X, o Switch A e o Switch B também recebem o quadro e o enviam pela porta 1. Isso é desnecessário, mas os switches aprenderam incorretamente que o Host X está na porta 1.

Neste exemplo, o quadro unicast do Roteador Y para o Host X ficará preso em um loop.

Esta página conclui esta lição. A próxima lição descreverá o Spanning-Tree Protocol (STP). A primeira página discutirá os loops físicos e lógicos em uma rede redundante.

7.2 Spanning-Tree Protocol 7.2.1 Topologia redundante e spanning-tree

Esta página ensinará os alunos a criarem uma topologia lógica sem loops.

Topologias de rede redundantes são concebidas para garantir que as redes continuem a funcionar na presença de pontos únicos de falha. Como a rede continua a funcionar, o trabalho dos usuários é interrompido com menor freqüência. Quaisquer interrupções causadas por falha devem ser as mais curtas possíveis.

A confiabilidade aumenta com a redundância. Uma rede baseada em switches ou bridges introduz links redundantes entre esses switches ou bridges para superar a falha de um único link. Essas conexões introduzem loops físicos na rede.

Page 156: Cisco CCNA Modulo03

156

Esses loops de bridges (bridging loops) são criados para que, se um link falhar, outro possa assumir a função de encaminhar o tráfego.

Quando o destino do tráfego é desconhecido para um switch, ele inunda o tráfego por todas as portas exceto aquela que o recebeu. O tráfego de broadcast e multicast também é encaminhado por todas as portas, exceto a que recebeu o tráfego. Esse tráfego pode ficar preso em um loop.

No cabeçalho da camada 2, não há valor de tempo de vida (TTL). Se um quadro for enviado para uma topologia de switches com loop na camada 2, ele pode ficar em loop para sempre. Isso desperdiça largura de banda e torna a rede inutilizável.

Na camada 3, o TTL é decrementado e o pacote é descartado quando o TTL atinge 0. Isso cria um dilema. Para fins de confiabilidade, é necessária uma topologia física que contenha loops de switches e bridges; por outro lado, uma rede comutada não pode ter loops.

A solução é permitir os loops físicos, mas criar uma topologia lógica sem loops. Nessa topologia lógica, o tráfego destinado ao server farm conectado a Cat-5 a partir de qualquer estação de trabalho de usuário conectada a Cat-4 passará por Cat-1 e Cat-2. Isso acontece mesmo que haja uma conexão física direta entre Cat-5 e Cat-4.

A topologia lógica sem loops criada é chamada de árvore. Essa topologia é uma topologia lógica em estrela ou em estrela estendida. Ela é a spanning-tree da rede. É uma spanning-tree (árvore de espalhamento) porque todos os dispositivos da rede podem ser alcançados ou estão abrangidos por ela.

O algoritmo usado para criar essa topologia lógica sem loops é o algoritmo spanning-tree. Esse algoritmo pode levar um tempo relativamente longo para convergir. Para reduzir o tempo que uma rede leva para computar uma topologia lógica sem loops, foi desenvolvido um novo algoritmo, chamado rapid spanning-tree.

7.2.2 Spanning-Tree Protocol

Esta página explicará como usar o STP para criar uma rede sem loops.

Page 157: Cisco CCNA Modulo03

157

Bridges e switches Ethernet podem implementar o Spanning-Tree Protocol IEEE 802.1d e usar o algoritmo spanning-tree para construir uma rede de caminho mais curto sem loops.

O caminho mais curto se baseia em custos de link cumulativos. Os custos dos links se baseiam na velocidade desses links.

O Spanning-Tree Protocol estabelece um nó raiz chamado de bridge raiz. Esse protocolo constrói uma topologia que tem um caminho para alcançar todos os nós da rede. A árvore tem sua origem na bridge raiz. Os links redundantes que não fazem parte da árvore do caminho mais curto são bloqueados.

Pelo fato de alguns caminhos serem bloqueados, é possível obter uma topologia sem loops. Os quadros de dados recebidos em links bloqueados são descartados.

O Spanning-Tree Protocol requer que os dispositivos de rede troquem mensagens para detectar loops de bridging. Os links que causam loop são colocados em estado de bloqueio.

Os switches enviam mensagens chamadas BPDUs (unidades de dados de protocolo de bridge) para permitir a formação de uma topologia lógica sem loops. As BPDUs continuam a ser recebidas nas portas bloqueadas. Isso garante que, se um caminho ou dispositivo ativo falhar, uma nova spanning-tree poderá ser calculada.

As BPDUs contêm informações que permitem que os switches realizem ações específicas:

• Selecionar um único switch que atuará como raiz da spanning-tree. • Calcular o caminho mais curto de si mesmo até o switch raiz. • Designar um dos switches como sendo o mais próximo da raiz, para cada segmento da

LAN. Este switch é chamado de switch designado. O switch designado trata de toda comunicação da LAN para a bridge raiz.

• Escolher uma de suas portas como porta raiz, para cada switch não raiz. Essa é a interface que fornece o melhor caminho até o switch raiz.

Page 158: Cisco CCNA Modulo03

158

• Selecionar as portas que fazem parte da spanning-tree. Essas portas são chamadas de portas designadas. As portas não designadas são bloqueadas.

7.2.3 Operação Spanning-Tree

Esta página ensinará os alunos sobre as portas e os dispositivos que são encontrados em uma rede comutada STP.

Quando a rede está estabilizada, ela convergiu e há uma spanning-tree por rede.

Como conseqüência, em toda rede comutada existem os seguintes elementos:

• Uma bridge raiz por rede; • Uma porta raiz por bridge não raiz; • Uma porta designada por segmento; • Portas não utilizadas, ou não designadas.

As portas raiz e as portas designadas são usadas para encaminhar (F) tráfego de dados.

As portas não designadas descartam o tráfego de dados. Essas portas são chamadas de portas de bloqueio (B) ou de descarte.

Page 159: Cisco CCNA Modulo03

159

7.2.4 Escolha da bridge raiz

Esta página explicará como uma bridge raiz é selecionada em uma rede STP.

A primeira decisão tomada por todos os switches de uma rede é identificar a bridge raiz. A posição da bridge raiz em uma rede afeta o fluxo de tráfego.

Quando um switch é ligado, o algoritmo spanning-tree é usado para identificar a bridge raiz. São enviadas BPDUs com o ID da bridge (BID).

O BID consiste em uma prioridade da bridge, que tem como padrão 32768, e o endereço MAC do switch. Por padrão, as BPDUs são enviadas a cada dois segundos.

Quando um switch é inicializado pela primeira vez, ele supõe ser o switch raiz e envia BPDUs que contêm o endereço MAC tanto no BID do emissor quanto raiz. Essas BPDUs são consideradas inferiores, pois são geradas a partir do switch designado que perdeu seu link com a bridge raiz. O switch designado transmite as BPDUs com a informação de que ele é a bridge

Page 160: Cisco CCNA Modulo03

160

raiz e também a bridge designada. Essas BPDUs contêm o endereço MAC do switch tanto no BID do emissor quanto raiz.

Os BIDs são recebidos por todos os switches. Cada switch substitui os BIDs raiz mais altos por BIDs mais baixos nas BPDUs que são enviadas. Todos os switches recebem as BPDUs e determinam que o switch com o menor valor de BID raiz será a bridge raiz.

Os administradores de rede podem definir a prioridade do switch com um valor menor que o padrão, o que torna o BID menor. Isso só deve ser implementado quando o fluxo de tráfego na rede for bem compreendido

7.2.5 Estágios dos estados das portas spanning-tree

Esta página explicará os cinco estados das portas de um switch que usa STP.

É necessário tempo para que as informações de protocolo se propaguem através de uma rede comutada. As alterações de topologia em uma parte de uma rede não são conhecidas instantaneamente em outras partes da rede. Há um atraso de propagação. Um switch não deve mudar o estado de uma porta de inativo para ativo imediatamente, pois isso pode causar loops de dados.

Cada porta de um switch que estiver usando o Spanning-Tree Protocol está em um dos cinco estados mostrados na figura

Page 161: Cisco CCNA Modulo03

161

No estado de bloqueio, as portas só podem receber BPDUs. Os quadros de dados são descartados e nenhum endereço pode ser aprendido. A passagem para o estado seguinte pode levar até 20 segundos.

As portas passam do estado de bloqueio para o estado de escuta. Neste estado, os switches determinam se há outros caminhos até a bridge raiz. O caminho que não for o caminho de menor custo até a bridge raiz volta para o estado de bloqueio. O período de escuta é chamado de atraso de encaminhamento e dura 15 segundos. No estado de escuta, não ocorre encaminhamento de dados nem aprendizagem de endereços MAC. As BPDUs ainda são processadas.

As portas passam do estado de escuta para o estado de aprendizagem. Neste estado, não ocorre encaminhamento de dados de usuários, mas há aprendizagem de endereços MAC a partir do tráfego recebido. O estado de aprendizagem dura 15 segundos e também é chamado de atraso de encaminhamento. As BPDUs ainda são processadas.

As portas passam do estado de aprendizagem para o estado de encaminhamento. Neste estado, ocorre encaminhamento de dados de usuários e os endereços MAC continuam a ser aprendidos. As BPDUs ainda são processadas.

Uma porta pode estar em um estado de desativação. Esse estado pode ocorrer quando um administrador fecha a porta ou a porta falha.

Os valores de tempo indicados em cada estado são os valores padrão. Esses valores foram calculados supondo que haverá um máximo de sete switches em qualquer ramo da spanning-tree a partir da bridge raiz.

7.2.6 Recálculo da spanning-tree

Esta página descreverá a convergência de uma rede spanning-tree.

Uma interconexão de rede comutada terá convergido quando todas as portas dos switches e das bridges estiverem no estado de encaminhamento ou de bloqueio. Portas de encaminhamento enviam e recebem tráfego de dados e BPDUs. Portas bloqueadas somente recebem BPDUs.

Page 162: Cisco CCNA Modulo03

162

Quando a topologia da rede muda, os switches e as bridges recalculam a spanning-tree e causam uma ruptura do tráfego da rede.

A convergência em uma nova topologia spanning-tree que use o padrão IEEE 802.1d pode levar até 50 segundos. Essa convergência é formada pela idade máxima de 20 segundos, mais o atraso de encaminhamento de escuta de 15 segundos, mais o atraso de encaminhamento de aprendizagem de 15 segundos.

7.2.7 Protocolo Rapid Spanning-Tree

Esta página descreverá o protocolo Rapid Spanning-Tree.

• O protocolo Rapid Spanning-Tree é definido no padrão LAN IEEE 802.1w. O padrão e o protocolo introduzem novos recursos: Esclarecimento sobre estados e funções das portas;

• Definição de um conjunto de tipos de links que podem passar rapidamente ao estado de encaminhamento;

• Conceito de permitir que os switches de uma rede convergente gerem BPDUs em vez de retransmitir as BPDUs da bridge raiz.

O estado de "bloqueio" de uma porta foi renomeado para estado de "descarte". A função de uma porta de descarte é a de uma porta alternativa. A porta de descarte pode se tornar a porta designada se a porta designada do segmento falhar.

Page 163: Cisco CCNA Modulo03

163

Os tipos de link foram definidos como ponto-a-ponto, borda e compartilhado.

Essas mudanças permitem uma descoberta rápida de falhas de link em redes comutadas.

Os links ponto-a-ponto e borda podem passar para o estado de encaminhamento imediatamente.

Com essas alterações, a convergência da rede não deve levar mais do que 15 segundos.

Com o tempo, o protocolo Rapid Spanning-Tree, IEEE 802.1w, substituirá o Spanning-Tree Protocol, IEEE 802.1d.

Resumo

Redundância é definida como uma duplicação de componentes que permite funcionamento continuado apesar de falha em um componente individual. Em uma rede, redundância significa ter um método de reserva para conectar todos os dispositivos. Topologias redundantes aumentam a confiabilidade da rede e diminuem o downtime causado por um ponto único de falha.

Uma topologia comutada redundante pode causar tempestades de broadcasts, múltiplas transmissões de quadros e problemas de instabilidade da tabela de endereços MAC. Uma tempestade de broadcasts é causada quando vários hosts enviam e recebem várias mensagens de broadcast. O resultado é que eles continuam a propagar tráfego de broadcast

Page 164: Cisco CCNA Modulo03

164

indefinidamente até que um dos switches seja desconectado. Durante uma tempestade de broadcasts, a rede parece inoperante ou extremamente lenta. As múltiplas transmissões de quadros ocorrem quando um roteador recebe várias cópias de um quadro de vários switches, devido a um endereço MAC desconhecido. As transmissões excessivas fazem com que o roteador exceda o limite de tempo. Quando um switch aprende incorretamente um endereço MAC de uma porta, ele pode causar uma situação de loop e instabilidade para a tabela de endereços MAC.

Como os switches operam na camada 2 do modelo OSI, todas as decisões de encaminhamento são feitas nesse nível. A camada 2 não fornece um valor de TTL, que é a quantidade de tempo definida para que um pacote alcance um destino. O problema é que as topologias físicas contêm loops de switches ou bridges, necessários para fornecer confiabilidade, mas uma rede comutada não pode ter loops. A solução é permitir os loops físicos, mas criar uma topologia lógica sem loops.

A topologia lógica sem loops criada é chamada de árvore. A topologia é uma estrela ou estrela estendida que abrange a árvore da rede. Todos os dispositivos podem ser alcançados ou abrangidos. O algoritmo usado para criar essa topologia lógica sem loops é o algoritmo spanning-tree.

O Spanning-Tree Protocol estabelece um nó raiz, chamado de bridge raiz. Esse protocolo constrói uma topologia que tem um caminho para todos os nós da rede. Isso resulta em uma árvore que tem sua origem na bridge raiz. Os links redundantes que não fazem parte da árvore do caminho mais curto são bloqueados. Pelo fato de alguns caminhos serem bloqueados, é possível obter uma topologia sem loops. Os quadros de dados recebidos em links bloqueados são descartados.

Os switches enviam mensagens chamadas BPDUs (unidades de dados de protocolo de bridge) para permitir a formação de uma topologia lógica sem loops. As BPDUs continuam a ser recebidas nas portas bloqueadas. As BPDUs contêm informações que permitem que os switches realizem ações específicas:

• Selecionar um único switch que atuará como raiz da spanning-tree. • Calcular o caminho mais curto de si mesmo até o switch raiz. • Designar um dos switches para ser o switch designado. • Escolher uma de suas portas como porta raiz, para cada switch não raiz. • Selecionar as portas que fazem parte da spanning-tree. Essas portas são chamadas de

portas designadas.

O padrão LAN IEEE 802.1w define o protocolo Rapid Spanning-Tree. Ele serve para esclarecer estados e funções das portas, definir um conjunto de tipos de link e permitir que os switches de uma rede convergente gerem BPDUs em vez de usar as BPDUs da bridge raiz. O estado de bloqueio de uma porta foi renomeado para estado de descarte. A função de uma porta de descarte é a de uma porta alternativa. A porta de descarte pode se tornar a porta designada se a porta designada do segmento falhar

Page 165: Cisco CCNA Modulo03

165

Módulo 08 - Redes locais virtuais Visão Geral

Uma importante característica da comutação Ethernet é a sua capacidade de criar redes locais virtuais (VLANs). Uma VLAN é um agrupamento lógico de estações ou dispositivos de rede. As VLANs podem ser agrupadas por funções operacionais ou por departamentos, independentemente do local físico dos usuários. O tráfego entre VLANs é restrito. Os switches e bridges encaminham o tráfego unicast, multicast e broadcast somente em segmentos da rede local que servem a VLAN à qual o tráfego pertence. Em outras palavras, os dispositivos em uma VLAN só comunicam com os dispositivos existentes na mesma VLAN. Os roteadores providenciam a conectividade entre diferentes VLANs.

As VLANs aumentam o desempenho geral da rede pela agregação lógica dos usuários e recursos. As empresas utilizam VLANs como uma forma de assegurar que um dado conjunto de usuários estejam agrupados logicamente independentemente da sua localização física. As organizações utilizam VLANs para agregar usuários do mesmo departamento. Por exemplo, os usuários do Departamento de Marketing são colocados na VLAN de Marketing e os usuários do Departamento de Engenharia são colocados na VLAN de Engenharia.

As VLANs podem melhorar a escalabilidade, segurança e gerenciamento da rede. Os roteadores em topologias VLAN oferecem filtragem de broadcast, segurança e gerenciamento de fluxo de tráfego.

As VLANs apropriadamente projetadas e configuradas são possantes ferramentas para os administradores de redes. As VLANs facilitam tarefas quando é necessário fazer acréscimos, mudanças e modificações em uma rede. As VLANs melhoram a segurança de uma rede e ajudam a controlar broadcasts de Camada 3. No entanto, as VLANs incorretamente configuradas podem causar um agravamento ou até a paralisação de uma rede. A configuração e implementação correta das VLANs são críticas ao processo do projeto de uma rede.

A Cisco se desempenha de maneira positiva no sentido da interoperabilidade de fornecedores mas as redes locais podem consistir em topologias de rede e configurações de dispositivos dessemelhantes. Cada fornecedor elabora o seu próprio produto proprietário para VLANs e este nem sempre é completamente compatível com outros produtos para VLANs devido a diferenças nos serviços das VLANs.

Este módulo cobre alguns dos objetivos para os exames CCNA 640-801 e ICND 640-811.

Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:

• Definir VLANs • Listar as vantagens das VLANs • Explicar como VLANs são usadas para criar domínios de broadcast • Explicar como os roteadores são usados para comunicações entre VLANs • Listar os tipos comuns de VLANs • Definir ISL e 802.1Q • Explicar conceito de VLANs geográficas • Configurar VLANs estáticas em switches Catalyst da Série 2900. • Verificar e salvar configurações de VLANs • Excluir VLANs de uma configuração de um switch

Page 166: Cisco CCNA Modulo03

166

8.1 Conceitos de VLAN 8.1.1 Introdução a VLANs

Uma VLAN é um agrupamento lógico de estações, serviços e dispositivos de rede que não estão restritos a um segmento físico de uma rede local.

As VLANs facilitam a administração de grupos lógicos de estações e servidores de modo que possam comunicar como se estivessem no mesmo segmento físico de uma rede local. Elas também facilitam a administração de mudanças, acréscimos e modificações nos membros desses grupos.

As VLANs segmentam logicamente as redes comutadas com base nas funções profissionais, departamentos ou equipes de projetos, independentemente da localização física dos usuários ou das conexões físicas da rede. Todas as estações de trabalho e servidores utilizados por um grupo de trabalho em particular compartilham a mesma VLAN, independentemente da sua conexão ou localização física.

A configuração ou reconfiguração de VLANs é realizada através de software. Portanto, a configuração de uma VLAN não requer o deslocamento ou conexão física dos equipamentos da rede.

Page 167: Cisco CCNA Modulo03

167

A comunicação de uma estação de trabalho em um grupo VLAN é restrita aos servidores de arquivo no mesmo grupo VLAN. As VLANs segmentam a rede logicamente em diferentes domínios de broadcast de modo que os pacotes sejam comutados somente entre portas designadas à mesma VLAN. As VLANs consistem em hosts ou equipamento de rede interconectados por um só domínio de bridging. O domínio de bridging é suportado em diferentes equipamentos de rede. Os switches de rede local operam protocolos de bridging com um grupo de bridging separado para cada VLAN.

As VLANs são criadas para proporcionarem serviços de segmentação tradicionalmente proporcionados por roteadores físicos nas configurações de rede local. As VLANs tratam das questões de escalabilidade, segurança e gerenciamento da rede. Os roteadores em topologias VLAN oferecem filtragem de broadcast, segurança e gerenciamento de fluxo de tráfego. Os

Page 168: Cisco CCNA Modulo03

168

switches não processam tráfego com bridges entre VLANs, porque isso viola a integridade dos domínios de broadcast das VLANs. Tráfego deve ser roteado entre VLANs.

8.1.2 Domínios de broadcast com VLANs e roteadores

Esta página irá explicar como os pacotes são roteados entre diferentes domínios de broadcast.

Uma VLAN é um domínio de broadcast criado por um ou mais switches. O projeto de rede nas

Figura acima exige três domínios de broadcast separados.

Page 169: Cisco CCNA Modulo03

169

A Figura acima mostra como três switches separados são utilizados para criar três domínios de broadcast separados. O roteamento de Camada 3 permite que o roteador envie pacotes para os três domínios de broadcast diferentes.

Na Figura acima, uma VLAN é criada com um roteador e um switch. Existem três domínios de broadcast separados. O roteador roteia tráfego entre as VLANs usando roteamento de Camada 3. O switch na Figura encaminhará quadros às interfaces do roteador se existirem certas circunstâncias:

• Se for um quadro de broadcast • Se estiver em caminho a um dos endereços MAC no roteador

Page 170: Cisco CCNA Modulo03

170

Se a Estação de Trabalho 1 na VLAN de Engenharia quiser enviar quadros à Estação de Trabalho 2 na VLAN de Vendas, os quadros são enviados ao endereço MAC Fa0/0 do roteador. O roteamento ocorre através do endereço IP na interface Fa0/0 do roteador para a VLAN de Engenharia.

Se a Estação de Trabalho 1 na VLAN de Engenharia quiser enviar um quadro à Estação de Trabalho 2 na mesma VLAN, o endereço MAC destino do quadro será aquele da Estação de Trabalho 2.

A implementação de VLANs em um switch faz com que ocorram certas ações:

• O switch mantém uma tabela de bridging separada para cada VLAN. • Se o quadro entrar em uma porta na VLAN 1, o switch procura a VLAN 1 na tabela de

bridging. • Quando é recebido o quadro, o switch acrescentará o endereço origem à tabela de

bridging se ele for desconhecido no momento. • O destino será conferido. Assim uma decisão de encaminhamento (forwarding) pode

ser tomada. • Para fins de aprendizagem e encaminhamento, a consulta é feita na tabela de

endereços somente para aquela VLAN.

8.1.3 Operação de VLANs

Esta página irá explicar as características de diferentes tipos de VLANs.

Uma VLAN consiste em uma rede comutada que é logicamente segmentada. Cada porta do switch pode ser atribuída a uma VLAN. As portas atribuídas à mesma VLAN compartilham broadcasts. As portas que não pertencem a essa VLAN não compartilham esses broadcasts. Isso melhora o desempenho da rede porque o número de broadcasts desnecessários é reduzido. As VLANs de associação estática são conhecidas como VLANs de associação port-based ou port-centric. Ao entrar em uma rede, um dispositivo automaticamente assume a associação de VLAN da porta à qual ele está conectado.

Os usuários conectados ao mesmo segmento compartilhado compartilham a largura daquele segmento. Cada usuário adicional conectado ao meio físico compartilhado representa uma redução de largura de banda e uma deterioração do desempenho da rede. As VLANs oferecem mais largura de banda para os usuários do que uma rede Ethernet compartilhada baseada em hubs. A VLAN default para cada porta no switch é a VLAN de gerenciamento. A VLAN de gerenciamento é sempre a VLAN 1 e não pode ser excluída. Pelo menos uma porta precisa ser

Page 171: Cisco CCNA Modulo03

171

designada à VLAN 1 para o gerenciamento do switch. As demais portas no switch podem ser designadas a VLANs alternativas.

VLANs de associação dinâmica são criadas através de software de gerenciamento da rede. CiscoWorks 2000 ou CiscoWorks for Switched Internetworks é utilizado para criar VLANs Dinâmicas. As VLANs Dinâmicas permitem associações baseadas no endereço MAC do dispositivo conectado à porta do switch. Ao entrar um dispositivo na rede, o switch ao qual ele está conectado consulta um banco de dados no Servidor de Configuração de VLANs, procurando a associação VLAN.

Na associação VLAN port-based ou port-centric, a porta é designada a uma associação VLAN específica independentemente do usuário ou sistema conectado à porta. Quando esse método de associação estiver sendo usado, todos os usuários da mesma porta precisam estar na mesma VLAN. Um só usuário, ou vários usuários, podem ser conectados a uma porta sem nunca reconhecer a existência da VLAN.

Page 172: Cisco CCNA Modulo03

172

Esse método é fácil de gerenciar porque não é necessário manter tabelas complexas de consulta para a segmentação de uma VLAN.

Os administradores da rede têm a responsabilidade de configurar VLANs, tanto estática como dinamicamente.

As bridges filtram o tráfego que não precisa ir até outros segmentos além do segmento destino. Se um quadro precisar atravessar uma bridge e se o endereço MAC destino for conhecido, a bridge encaminhará o quadro somente à porta da bridge correta. Se o endereço MAC for desconhecido, ela inunda o quadro para todas as portas no domínio de broadcast, ou seja, na VLAN, com exceção da porta de origem onde o quadro foi recebido. Os switches são considerados bridges multiportas.

8.1.4 Vantagens das VLANs

Esta página irá tratar das vantagens administrativas das VLANs.

As VLANs permitem que os administradores de redes organizem redes locais logicamente em vez de fisicamente. Esta é uma vantagem importante. Isso permite que os administradores de redes realizem várias tarefas:

Page 173: Cisco CCNA Modulo03

173

• Mover facilmente as estações de trabalho na rede local • Adicionar facilmente estações de trabalho à rede local • Modificar facilmente a configuração da rede local • Controlar facilmente o tráfego da rede • Melhorar a segurança

8.1.5 Tipos de VLANs

Esta página irá descrever três associações básicas de VLAN utilizadas para determinar e controlar como um pacote é designado:

Page 174: Cisco CCNA Modulo03

174

Page 175: Cisco CCNA Modulo03

175

• VLANs baseadas em portas • VLANs baseadas em endereço MAC • VLANs baseadas em protocolos

O número de VLANs em um switch varia conforme vários fatores:

• Padrões de tráfego • Tipos de aplicações • As exigências de gerenciamento da rede • Atributos que os grupos têm em comum

O esquema de endereçamento IP é outra consideração importante na definição do número de VLANs em um switch.

Por exemplo, é permitido ter um total de 254 endereços host em uma sub-rede de uma rede que utiliza uma máscara de 24 bits para definir cada sub-rede. Devido à enfática recomendação de que haja uma correspondência exata entre VLANs e sub-redes IP, não é permitido haver mais de 254 dispositivos em qualquer VLAN. É ainda recomendado que as VLANs não se estendam além do domínio de Camada 2 do switch de distribuição.

Page 176: Cisco CCNA Modulo03

176

Existem dois métodos importantes de frame tagging, Inter-Switch Link (ISL) e 802.1Q. ISL é um protocolo proprietário da Cisco e já foi o mais largamente utilizado, mas agora está sendo substituído pelo padrão IEEE 802.1Q de frame tagging.

Conforme os pacotes são recebidos pelo switch de qualquer dispositivo de estação final conectado, um identificador exclusivo do pacote é adicionado dentro de cada cabeçalho. Estas informações de cabeçalho designam a associação VLAN de cada pacote. O pacote é então encaminhado aos switches e roteadores apropriados de acordo com o identificador da VLAN e o endereço MAC. Quando os pacotes chegam ao nó destino, a ID da VLAN é removida do pacote pelo switch adjacente e eles são encaminhados para o dispositivo conectado. Essa marcação de pacotes providencia um mecanismo para o controle do fluxo de broadcasts e de aplicativos sem interferir com a rede e com os aplicativos. LAN emulation (LANE) é uma maneira de fazer com que uma rede Asynchronous Transfer Mode (ATM) simule uma rede Ethernet. Não existe tagging em LANE, mas a conexão virtual utilizada implica uma ID de VLAN.

8.2 Configuração de VLANs 8.2.1 Conceitos básicos de VLANs

Esta página irá fornecer informações básicas sobre VLANs e descrever as características de uma rede VLAN fim-a-fim.

Num ambiente comutado, uma estação de trabalho receberá somente o tráfego endereçado a ela. Como os switches filtram o tráfego da rede, as estações de trabalho em um ambiente comutado enviam e recebem dados com toda a largura de banda dedicada. Ao contrário de um sistema de hub compartilhado onde somente uma estação pode transmitir em qualquer dado momento, uma rede comutada permite várias transmissões simultâneas dentro de um domínio de broadcast. Esse processo não afeta diretamente as demais estações dentro ou fora do domínio de broadcast.

Cada VLAN precisa ter designado exclusivamente a ela um endereço de sub-rede de Camada 3 da rede.

As VLANs podem existir como redes fim-a-fim ou podem existir dentro de limites geográficos.

Uma rede VLAN fim-a-fim possui várias características:

• A associação VLAN para usuários é baseada no departamento ou função profissional, independentemente da localização dos usuários.

• Todos os usuários em uma VLAN devem ter os mesmos padrões de fluxo de tráfego 80/20.

• Todos os usuários em uma VLAN devem ter os mesmos padrões de fluxo de tráfego 80/20.

Page 177: Cisco CCNA Modulo03

177

• Cada VLAN possui um conjunto de requisitos de segurança comum a todos os membros.

As portas de switches são providenciadas para cada usuário na camada de acesso. Cada cor representa uma sub-rede. Dado que os usuário mudam de um lugar para outro, cada switch eventualmente se torna membro de todas as VLANs. Frame tagging é utilizado para transportar informações desde várias VLANs entre os switches da camada de acesso e os switches da camada de distribuição.

ISL é um protocolo proprietário da Cisco que mantém informações de VLAN enquanto o tráfego flui entre os switches. IEEE 802.1Q é um mecanismo de tagging (marcação) de VLAN padrão aberto (IEEE) em instalações de comutação. Os switches Catalyst 2950 não suportam trunking ISL.

Os servidores de grupos de trabalho operam em um modelo cliente/servidor. Por esta razão, os usuários são designados à mesma VLAN em que está o servidor que utilizam para maximizar o desempenho da comutação de Camada 2 e para manter o tráfego localizado.

Na Figura, um roteador da camada central (core layer) é usado para rotear entre sub-redes. A rede é projetada, com base nos padrões de fluxo do tráfego para manter 80 por cento do tráfego dentro de uma VLAN. Os 20 por cento restantes atravessam o roteador até os servidores corporativos e até a Internet e a WAN.

8.2.2 VLANs Geográficas

Esta página irá explicar porque as VLANs geográficas se tornaram mais comuns do que as VLANs fim-a-fim.

As VLANs fim-a-fim permitem que os dispositivos sejam agrupados com base em utilização de recursos. Isso inclui tais parâmetros como utilização de servidores, equipes de projetos e departamentos. O objetivo das VLANs fim-a-fim é manter 80 por cento do tráfego na VLAN local.

Page 178: Cisco CCNA Modulo03

178

Com a tendência das redes corporativas a centralizarem seus recursos, as VLANs fim-a-fim se tornam mais difíceis de manter. Os usuários são forçados a usar muitos recursos diferentes, muitos dos quais já não existem na sua VLAN. Esse deslocamento da localização e utilização de recursos exige a criação de VLANs dentro de limites geográficos e não de acordo com atributos em comum.

Esse local geográfico pode ter até o tamanho de um edifício ou tão pequeno quanto um só switch dentro de um wiring closet. Em uma estrutura geográfica, é típico encontrar a nova regra 20/80 em vigor. Isso significa que 20 por cento do tráfego permanece dentro da VLAN local e 80 por cento do tráfego da rede transita para fora da VLAN local. Embora essa topologia exija que os serviços dos recursos transitem através de um dispositivo de Camada 3, esse arranjo permite que a rede proporcione um método determinístico e consistente para acessar os recursos.

8.2.3 Configurando VLANs estáticas

Esta página irá descrever o tipo de rede na qual uma VLAN estática pode ser configurada. Os alunos também irão aprender como configurar uma VLAN.

As VLANs estáticas são portas em um switch que são atribuídas manualmente a uma VLAN. Isso pode ser realizado com um aplicativo de gerenciamento de VLAN ou configurado diretamente no switch através da CLI. Essas portas mantêm as configurações de VLAN que lhe foram atribuídas até que sejam modificadas manualmente. Esse tipo de VLAN funciona bem em redes com requisitos específicos:

Page 179: Cisco CCNA Modulo03

179

• Todas as mudanças são controladas e gerenciadas. • Existe um software robusto de gerenciamento de VLAN para configurar as portas. • O consumo adicional de recursos necessário para manter endereços MAC de estações

finais e para a filtração especializada das tabelas não é aceitável.

As VLANs dinâmicas não dependem de portas designadas a uma VLAN específica.

Para configurar VLANs em switches Cisco da série 2900, precisam ser seguidas diretivas específicas.

• O número máximo de VLANs depende do switch. • Uma das VLANs default da fábrica é a VLAN1. • A VLAN Ethernet default é VLAN1. • Anúncios do Cisco Discovery Protocol (CDP) e do VLAN Trunking Protocol (VTP) são

enviados na VLAN 1. (VTP será tratado no Módulo 9). • O endereço IP do switch está no domínio de broadcast da VLAN1 por default. • O switch precisa estar no modo de servidor VTP para criar, adicionar ou excluir VLANs.

A criação de uma VLAN em um switch é uma tarefa muito simples e sem complicações. Se for usado um switch baseado em comandos, o comando vlan database pode ser usado no modo EXEC privilegiado para entrar no modo de configuração de VLAN. Um nome também pode ser configurado para a VLAN, caso necessário:

Switch#vlan database Switch(vlan)#vlan vlan_number Switch(vlan)#exit

Ao sair, a VLAN será aplicada ao switch. A próxima etapa será designar a VLAN a uma ou mais interfaces:

Switch(config)#interface fastethernet 0/9 Switch(config-if)#switchport access vlanvlan_number 8.2.4 Verificando a configuração de uma VLAN

Esta página irá explicar como os comandos show vlan, show vlan brief, ou show vlan id id_number podem ser usados para verificar configurações de uma VLAN.

O seguintes fatos se aplicam às VLANs:

• Uma VLAN criada permanece sem utilizar até que seja mapeada a portas de switch. • Todas as portas Ethernet são atribuídas à VLAN 1 por padrão.

A Figura mostra uma lista de comandos aplicáveis.

Page 180: Cisco CCNA Modulo03

180

A Figura mostra as etapas necessárias para designar uma nova VLAN a uma porta no switch Sydney.

As Figuras ilistam a saída dos comandos show vlan e show vlan brief.

8.2.5 Salvando a configuração de uma VLAN

Esta página irá ensinar os alunos como criar um arquivo texto da configuração de uma VLAN e usá-lo como backup.

É útil guardar uma cópia da configuração da VLAN como arquivo texto, especialmente quando é necessário fazer backup ou auditoria.

Page 181: Cisco CCNA Modulo03

181

Pode ser feito o backup dos valores da configuração do switch em um servidor TFTP com o comando copy running-config tftp. Como alternativa, pode ser utilizado o recurso de captura do HyperTerminal em conjunto com os comandos show running-config e show vlan para armazenar os parâmetros da configuração.

8.2.6 Excluindo VLANs

Esta página irá ensinar os alunos como remover uma VLAN de uma interface de switch baseado em comandos do Cisco IOS. Esse processo é semelhante ao procedimento utilizado para remover um comando de um roteador.

Na Figura, Fastethernet 0/9 foi designada à VLAN 300 com o comando switchport access vlan 300. Para remover esse VLAN da interface, simplesmente use a forma no do comando.

O comando abaixo é usado para remover uma VLAN de um switch:

Switch#vlan database Switch(vlan)#no vlan 300

Page 182: Cisco CCNA Modulo03

182

Quando uma VLAN é excluída, todas as portas designada àquela VLAN são desativadas. As portas, no entanto, permanecerão associadas à VLAN excluída até que sejam designadas a outra VLAN.

8.3 Identificando e Resolvendo Problemas com VLANs 8.3.1 Visão geral

Esta página irá explicar o que os alunos aprenderão desta lição.As VLANs já são muito comuns nas redes de campus. As VLANs oferecem aos engenheiros de redes flexibilidade em projetar e implementar redes. As VLANs também permitem a contenção de broadcasts, a segurança e comunidades de interesse geograficamente divergentes. No entanto, como no caso da comutação básica de redes locais, podem surgir problemas quando VLANs são implementadas. Esta lição irá mostrar alguns dos problemas mais comuns que ocorrem com as VLANs, e proporcionará várias ferramentas e técnicas para a identificação e resolução de problemas.

Page 183: Cisco CCNA Modulo03

183

Os alunos, ao concluírem esta lição, deverão poder:

• Utilizar um método sistemático para a identificação e resolução de problemas. • Demonstrar as etapas para a identificação e resolução de problemas gerais nas redes • Descrever como os problemas com spanning-tree podem acarretar em tempestades de

broadcast • Usar os comandos show e debug para identificar e resolver problemas com VLANs

8.3.2 Processo de identificação e resolução de problemas das VLANs

Esta página ajudará os alunos a desenvolver um método sistemático que pode ser usado na identificação e resolução de problemas relacionados com switches. As seguintes etapas podem ajudar no isolamento de um problema em uma rede comutada:

Page 184: Cisco CCNA Modulo03

184

1. Examinar as indicações físicas, tais como o estado dos LEDs. 2. Começar com uma só configuração em um switch e trabalhe de dentro para fora. 3. Verificar o link de Camada 1. 4. Verificar o link de Camada 2. 5. Faça a identificação e resolução de problemas com VLANs que abrangem vários

switches.

Ao fazer a identificação e resolução de problemas, veja se o problema se repete ou se é uma falha isolada. Alguns problemas que se repetem se devem ao aumento da demanda de serviços por portas de estações de trabalho que ultrapassam a configuração, trunking ou capacidade de acesso aos serviços dos servidores. Por exemplo, a utilização de tecnologias Web e aplicativos tradicionais, tais como a transferência de arquivos e correio eletrônico, causam um crescimento do tráfego de rede que as redes corporativas precisam comportar.

Muitas redes locais de campus enfrentam padrões inéditos de tráfego de rede que resultam da combinação de tráfego da intranet, um número reduzido de servidores centralizados no campus e a crescente utilização de aplicativos multicast. A velha regra de 80/20, que dizia que só 20 por cento do tráfego da rede podia passar pelo backbone, já está obsoleta. A navegação Web interna agora permite que os usuários localizem e acessem informações em qualquer lugar na intranet corporativa. Os padrões de tráfego são determinados pela localização dos servidores e não pelas configurações físicas dos grupos de trabalho com os quais por acaso são agrupados.

Se uma rede freqüentemente sofrer sintomas de engarrafamento (bottleneck), como transbordamentos (overflows) excessivos, quadros descartados e retransmissões, poderá ser porque há um excesso de portas montadas em um só tronco ou um excesso de solicitações para recursos globais e para acesso aos servidores de intranet.

Sintomas de engarrafamento também podem ocorrer porque a maioria do tráfego está sendo forçado a atravessar o backbone. Outra causa poderia ser que o acesso "any-to-any" (todos com todos) é comum, com os usuários a valer-se de recursos corporativos baseados em Web e

Page 185: Cisco CCNA Modulo03

185

de aplicativos de multimídia. Nesse caso, poderá ser necessário considerar aumentar os recursos da rede para atender à crescente demanda.

8.3.3 Prevenindo tempestades de broadcast

Esta página ensinará aos alunos como prevenir tempestades de broadcast.

Uma tempestade de broadcast ocorre quando um número grande de pacotes de broadcast são recebidos em uma porta. O encaminhamento desses pacotes poderá resultar em um retardamento ou paralisação da rede. O controle de tempestades é configurado para o switch como um todo, mas opera independentemente para cada porta. O controle de tempestades está desativado por default.

A prevenção de tempestades de broadcast pela definição de valores limite em alto ou baixo irá descartar o excesso de tráfego MAC de broadcast, multicast ou unicast. Além disso, a configuração de valores de limites crescentes em um switch interromperá a operação da porta.

Problemas com STP incluem tempestades de broadcast, loops, BPDUs e pacotes descartados.

A função do STP é garantir que não ocorram loops lógicos em uma rede por designar uma bridge raiz. A bridge raiz é o ponto central de uma configuração de spanning-tree que controla como o protocolo opera.

Localizar a bridge raiz na rede estendida de roteador e switch é necessário para uma identificação e resolução de problemas eficaz. Os comandos show tanto no roteador como no switch podem exibir informações sobre a bridge raiz.

Page 186: Cisco CCNA Modulo03

186

A configuração de temporizadores de bridge raiz define parâmetros para o atraso de encaminhamento ou para a idade máxima para informações STP.

Manualmente configurar um dispositivo como bridge raiz é outra opção da configuração.

Se a rede estendida de roteador e switch encontrar um período de instabilidade, é de ajuda minimizar os processos STP que ocorrem entre dispositivos.

Se for necessário reduzir o tráfego BPDU, coloque os temporizadores na bridge raiz ao seu valor mínimo. Especificamente, defina o parâmetro de atraso de encaminhamento para o mínimo de 30 segundos, e defina o parâmetro max_age ao máximo de 40 segundos.

Uma porta física em um roteador ou switch poderá pertencer a mais de uma spanning tree se for um tronco.

O Spanning-Tree Protocol (STP) é considerado um dos mais importantes protocolos de Camada 2 nos switches Catalyst. Pela prevenção de loops lógicos em uma rede com bridge, o STP permite a redundância de Camada 2 sem gerar tempestades de broadcast.

Reduza os problemas de spanning-tree ao mínimo pelo desenvolvimento ativo de um estudo de linha base da rede.

Page 187: Cisco CCNA Modulo03

187

8.3.4 Identificando e Resolvendo Problemas com VLANs

Esta página irá explicar como os comandos show e debug podem ser usados para fazer a identificação e resolução de problemas com VLANs.

A Figura ilustra os problemas mais comuns encontrados na identificação e resolução de problemas das VLANs.

Para fazer a identificação e resolução de problemas na operação das conexões Fast Ethernet entre roteadores e switches, é necessário certificar-se de que a configuração da interface do roteador esteja completa e correta. Certifique-se de que não esteja configurado um endereço IP na interface Fast Ethernet. Os endereços IP são configurados em cada subinterface de uma conexão VLAN. Certifique-se de que a configuração da operação duplex no roteador seja igual àquela na porta/interface apropriada no switch.

O comando show vlan exibe informações VLAN no switch.

Page 188: Cisco CCNA Modulo03

188

A Figura exibe a saída do comando show vlan. O resultado mostra a ID da VLAN, seu nome, status e portas designadas.

Também aparecem as opções de palavra-chave e a descrição da sintaxe de palavra-chave de cada campo para o comando show vlan.

Page 189: Cisco CCNA Modulo03

189

O comando show vlan exibe informações sobre aquela VLAN no roteador. O comando show vlan, seguido do número da VLAN, exibe informações específicas àquela VLAN no roteador. A saída do comando inclui a ID da VLAN, a subinterface do roteador e informações sobre o protocolo.

O comando show spanning-tree exibe a topologia spanning-tree conhecida pelo roteador.

Page 190: Cisco CCNA Modulo03

190

Esse comando irá mostrar os parâmetros STP usados pelo roteador para a bridge spanning-tree na rede de roteador e switch.

A primeira parte da saída do comando lista parâmetros globais de configuração de spanning tree, seguido daqueles específicos a interfaces em particular.

O Bridge Group 1 executa o Spanning Tree Protocol compatível com IEEE.

As seguintes linhas de saída mostram os atuais parâmetros de operação do spanning tree:

Bridge Identifier has priority 32768, address 0008.e32e.e600 Configured hello time 2, Max age 20, forward delay 15

A seguinte linha de saída mostra que o roteador é a raiz do spanning tree:

Page 191: Cisco CCNA Modulo03

191

We are the root of the spanning tree.

Informações importantes do comando show spanning-tree cria um mapa da rede STP.

O comando debug sw-vlan packets exibe informações gerais sobre os pacotes VLAN recebidos mas não configurados para suportar o roteador. Quando o roteador é configurado para rotear ou comutar certos pacotes VLAN, estes são contados e indicados através do comando show vlans.

8.3.5 Cenários de identificação e resolução de problemas de VLANs

Os administradores de redes podem fazer com eficiência a identificação e resolução de problemas de redes comutadas depois de aprender e adaptar as técnicas às necessidades da empresa. A experiência é a melhor maneira de melhorar essas técnicas.

Esta página irá descrever três cenários de identificação e resolução de problemas de VLANs que tratam dos problemas mais comuns. Cada um destes cenários contém uma análise do problema que ajuda na sua resolução. Ao utilizar os comandos específicos apropriados e coletar informações relevantes das saídas de comandos, pode-se seguir com êxito o processo de identificação e resolução de problemas.

Cenário 1: Um trunk (tronco) não pode ser estabelecido entre um switch e um roteador.

Quando surgem dificuldades com uma conexão de tronco entre um switch e um roteador, não deixe de considerar as seguintes possíveis causas:

1. Certifique-se de que a porta esteja conectada e que não esteja recebendo quaisquer erros de camada física, de alinhamento ou de frame-check-sequence (FCS). Isso pode ser realizado com o comando show interface no switch.

2. Certifique-se de que estejam corretamente definidas a operação duplex e a velocidade entre o switch e o roteador. Isso pode ser realizado através do comando show interface status no switch ou o comando show interfaces no roteador.

3. Configure a interface física do roteador com uma sub-interface para cada VLAN que irá roteador tráfego. Verifique isso com o comando IOS show interfaces. Também, certifique-se de que cada sub-interface no roteador tenha o tipo de encapsulamento, o

Page 192: Cisco CCNA Modulo03

192

número de VLAN, o endereço IP e a máscara de sub-rede apropriadamente configurados. Isso pode ser realizado através do comando IOS show interfaces ou show running-config.

4. Certifique-se de que o roteador esteja executando uma versão do IOS que suporte trunking. Isso pode ser verificado através do comando show version.

Cenário 2: Pacotes descartados e loops.

As bridges de spanning tree utilizam pacotes de Bridge Protocol Data Units (BPDUs) de notificação de modificações de topologia para notificar as demais bridges sobre alguma modificação na topologia spanning tree da rede. A bridge com o identificador mais baixo na rede se torna a raiz. As bridges enviam essas BPDUs sempre que uma porta faça uma transição entre estados de encaminhamento, contanto que haja outras portas no mesmo grupo de bridge. Essas BPDUs migram em direção à bridge raiz.

Só pode haver uma bridge raiz para cada rede com bridge. Um processo de eleição determina qual será a bridge raiz. A raiz determina parâmetros para mensagens de configuração, nas BPDUs para depois definir os temporizadores para as demais bridges. Outras bridges designadas determinam o caminho mais curto até a bridge raiz e são responsáveis pelo anúncio das BPDUs a outras bridges através de portas designadas. Uma bridge deve ter portas no estado de bloqueio se houver um loop físico.

Podem surgir problemas para as redes em que os nós de bridging utilizam algoritmos de spanning tree IEEE e DEC. Esses problemas são causados por diferenças na maneira em que os nós de bridging processam pacotes BPDU ou pacotes hello e na maneira em que processam dados.

Nesse cenário, o Switch A, Switch B e Switch C estão executando o algoritmo spanning tree IEEE. O switch D está configurando inadvertidamente para usar o algoritmo spanning tree DEC.

O Switch A se considera como a raiz IEEE e o Switch D se considera como a raiz DEC. O Switch B e o Switch C propagam informações da raiz em todas as interfaces para o spanning tree IEEE. No entanto, o Switch D descarta informações de spanning tree IEEE. Semelhantemente, os outros roteadores ignoram o direito do Roteador D de ser a raiz.

Page 193: Cisco CCNA Modulo03

193

O resultado é que, devido ao fato de nenhuma das bridges acreditarem, existe um loop, e quando um pacote de broadcast é enviado, ocorre uma tempestade de broadcast em toda a rede. Essa tempestade de broadcast incluirá os Switches X e Y e além.

Para resolver esse problema, reconfigure o Switch D para IEEE. Embora seja necessária a mudança de configuração, possivelmente não seja o suficiente para restabelecer a conectividade. Haverá um atraso de reconvergência enquanto os dispositivos trocam BPDUs e recalculem o spanning tree para a rede.

Resumo

Esta página faz um resumo dos tópicos apresentados neste módulo.

Uma VLAN é um grupo de serviços de rede não restritos a um segmento físico ou a um switch de rede local. A configuração ou reconfiguração de VLANs é realizada através de software, o que torna desnecessário conectar fisicamente ou mover cabos e equipamentos. As VLANs tratam das questões de escalabilidade, segurança e gerenciamento da rede. Os roteadores em topologias VLAN oferecem filtragem de broadcast, segurança e gerenciamento de fluxo de tráfego. Tráfego deve ser roteado entre VLANs. Os switches não processam tráfego com bridges, porque isso violaria a integridade do domínio de broadcast das VLANs.

A principal vantagem das VLANs é que permitem que o administrador da rede organize a rede local logicamente em vez de fisicamente. Isso inclui a capacidade de mover estações de trabalho na rede local, adicionar estações de trabalho à rede local, alterar a configuração da rede local, controlar tráfego da rede e melhorar a segurança.

Uma VLAN é um domínio de broadcast criado por um ou mais switches. As VLANs são utilizadas para criar domínios de broadcast a fim de melhorar o desempenho global da rede. A implementação das VLANs em um switch faz com que o switch mantenha tabelas de bridging separadas para cada VLAN. Se o quadro entra por uma porta na VLAN 1, o switch procura VLAN 1 na tabela de bridging. Quando o quadro é recebido, o switch adiciona o endereço origem à tabela de bridging se aquele for desconhecido. O switch então verifica o destino para que possa ser tomada uma decisão de encaminhamento. Para fins de aprendizagem e encaminhamento, a consulta é feita na tabela de endereços somente para aquela VLAN.

Existem três associações básicas para determinar e controlar como um pacote é designado: VLANs baseadas em portas, VLANs baseadas em endereço MAC e VLANs baseadas em protocolo.

Page 194: Cisco CCNA Modulo03

194

Inter-Switch Link (ISL) é um método de frame tagging que está send rapidamente substituído pelo frame tagging 802.1Q. Essa marcação de pacotes providencia um mecanismo para o controle do fluxo de broadcasts e de aplicativos sem interferir com a rede e com os aplicativos.

Cada VLAN precisa ter designado exclusivamente a ela um endereço de rede de Camada 3. Isso permite que os roteadores comutem pacotes entre VLANs. As VLANs podem existir como redes fim-a-fim ou podem existir dentro de limites geográficos.

Uma rede VLAN fim-a-fim agrupa os usuários em VLANs com base no grupo ou na função profissional. Todos os usuários em uma VLAN devem ter os mesmos padrões de fluxo de tráfego 80/20. A associação de VLAN não muda para um usuário quando fisicamente troca de local. Cada VLAN possui um conjunto de requisitos de segurança comum a todos os membros.

As VLANs estáticas são portas em um switch que são manualmente atribuídas a uma VLAN através de um aplicativo de gerenciamento de VLAN ou por ações feitas diretamente dentro do switch. Essas portas mantêm as configurações de VLAN que lhe foram atribuídas até que sejam modificadas manualmente. As VLANs dinâmicas não dependem de portas designadas a uma VLAN específica. Use os comandos show vlan, show vlan brief, ou show vlan id id_number para verificar a configuração VLAN.

É usado um método sistemático para a identificação e resolução de problemas em uma VLAN. Para isolar o problema, examine as indicações físicas, tais como o estado dos LEDs. Começar com uma só configuração em um switch e trabalhe de dentro para fora. Verifique o link de Camada 2 e depois verifique o link de Camada 2. Faça a identificação e resolução de problemas com VLANs que abrangem vários switches. Alguns problemas que se repetem se devem ao aumento da demanda de serviços por portas de estações de trabalho que ultrapassam a configuração, trunking ou capacidade de acesso aos serviços dos servidores.

Módulo 09: VLAN Trunking Protocol

Visão Geral

As primeiras VLANs eram difíceis de implementar através de redes. Cada VLAN era manualmente configurada em cada switch. O gerenciamento de VLANs em uma rede extensa era uma tarefa complicada. Para complicar ainda mais as coisas, cada fabricante de switch utilizava métodos diferentes para implementar VLANs. O VLAN trunking foi elaborado para resolver esses problemas.

O VLAN trunking permite a definição de v��rias VLANs dentro de toda uma organização, adicionando tags especiais aos quadros para identificar a VLAN à qual pertencem. Essa utilização de tags permite que várias VLANs sejam implementadas em uma rede comutada de porte grande sobre um backbone ou tronco comum. O VLAN trunking é baseado em padrões e o trunking protocol IEEE 802.1Q é agora largamente implementado. O Inter-Switch Link (ISL) é o protocolo de trunking proprietário da Cisco e pode ser implementado em todas as redes Cisco.

A configuração e gerenciamento manual do VLAN Trunking Protocol (VTP) em um grande número de switches pode ser um trabalho desafiador. A principal vantagem do VTP é a automação de várias tarefas de configuração da VLAN após a configuração do VTP em uma rede.

Este módulo explica a implementação do VTP em uma rede comutada.

A tecnologia VLAN oferece muitas vantagens para os administradores de redes. Entre outras, as VLANs ajudam no controle de broadcasts de camada 3, melhoram a segurança da rede e podem ajudar no agrupamento lógico de usuários da rede. No entanto, as VLANs apresentam uma importante limitação. Operam na camada 2 o que significa que os dispositivos em

Page 195: Cisco CCNA Modulo03

195

diferentes VLANs não podem comunicar-se sem a utilização de roteadores e de endereços de camada de rede.

Este módulo cobre alguns dos objetivos para os exames CCNA 640-801 e ICND 640-811.

Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:

• Explicar as origens e funções do VLAN trunking • Descrever como o trunking possibilita a implementação de VLANs em uma rede de

grande porte • Definir o IEEE 802.1Q • Definir Cisco ISL • Configurar e verificar um tronco VLAN • Definir VTP • Explicar por que foi elaborado o VTP • Descrever o conteúdo de mensagens VTP • Listar e definir os três modos VTP • Configurar e verificar VTP em um switch baseado em IOS • Explicar por que os roteadores são necessários para a comunicação entre VLANs • Explicar a diferença entre interfaces físicas e lógicas • Definir subinterfaces • Configurar o roteamento entre VLANs com subinterfaces em uma porta de roteador

9.1 Trunking 9.1.1 História do trunking

Esta página explicará a evolução do trunking.

A história do trunking tem o seu início nas tecnologias de rádio e telefonia. Na tecnologia de rádio, um tronco é uma só linha de comunicação que transporta vários canais de sinais de rádio.

Na indústria telefônica, o conceito de trunking é associado com o caminho ou canal de comunicação telefônica entre dois pontos. Um desses dois pontos é normalmente a Central Telefônica (CO).

Troncos compartilhados também podem ser criados para oferecer redundância entre COs.

Page 196: Cisco CCNA Modulo03

196

O conceito utilizado pelas indústrias telefônica e de rádio foi, então, adotado para a comunicação de dados. Um exemplo disso em uma rede de comunicações é um link de backbone entre um MDF e um IDF. Um backbone é composto de vários troncos.

Atualmente, o mesmo princípio de trunking é aplicado a tecnologias de comutação em redes. Um tronco é uma conexão física e lógica entre dois switches, através da qual transita o tráfego da rede.

9.1.2 Conceitos de trunking

Esta página explicará como os troncos são usados em um ambiente de VLAN comutada.

Conforme já mencionado, um tronco é uma conexão física e lógica entre dois switches, através da qual transita o tráfego da rede. É um só canal de transmissão entre dois pontos. Os dois pontos geralmente são centrais de comutação.

Em uma rede comutada, um tronco é um link ponto-a-ponto que suporta várias VLANs. O propósito de um tronco é conservar portas quando é criado um link entre dois dispositivos que implementam VLANs.

Page 197: Cisco CCNA Modulo03

197

A Figura ilustra duas VLANs compartilhadas entre os switches Sa e Sb. Cada switch usa dois links físicos, de modo que cada porta transporta tráfego para uma só VLAN. Esta é uma maneira simples de implementar a comunicação VLAN entre switches, mas não é escalável.

O acréscimo de uma terceira VLAN exigiria a utilização de mais duas portas, uma em cada switch conectado. Este projeto também não é eficiente em termos de compartilhamento de cargas. Além disso, o nível de tráfego em certas VLANs talvez não justifique um link dedicado. O trunking agrega vários links virtuais em um só link físico. Isso permite que o tráfego de várias VLANs transite sobre um único cabo entre os switches.

A analogia para o trunking é um distribuidor rodoviário.

As estradas com diferentes origens e destinos compartilham uma rodovia nacional principal por alguns quilômetros e depois dividem-se novamente para chegar aos seus destinos em particular. Esse método é mais econômico do que a construção de uma estrada separada do começo ao fim para cada destino conhecido ou novo.

9.1.3 Operação de Troncos

Esta página explicará como os troncos gerenciam a transmissão de quadros entre VLANs.

As tabelas de comutação em ambas as extremidades do tronco podem ser usadas para tomar decisões sobre encaminhamento baseado nos endereços MAC de destino dos quadros. À medida que vai aumentando o número de VLANs que transitam pelo tronco, as decisões de encaminhamento tornam-se mais lentas e mais difíceis de gerenciar. O processo de decisão torna-se mais lento porque as tabelas de comutação maiores demoram mais para serem processadas.

Page 198: Cisco CCNA Modulo03

198

Os protocolos de trunking foram elaborados para gerenciar com mais eficácia a transferência de quadros de diferentes VLANs em uma única linha física. Os protocolos de trunking estabelecem um acordo para a distribuição de quadros para as portas associadas em ambas as extremidades do tronco.

Os dois tipos existentes de mecanismos de trunking são filtragem de quadros (frame filtering) e marcação de quadros (frame tagging). O frame tagging foi adotado como o mecanismo padrão de trunking pelo IEEE.

Os protocolos de trunking que utilizam frame tagging obtêm uma entrega mais rápida de quadros e facilitam o gerenciamento.

O único link físico entre os dois switches consegue transportar tráfego para qualquer VLAN. Para conseguir isso, cada quadro enviado no link é marcado para identificar a VLAN à qual pertence. Existem diferentes esquemas de marcação. Os dois esquemas mais comuns de marcação para segmentos Ethernet são ISL e 802.1Q:

Page 199: Cisco CCNA Modulo03

199

• ISL – Um protocolo proprietário da Cisco • 802.1Q – Um padrão IEEE que é o foco desta seção

9.1.4 VLANs e Trunking

São usados protocolos ou regras específicas para implementar o trunking. O trunking proporciona um método eficaz de distribuir informações sobre IDs das VLANs para outros switches.

Os dois mecanismos padrão de trunking são frame tagging e filtragem de quadros. Esta página explicará como o frame tagging pode ser usado para proporcionar uma solução mais escalável para a implementação de VLANs. O padrão IEEE 802.1Q especifica a marcação de quadros (frame tagging) como o método para implementar VLANs.

O frame tagging de VLANs foi desenvolvido especificamente para comunicações comutadas. A marcação de quadros coloca um identificador único no cabeçalho de cada quadro à medida que ele é encaminhado através do backbone da rede. O identificador é reconhecido e examinado por cada switch antes de fazer qualquer broadcast ou transmissão para outros switches, roteadores ou estações finais. Quando o quadro sai do backbone da rede, o switch retira o identificador antes que o quadro seja transmitido para a estação de destino final. O frame tagging funciona na camada 2 e não ocupa muitos recursos da rede ou de administração.

Page 200: Cisco CCNA Modulo03

200

É importante entender que um link de tronco não pertence a uma VLAN específica. Um link de tronco é um canal para VLANs entre switches e roteadores.

ISL é um protocolo que mantém informações de VLAN enquanto o tráfego flui entre os switches. Com ISL, um quadro Ethernet é encapsulado com um cabeçalho que contém um ID da VLAN

9.1.5 Implementação de trunking

Esta página ensinará aos alunos como criar e configurar um tronco para VLAN em um switch configurado por comandos do Cisco IOS.

Primeiro, configure a porta como tronco e depois use os comandos indicados na Figura para especificar o encapsulamento do tronco.

As Atividades de Laboratório ensinarão os alunos como criar links de tronco entre dois switches e permitir comunicação entre VLANs eparelhadas.

Page 201: Cisco CCNA Modulo03

201

9.2 VTP 9.2.1 A história do VTP

Esta página apresentará o VLAN Trunking Protocol (VTP).

O VLAN Trunking Protocol (VTP) foi criado pela Cisco para resolver problemas operacionais em uma rede comutada com VLANs. É um protocolo proprietário da Cisco.

Considere o exemplo de um domínio com vários switches interconectados que suportam várias VLANs. Um domínio é um agrupamento lógico de usuários e de recursos sob controle de um servidor chamado PDC (Primary Domain Controller). Para manter a conectividade dentro de VLANs, cada VLAN precisa ser manualmente configurada em cada switch. Com o crescimento da organização e o acréscimo de switches à rede, cada novo switch precisa ser manualmente configurado com informações das VLANs. Uma só designação de VLAN incorreta poderia causar dois problemas:

• VLANs com conexão cruzada devido a inconsistências na configuração das VLANs. • Configuração incorreta de VLANs em ambientes de meios físicos mistos, tais como

Ethernet e Fiber Distributed Data Interface (FDDI)

Com VTP, a configuração de VLANs é mantida consistentemente em um domínio administrativo comum. Além disso, o VTP reduz as complexidades do gerenciamento e monitoramento de redes com VLANs.

9.2.2 Conceitos do VTP

Esta página explicará como o VTP é utilizado em uma rede.

O papel do VTP é manter a consistência de configuração de VLANs através de um domínio de administração de rede comum. O VTP é um protocolo de mensagens que usa quadros de tronco da camada 2 para adicionar, excluir e renomear VLANs em um único domínio. O VTP também permite mudanças centralizadas que são comunicadas aos demais switches na rede.

Mensagens VTP são encapsuladas em quadros de protocolo Inter-Switch Link (ISL) da Cisco ou do IEEE 802.1Q e passadas através de links de tronco para outros dispositivos. Nos quadros IEEE 802.1Q, um campo de 4 bytes é usado para a marcação do quadro. Ambos os formatos transportam o ID da VLAN.

Embora as portas de switches são normalmente designadas para uma só VLAN, as portas de tronco por default transportam quadros de todas as VLANs.

Page 202: Cisco CCNA Modulo03

202

9.2.3 Operação do VTP

Esta página explicará como mensagens VTP são transmitidas. Os alunos também aprenderão sobre os três modos do VTP num switch.

Um domínio VTP consiste em um ou mais dispositivos interconectados que compartilham o mesmo nome de domínio VTP. Um switch pode existir em um só domínio VTP.

Ao transmitir mensagens VTP para outros switches na rede, a mensagem VTP é encapsulada em um quadro de protocolo de trunking, tal como ISL ou IEEE 802.1Q.

A Figura mostra o encapsulamento genérico para o VTP dentro de um quadro ISL. O cabeçalho VTP varia conforme o tipo de mensagem VTP, mas geralmente, os mesmos quatro itens encontram-se em todas as mensagens VTP:

• A versão do protocolo VTP – Versão 1 ou 2 • O tipo da mensagem VTP – Indica um dentre quatro tipos de mensagens • O comprimento do nome do domínio de gerenciamento – Indica o tamanho do nome

que segue • Nome do domínio de gerenciamento – O nome configurado para o domínio de

gerenciamento

Os switches VTP operam em um dentre três modos:

• Servidor • Cliente

Page 203: Cisco CCNA Modulo03

203

• Transparente

Os servidores VTP podem criar, modificar e excluir parâmetros de VLANs e de configuração de VLANs para o domínio inteiro. Os servidores VTP guardam informações de configuração de VLAN na NVRAM do switch. Os servidores VTP enviam mensagens VTP para todas as portas de tronco.

Os clientes VTP não podem criar, modificar ou excluir informações de VLANs Esse modo é útil para switches que não possuem memória suficiente para armazenar grandes tabelas de informações de VLANs. O único papel dos clientes VTP é de processar mudanças de VLAN e enviar mensagens VTP para todas as portas de tronco.

Os switches no modo VTP transparente encaminham anúncios VTP mas ignoram informações contidas na mensagem. Um switch transparente não modificará o seu banco de dados ao receber atualizações nem enviará uma atualização que indique uma mudança no status de suas VLAN. Exceto para o encaminhamento de anúncios VTP, o VTP é desativado em um switch transparente.

As VLANs detectadas dentro dos anúncios servem de notificação para o switch de que pode ser esperado tráfego com os recém-definidos IDs de VLAN.

Page 204: Cisco CCNA Modulo03

204

Na Figura, o Switch C transmite uma entrada de banco de dados VTP com adições ou exclusões ao Switch A e ao Switch B. O banco de dados de configuração possui um número de revisão que é incrementado por 1. Um número mais alto de revisão de configuração indica que as informações sobre VLANs sendo recebidas são mais recentes que a cópia armazenada. Sempre que um switch recebe uma atualização cujo número de revisão de configuração é mais alto, o switch sobrescreve as informações já armazenadas com as novas informações enviadas na atualização do VTP. O Switch F não processa a atualização porque está em outro domínio. Esse processo de sobrescrita significa que se a VLAN não existir no novo banco de dados, ela será excluída do switch. Além disso, o VTP mantém a sua própria configuração na NVRAM. O comando erase startup-configuration limpa a configuração dentro da NVRAM, mas não o número de revisão do banco de dados do VTP. Para redefinir como zero o número de revisão da configuração, o switch precisa ser reinicializado.

Por default, os domínios de gerenciamento são definidos para um modo não seguro. Isso significa que os switches interagem sem a utilização de senha. Para definir o domínio de gerenciamento automaticamente no modo seguro, pode ser adicionada uma senha. A mesma senha precisa ser configurada em cada switch no domínio de gerenciamento para usar o modo seguro.

9.2.4 Implementação do VTP

Esta página descreverá os dois tipos de anúncios VTP e os três tipos de mensagens VTP.

Com o VTP, cada switch anuncia em suas portas de tronco o seu domínio de gerenciamento, o número da revisão da configuração, as VLANs que ele conhece e certos parâmetros para cada VLAN conhecida. Esses quadros de aviso são enviados para um endereço de multicast, para que todos os dispositivos vizinhos possam receber os quadros. No entanto, os quadros não são encaminhados mediante procedimentos normais de bridging. Todos os dispositivos no mesmo domínio de gerenciamento aprendem sobre novas VLANs configuradas em um dispositivo transmissor. Uma nova VLAN precisa ser criada e configurada em somente um dispositivo no domínio de gerenciamento. Os demais dispositivos no mesmo domínio de gerenciamento automaticamente aprendem as informações.

Anúncios em VLANs configuradas como default de fábrica dependem dos tipos de meios físicos. As portas de usuários não devem ser configuradas como troncos VTP.

Cada anúncio começa com o número de revisão da configuração em 0. À medida que são feitas mudanças, o número de revisão da configuração é incrementado em 1, ou seja, n + 1. O número de revisão continua a ser incrementado até que chegue a 2.147.483.648. Ao chegar a esse valor, será redefinido como zero.

Há dois tipos de anúncios VTP:

• Solicitações de clientes que desejam informações ao se inicializar • Respostas dos servidores

Há três tipos de mensagens VTP:

• Solicitações de anúncios • Anúncios sumarizados • Anúncios de subconjuntos

Com solicitações de anúncios, os clientes solicitam informações de VLAN e o servidor responde com anúncios sumarizados e de subconjuntos.

Page 205: Cisco CCNA Modulo03

205

Por default, os switches Catalyst servidores e clientes emitem anúncios sumarizados de cinco em cinco minutos. Os servidores informam os switches vizinhos daquilo que acreditam ser o atual número de revisão do VTP. Se os nomes de domínio forem idênticos, o servidor ou o cliente faz a comparação do número de revisão da configuração que recebeu. Se o switch receber um número de revisão superior ao atual número de revisão desse switch, emitirá uma solicitação de anúncio para as novas informações de VLAN.

Page 206: Cisco CCNA Modulo03

206

Os anúncios de subconjunto contêm informações detalhadas sobre VLANs, tais como a versão do VTP, o nome do domínio e campos relacionados a ele, além do número de revisão da configuração. Certas ações podem ativar anúncios de subconjuntos:

• Criação ou exclusão de uma VLAN • Suspensão ou ativação de uma VLAN • Mudança no nome de uma VLAN • Mudança na MTU (maximum transmission unit) de uma VLAN

Os anúncios podem conter algumas ou todas as seguintes informações:

• Nome do domínio de gerenciamento – Anúncios com nomes diferentes são ignorados.

• Número de revisão da configuração – Um número superior indica uma configuração mais recente.

• Message Digest 5 (MD5) – MD5 é a chave que é enviada com o VTP se foi atribuída uma senha. Se a chave não corresponder, a atualização será ignorada.

• Identidade do atualizador – A identidade do atualizador é a identidade do switch que envia o anúncio sumarizado do VTP.

9.2.5 Configuração do VTP

Esta página ensinará aos alunos como configurar o VTP.

Etapas específicas precisam ser consideradas antes de serem configurados o VTP e as VLANs na rede:

Page 207: Cisco CCNA Modulo03

207

1. Determinar o número da versão do VTP que será utilizada. 2. Decidir se este switch será membro de um domínio de gerenciamento já existente, ou

se deve ser criado um novo domínio. Se existir um domínio de gerenciamento, determinar o nome e a senha do domínio.

3. Escolher um modo de VTP para o switch.

Duas versões diferentes de VTP estão disponíveis, Versão 1 e Versão 2. As duas versões não são compatíveis entre si. Se um switch estiver configurado em um domínio VTP Versão 2, todos os switches no domínio de gerenciamento precisarão ser configurados para o VTP Versão 2. O VTP Versão 1 é o default. O VTP Versão 2 pode ser implementado se os recursos necessários não existirem na Versão 1. O recurso mais freqüentemente exigido é o suporte para VLAN Token Ring.

Para configurar a versão do VTP em um switch baseado em comandos do Cisco IOS, primeiro entre no modo de banco de dados de VLAN.

O seguinte comando pode ser usado para entrar no modo de banco de dados de VLAN e configurar o número da versão do VTP.

Switch#vlan database Switch(vlan)#vtp v2-mode

Se o switch for o primeiro switch da rede, o domínio de gerenciamento deverá ser criado. Se o domínio de gerenciamento foi provido de segurança, configure uma senha para o domínio.

O seguinte comando pode ser usado para criar um domínio de gerenciamento.

Switch(vlan)#vtp domain cisco

O nome do domínio pode ter um comprimento de 1 a 32 caracteres. A senha precisa ter um comprimento de 8 a 64 caracteres.

Para adicionar um cliente VTP a um domínio VTP já existente, certifique-se de que o seu número de revisão da configuração VTP seja inferior ao número de revisão da configuração dos outros switches no domínio VTP. Use o comando show vtp status. Os switches em um domínio VTP sempre usam a configuração das VLANs do switch com o número de revisão da configuração VTP mais alto. Se for adicionado um switch com um número de revisão superior àquele atualmente existente no domínio VTP, possivelmente serão apagadas todas as informações das VLANs do servidor VTP e do domínio VTP.

Escolha um dos três modos do VTP disponíveis para o switch. Se este for o primeiro switch no domínio de gerenciamento e se tiverem que ser adicionados outros switches, configure o modo como servidor. Os switches adicionais poderão aprender informações de VLAN desse switch. Deve existir pelo menos um servidor.

As VLANs podem ser criadas, excluídas e renomeadas à vontade sem que o switch propague modificações a outros switches. É possível que as VLANs sejam parcialmente sobrepostas se várias pessoas configuram dispositivos dentre de uma rede. Por exemplo, o mesmo ID de VLAN pode ser usado para VLANs com propósitos divergentes.

Page 208: Cisco CCNA Modulo03

208

O seguinte comando pode ser usado para definir o modo correto do switch:

Switch(vlan)#vtp {client | server | transparent}

A Figura apresenta a saída do comando show vtp status. Este comando é usado para verificar a configuração dos parâmetros VTP em um switch baseado em comandos do Cisco IOS.

A Figura apresenta a saída do comando show vtp counters. Este comando é usado para exibir estatísticas sobre anúncios enviados e recebidos pelo switch.

9.3 Visão Geral do Roteamento Entre VLANs 9.3.1 Conceitos básicos de VLANs

Esta página apresentará o conceito de uma VLAN e como ela é usada.

Uma VLAN é um agrupamento lógico de dispositivos ou usuários que podem ser agrupados por função, departamento ou aplicativo, independentemente da sua localização física.

Page 209: Cisco CCNA Modulo03

209

As VLANs são configuradas por software no switch. O número de implementações de VLAN de fabricantes diferentes pode exigir a utilização de software proprietário do fornecedor do switch. O agrupamento de portas e usuários em comunidades de interesse, denominadas organizações VLAN, pode ser realizado pela utilização de um só switch ou, de forma mais abrangente, entre switches conectados dentro da empresa. Ao agrupar as portas e usuários entre vários switches, as VLANs podem abranger infra-estruturas em um só edifício ou em edifícios interconectados. As VLANs ajudam na utilização eficaz de largura de banda, já que compartilham o mesmo domínio de broadcast ou rede de camada 3. As VLANs otimizam a utilização da largura de banda. As VLANs disputam a utilização da mesma largura de banda, embora as exigências de largura de banda possam variar muito entre grupos de trabalho ou departamentos.

Page 210: Cisco CCNA Modulo03

210

A seguir são apresentados alguns aspectos a respeito da configuração de VLANs:

• Um switch cria um domínio de broadcast • VLANs ajudam no gerenciamento de domínios de broadcast • VLANs podem ser definidas em grupos de portas, usuários ou protocolos • Os switches de rede local e software de gerenciamento de redes proporcionam um

mecanismo para criar VLANs

As VLANs ajudam a controlar o tamanho dos domínios de broadcast e a localizar tráfego. As VLANs estão associadas a redes individuais. Portanto, os dispositivos de rede em diferentes VLANs não podem comunicar-se diretamente sem a intervenção de um dispositivo de roteamento de camada 3.

Quando um nó em uma VLAN precisa comunicar-se com um nó em outra VLAN, é necessário que haja um roteador para rotear o tráfego entre as VLANs. Sem o dispositivo roteador, o tráfego entre VLANs seria impossível.

9.3.2 Introduzindo o roteamento entre VLANs

Esta página explicará como os roteadores operam entre VLANs.

Quando um host em um domínio de broadcast deseja comunicar-se com um host em outro domínio de broadcast, um roteador precisa ser utilizado.

A porta 1 em um switch faz parte da VLAN 1 e a porta 2 faz parte da VLAN 200.

Se todas as portas de switches fizessem parte da VLAN 1, os hosts conectados a essas portas poderiam comunicar-se. Nesse caso, porém, as portas fazem parte de VLANs diferentes, VLAN 1 e VLAN 200. Um roteador precisa ser utilizado se os hosts das diferentes VLANs precisam comunicar-se.

Page 211: Cisco CCNA Modulo03

211

A vantagem mais importante do roteamento é o seu desempenho comprovado na facilitação das redes, especialmente de redes de grande porte. Embora a Internet sirva como exemplo óbvio, este fato aplica-se a qualquer tipo de rede, tal como um grande backbone de um campus. Já que os roteadores impedem a propagação de broadcasts e utilizam algoritmos de encaminhamento mais inteligentes que as bridges e switches, os roteadores providenciam uma utilização mais eficiente da largura de banda. Isso simultaneamente resulta em uma seleção de caminhos flexível e otimizada. Por exemplo, é muito fácil implementar o balanceamento de cargas através de vários caminhos na maioria das redes quando se utiliza o roteamento. Por outro lado, o balanceamento de cargas de camada 2 pode ser muito difícil de projetar, implementar e manter.

Se uma VLAN abrange vários dispositivos, um tronco é usado para interligar os dispositivos. Um tronco transporta tráfego para várias VLANs. Por exemplo, um tronco pode conectar um switch a outro switch, um switch ao roteador entre VLANs ou um switch a um servidor com uma placa de rede especial instalada que suporte o trunking.

Lembre-se de que quando um host em uma VLAN deseja comunicar-se com um host em outra, um roteador precisa estar envolvido.

Page 212: Cisco CCNA Modulo03

212

9.3.3 Questões e soluções de conectividade entre VLANs

Esta página irá descrever algumas questões da conectividade lógica e física que ocorre entre VLANs.

Quando são interligadas VLANs, várias questões técnicas irão surgir. Duas das questões mais comuns que surgem em um ambiente de várias VLANs são:

• A necessidade dos dispositivos de usuários finais alcançarem hosts não locais. • A necessidade da comunicação entre hosts em diferentes VLANs

Quando um roteador precisa fazer uma conexão a um host remoto, ele examina a sua tabela de roteamento para determinar se existe um caminho já conhecido. Se o host remoto encontra-se em uma sub-rede que ele sabe alcançar, o sistema tenta verificar se é possível fazer a conexão através daquela interface. Se todos os caminhos conhecidos falharem, o sistema tem uma última opção – a rota default. Essa rota é um tipo especial de rota gateway e normalmente ela é a única presente no sistema. Em um roteador, um asterisco (*) indica uma rota default na saída do comando show ip route. Para hosts em uma rede local, esse gateway é definido como qualquer máquina que possuir uma conexão direta com o mundo externo e este é o Gateway Default listado nas configurações TCP/IP da estação de trabalho. Se a rota default dos hosts estiver configurada para o próprio roteador, ele mesmo estará funcionando como gateway até a Internet pública. Então a rota default apontará para a máquina gateway em um Provedor de Serviços de Internet (ISP). As rotas default são implementadas através do comando ip route.

Router(Config)#ip route 0.0.0.0 0.0.0.0 192.168.1.1

Nesse exemplo, 192.168.1.1 é o gateway. A conectividade entre VLANs pode ser conseguida através da conectividade lógica ou física.

A conectividade lógica envolve uma só conexão, ou tronco, entre o switch e o roteador. Esse tronco pode suportar várias VLANs. Essa topologia chama-se router-on-a-stick (roteador no espeto) porque existe uma só conexão ao roteador. No entanto, existem várias conexões lógicas entre o roteador e o switch.

Page 213: Cisco CCNA Modulo03

213

A conectividade física envolve uma conexão física separada para cada VLAN. Isso implica uma interface física separada para cada VLAN.

Os primeiros projetos de VLANs dependiam de rotas externas conectadas a switches com capacidades para VLANs. Nesse método, os roteadores tradicionais são conectados através de um ou mais links a uma rede comutada. O projeto de router-on-a-stick emprega um só link de tronco, que conecta o roteador ao restante da rede do campus.

O tráfego entre VLANs precisa atravessar o backbone de camada 2 para alcançar o roteador quando transita entre VLANs. O tráfego, então, transita de volta até a estação final desejada, usando encaminhamento normal de camada 2. Esse fluxo para-fora-do-roteador-e-de-volta é uma característica dos projetos de router-on-a-stick.

9.3.4 Interfaces físicas e lógicas

Esta página explicará como as interfaces físicas e lógicas são adicionadas ao projeto da rede.

Em uma situação tradicional, uma rede com quatro VLANs exigiria quatro conexões físicas entre o switch e um roteador externo.

Page 214: Cisco CCNA Modulo03

214

Quando tecnologias, tais como Inter-Switch Link (ISL), tornaram-se mais acessíveis, os projetistas de redes começaram a usar links de tronco para conectar roteadores aos switches.

Embora seja possível usar qualquer tecnologia de trunking, como ISL, 802.1Q, 802.10 ou LAN Emulation (LANE), os métodos baseados em Ethernet, tais como ISL e 802.1Q, são os mais comuns.

Page 215: Cisco CCNA Modulo03

215

O protocolo proprietário ISL da Cisco, assim como o padrão multi-fornecedor IEEE 802.1q, são usados para a implementação de troncos em links Fast Ethernet.

A linha sólida no exemplo refere-se ao único link físico entre o Switch Catalyst e o roteador. Essa é a interface física que conecta o roteador ao switch.

À medida que vai crescendo o número de VLANs em uma rede, o método físico de ter uma interface de roteador para cada VLAN rapidamente torna impraticável qualquer expansão. As redes com muitas VLANs precisam usar o trunking VLAN para atribuir várias VLANs a uma única interface de roteador.

As linhas pontilhadas no exemplo referem-se a vários links lógicos em utilização nesse link físico usando subinterfaces. O roteador tem capacidade para suportar muitas interfaces lógicas em links físicos individuais. Por exemplo, a interface FastEthernet 0/0 poderia suportar três interfaces virtuais numeradas FastEthernet 1/0.1, 1/0.2 e 1/0.3.

A principal vantagem da utilização de uma linha tronco é a redução do número de portas utilizadas no roteador e no switch. Não só economiza dinheiro como também poderá reduzir a complexidade da configuração. Conseqüentemente, o método do roteador conectado por tronco pode ser expandido para comportar um maior número de VLANs do que com o método de um link para cada VLAN.

9.3.5 Dividindo interfaces físicas em subinterfaces

Esta página apresentará o conceito de subinterfaces.

Uma subinterface é uma interface lógica dentro de uma interface física, tal como uma interface Fast Ethernet em um roteador.

Várias subinterfaces podem existir em uma única interface física.

Page 216: Cisco CCNA Modulo03

216

Cada subinterface suporta uma VLAN e recebe a designação de um endereço IP. Para que vários dispositivos possam comunicar-se sobre a mesma VLAN, o endereço IP de todas as subinterfaces interrelacionadas precisam estar na mesma rede ou sub-rede. Por exemplo, se a subinterface FastEthernet 0/0.1 tiver um endereço IP 192.168.1.1 então 192.168.1.2, 192.168.1.3 e 192.1.1.4 serão os endereços IP para os dispositivos conectados à subinterface FastEthernet 0/0.1.

Para realizar o roteamento entre VLANs através de subinterfaces, será necessário criar uma subinterface para cada VLAN.

Page 217: Cisco CCNA Modulo03

217

9.3.6 Configurando o Roteamento Entre VLANs

Esta página demonstrará os comandos utilizados para configurar o roteamento entre VLANs para um roteador e um switch. Antes da implementação de qualquer um desses comandos, cada roteador e switch deve ser verificado para saber quais são os encapsulamentos de VLAN que suportam. Os switches Catalyst 2950 suportam o trunking 802.1q desde o lançamento da versão 12.0(5.2)WC(1) do Cisco IOS, mas não suportam o trunking Inter-Switch Link (ISL). Para que o roteamento entre VLANs funcione corretamente, todos os roteadores e switches envolvidos precisam suportar o mesmo encapsulamento.

Em um roteador, uma interface pode ser dividida logicamente em várias subinterfaces virtuais. As subinterfaces representam uma solução flexível para o roteamento de vários fluxos de dados através de uma só interface física. Para definir subinterfaces em uma interface física, realize as seguintes tarefas:

• Identifique a interface. • Defina o encapsulamento da VLAN. • Atribua um endereço IP à interface.

Para identificar a interface, use o comando interface no modo configuração global.

Router(config)#interface fastethernet port-number. subinterface-number

Page 218: Cisco CCNA Modulo03

218

O parâmetro port-number identifica a interface física e o parâmetro subinterface-number identifica a interface virtual.

O roteador precisa poder falar com o switch usando um protocolo de trunking padronizado. Isso significa que ambos os dispositivos interconectados precisam entender-se. No exemplo, o 802.1Q é usado. Para definer o encapsulamento da VLAN, digite o comando encapsulation no modo configuração de interface.

Router(config-if)#encapsulation dot1q vlan-number

O parâmetro vlan-number identifica a VLAN para a qual a subinterface transportará tráfego. Um ID da VLAN é adicionada ao quadro somente quando o quadro destina-se a uma rede não local. Cada pacote VLAN contém o ID da VLAN dentro do cabeçalho do pacote.

Para atribuir um endereço IP à interface, digite o seguinte comando no modo de configuração de interface.

Router(config-if)#ip address ip-address subnet-mask

Os parâmetros ip-address e subnet-mask são os 32 bits do endereço de rede e máscara da interface específica.

Page 219: Cisco CCNA Modulo03

219

No exemplo, o roteador possui três subinterfaces configuradas na interface Fast Ethernet 0/0. Essas três interfaces são identificadas como 0/0.1, 0/0.2 e 0/0.3. Todas as interfaces são encapsuladas com 802.1q. A interface 0/0.1 faz o roteamento de pacotes para a VLAN 1, enquanto a interface 0/0.2 faz o roteamento de pacotes para a VLAN 20 e a 0/0.3 faz o roteamento de pacotes para a VLAN 30.

Resumo

Um tronco é uma conexão física e lógica entre dois switches, através da qual transita o tráfego da rede. O conceito de trunking tem o seu início nas tecnologias de rádio e telefonia. No contexto de um ambiente de comutação em VLAN, um tronco é um link ponto-a-ponto que suporta várias VLANs.

O propósito de um tronco é conservar portas quando é criado um link entre dois dispositivos que implementam VLANs. O trunking agregará vários links virtuais em um só link físico, permitindo que o tráfego para várias VLANs transite sobre um único cabo entre os switches.

Page 220: Cisco CCNA Modulo03

220

As tabelas de comutação em ambas as extremidades do tronco podem ser usadas para tomar decisões sobre encaminhamento com base nos endereços MAC de destino dos quadros. Esse processo torna-se mais lento à medida que vai aumentando o número de VLANs que transitam no tronco. Para gerenciar com eficácia a transferência de quadros provenientes de diferentes VLANs em uma só linha física, os protocolos de trunking foram elaborados. Os protocolos de trunking estabelecem um acordo para a distribuição de quadros para as portas associadas em ambas as extremidades do tronco.

Existem dois tipos de mecanismos para trunking: filtragem de quadros e frame tagging. Os protocolos de trunking que utilizam o mecanismo de frame tagging atribuem um identificador aos quadros. Isso proporciona um melhor gerenciamento e uma entrega mais rápida. Frame tagging funciona na camada 2 e requer pouco processamento e ocupa poucos recursos administrativos. O ISL, o protocolo proprietário Inter-Switch Link da Cisco e o 802-1Q, o padrão IEEE, são os esquemas de tagging mais comuns para segmentos Ethernet.

Antes de implementr o trunking, determine qual é o encapsulamento que a porta pode suportar mediante a utilização do comando show port capabilities. Para certificar-se de que o trunking foi configurado, use o comando show trunk [mod_num/port_num] a partir do modo Privilegiado do switch.

O VLAN Trunking Protocol (VTP) foi criado para resolver problemas operacionais em uma rede comutada com VLANs. Os dois problemas mais comuns são VLANs com conexões cruzadas decorrentes de inconsistências na configuração e falhas na configuração em ambientes de meios físicos mistos.

Com o VTP, a configuração de VLANs é mantida consistentemente em um domínio administrativo comum. Um domínio VTP consiste em um ou mais dispositivos interconectados que compartilham o mesmo nome de domínio VTP. Um switch pode existir em um só domínio VTP. Ao transmitir mensagens VTP para outros switches na rede, a mensagem VTP é encapsulada em um quadro de protocolo de trunking, tal como ISL ou IEE 802.1Q. Os switches VTP operam em um dentre três modos. Os modos incluem: servidor, que pode criar, modificar e excluir VLANs e parâmetros de configuração de VLANs para o domínio inteiro - cliente, que processa mudanças de VLAN e envia mensagens VTP através de todas as portas de tronco – transparente, que encaminha anúncios VTP mas ignora informações contidas na mensagem.

Com o VTP, cada switch anuncia em suas portas de tronco o seu domínio de gerenciamento, o número de revisão da configuração, as VLANs que ele conhece e certos parâmetros para cada VLAN conhecida.

Há dois tipos de anúncios VTP: solicitações de clientes e respostas de servidores. Eles geram três tipos de mensagens VTP, que incluem solicitação de anúncio, anúncio sumarizado e anúncio de subconjunto. Com solicitações de anúncios, os clientes solicitam informações de VLAN e o servidor responde com anúncios sumarizados e de subconjuntos. Por default, os switches Catalyst servidores e clientes emitem anúncios sumarizados de cinco em cinco minutos. Os servidores informam aos switches vizinhos o que acreditam ser o atual número de revisão do VTP. É feita a comparação desse número e, se houver diferenças, novas informações são solicitadas. Os anúncios de subconjunto contêm informações detalhadas sobre VLANs, tais como a versão do VTP, o nome do domínio e campos relacionados a ele além do número de revisão da configuração.

Antes de configurar o VTP e as VLANs em uma rede, descubra o número da versão do VTP, determine se deve ser criado um novo domínio e estabeleça o modo VTP. Deve existir pelo menos um servidor. Para definir o modo correto do switch com base em comandos do Cisco IOS, use o comando Switch(vlan)#vtp {client | server | transparent}.

Use o comando show vtp status para verificar se o número de revisão da configuração o VTP é inferior ao número de revisão da configuração nos outros switches no domínio VTP antes de adicionar um cliente.

Page 221: Cisco CCNA Modulo03

221

Quando um host em um domínio de broadcast deseja comunicar-se com um host em outro domínio de broadcast, um roteador precisa ser utilizado. Em um roteador, uma interface pode ser dividida logicamente em várias subinterfaces virtuais. As subinterfaces representam uma solução flexível para o roteamento de vários fluxos de dados através de uma só interface física.

9.4 Estudo de Caso Estudo de Caso Dividido em Temas

O seguinte estudo de caso é usado para ilustrar o processo criação de um projeto de rede, bem como a documentação necessária. Esse estudo de caso apresenta um cenário no qual a XYZ Research Company contratou um grupo de consultores de redes para projetar a sua rede. Este estudo de caso requer que você realize as seguintes tarefas:

• Usar os recursos fornecidos, o diagrama e o texto, para configurar uma rede física • Configurar um esquema de endereçamento IP, usando VLSM • Configurar os roteadores conforme o necessário • Preparar e configurar os switches e as VLANs conforme o necessário • Verificar e resolver quaisquer problemas com todas as conexões • Prover documentação detalhada no formato apropriado • Prover um relatório final por escrito