TCC_MPLS_TE_R01

41
FACULDADE DE TECNOLOGIA IBTA Carlos Henrique Bertacini Emerson Oliveira Sutil Da Silva Rodrigo Fernando Gomes Lima MPLS-TE – IMPLEMENTAÇÃO DE UMA REDE MPLS-TE COM QOS

description

Trabalho de conclusão de curso, redes MPLS com TE

Transcript of TCC_MPLS_TE_R01

Page 1: TCC_MPLS_TE_R01

FACULDADE DE TECNOLOGIA IBTA

Carlos Henrique Bertacini

Emerson Oliveira Sutil Da Silva

Rodrigo Fernando Gomes Lima

MPLS-TE – IMPLEMENTAÇÃO DE UMA REDE MPLS-TE COM QOS

CAMPINAS – SP

2011

Page 2: TCC_MPLS_TE_R01

Carlos Henrique Bertacini

Emerson Oliveira Sutil Da Silva

Rodrigo Fernando Gomes Lima

MPLS-TE – IMPLEMENTAÇÃO DE UMA REDE MPLS-TE COM QOS

Trabalho de Conclusão de Curso apresentado

à Faculdade de Tecnologia IBTA para a obtenção do

título de Tecnólogo em Redes de Computadores

Orientador: Prof. Caio Camargo Martins

CAMPINAS – SP

2011

Page 3: TCC_MPLS_TE_R01

Carlos Henrique Bertacini

Emerson Oliveira Sutil Da Silva

Rodrigo Fernando Gomes Lima

MPLS-TE – IMPLEMENTAÇÃO DE UMA REDE MPLS-TE COM QOS

Trabalho de Conclusão de Curso apresentado à

Faculdade de Tecnologia IBTA para a obtenção do

título de Tecnólogo em Redes de Computadores

Aprovado em __/__/____

BANCA EXAMINADORA

________________________________________________________

Prof. Ana Raquel Siqueira Calais

Faculdade de Tecnologia IBTA

_________________________________________________________

Prof. Caio Camargo Martins

Faculdade de Tecnologia IBTA

Page 4: TCC_MPLS_TE_R01

Este trabalho é dedicado a todas as

pessoas que contribuiram diretamente para o

desenvolvimento deste TCC e que influenciaram

direta ou indiretamente em nossas carreiras.

Page 5: TCC_MPLS_TE_R01

AGRADECIMENTOS

Agradecemos a todos aqueles que colaboraram no desenvolvimento desta monografia e que

foram parte fundamental para que o TCC fosse desenvolvido, nossos sinceros agradecimentos

ao professor Caio Martins que transmitiu sempre com muita clareza todos os seus

conhecimentos e que esteve sempre a nossa disposição, à professora Ana Raquel que nos

ajudou e orientou passo a passo até chegarmos nesta versão completa do TCC dentro dos

padrões ABNT.

Page 6: TCC_MPLS_TE_R01

"Aprender é a única coisa de que a mente nunca

se cansa, nunca tem medo e nunca se arrepende."

(Leonardo da Vinci)

Page 7: TCC_MPLS_TE_R01

RESUMO

O projeto consiste na implantação do protocolo MPLS TE (Multi Protocol Label

Switching Traffic Engineering) com QoS (Quality of Service) em uma infra-estrutura de

backbone, de uma empresa prestadora de serviços onde haverá trafego de dados, voz e vídeo,

o backbone da empresa em questão está localizado nas cidades do Rio de Janeiro e São Paulo,

e para otimizar o tráfego será implantado o protocolo MPLS TE com QoS que implanta

engenharia de tráfego em redes IPs (Internet Protocol) permitindo assim o estabelecimento de

caminhos alternativos nestas redes, diferentes dos caminhos definidos pelo protocolo IGP

(Internal Gateway Protocol) baseado em critérios de recursos disponíveis e métricas sensíveis

ao atraso.

Page 8: TCC_MPLS_TE_R01

LISTA DE FIGURAS

Figura 1: Divisão do endereço MAC ..............................................................................................................Pá

Figura 2:...........................................................................................................................................................

Figura 3:...........................................................................................................................................................

Figura 4:...........................................................................................................................................................

Figura 5:...........................................................................................................................................................

Figura 6:...........................................................................................................................................................

Figura 7:...........................................................................................................................................................

Figura 8:...........................................................................................................................................................

Page 9: TCC_MPLS_TE_R01

LISTA DE TABELAS

Tabela 1: Classes IP 22

Tabela 2:nome

Tabela 3:nome

Tabela 4:nome

Tabela 5:nome

Tabela 6:nome

Tabela 7:nome

Page 10: TCC_MPLS_TE_R01

LISTA DE ABREVIATURAS E SIGLAS

AS – Autonomous Systems

ATM – Asynchronous Tranfer Mode

BGP – Border Gateway Protocol

CBR – Constant Bit Rate

CIDR – Classless Inter Domain Routing

CSMA/CD – Carrier Sense Multiple Access with Collision Detect

Diffserv – Differentiated Service

DSCP – DiffServ Code Point

DS-TE – DiffServ-Aware Traffic Engineering

EGP – External Gateway Protocol

EIGRP – Enhanced Interior Gateway Routing Protocol

FEC – Forwarding Equivalence Class

IEEE – Institute of Electrical and Electronics Engineers

IETF – Internet Engineering Task Force

IGP – Internal Gateway Protocol

IntServ – Integrated Service

IP – Internet Protocol

ITIL – Information Techonology Infraestructure Library

LAN – (local area network)

LSP – (Label Switch Path)

MAC – Media Access Control

MPLS – Multiprotocol Label Switching

NIC – Network Interface Card

OSPF – Open Shortest Path First

OUI – Organizationnally Unique Identifier

PPP – Point to Point Protocol

PSTN – Public Switched Telephone Network

QoS – Quality of Service

RFC – Request For Coments

RIP – Router Internet Protocol

RSVP – Resource Reservation Protocol

RTP – Real Time Protocol

Page 11: TCC_MPLS_TE_R01

11

SLA – Service Level Agreement

TE – Traffic Engineering

VoIP – Voice over IP

Page 12: TCC_MPLS_TE_R01

SUMÁRIO

1 INTRODUÇÃO...........................................................................................................................................00

1.1 EXCLUSÕES ESPECÍFICAS...........................................................................................................................00

2 CENÁRIO....................................................................................................................................................00

3 CONCEITO E DEFINIÇÕES TEÓRICAS.............................................................................................00

Page 13: TCC_MPLS_TE_R01

13

1 INTRODUÇÃO

Este projeto terá como objetivo, a implantação do MPLS TE (MultiProtocol

Label Switching) onde será apresentada a engenharia de tráfego em redes IP’s

(Internet Protocol) que permiti o estabelecimento de caminhos alternativos em redes,

diferentes dos caminhos definidos pelo protocolo IGP (Internal Gateway Protocol)

baseado em critérios de recursos disponíveis, métricas sensíveis ao atraso como o

OSPF (Open Shortest Path First) ou, ainda características físicas do enlace. O projeto

será implantado em uma rede já existente e justificará como o MPLS TE pode

otimizar o tráfego em uma rede evitando gargalos (congestionamentos) e falhas, desta

forma agregando valor ao cliente principalmente pelo foco ser na aplicação de QoS

(Quality os Service) que irá garantir a entrega dos pacotes aos seus respectivos

destinos, devido à demanda e necessidade de mercado se faz necessário maior

qualidade, agilidade e segurança relacionada à garantia de entrega dos serviços dos

clientes que solicitaram uma solução permanente para o problema.

1.1 Exclusões Específicas

Infra-estrutura da rede;

Detalhamentos dos protocolos exceto protocolo MPLS TE;

Page 14: TCC_MPLS_TE_R01

14

2 CENÁRIO

A RCE Engineers é uma empresa de telecomunicações que oferece soluções de

internet voltada para operadoras de telefonia, a empresa NetRight solicitou que a RCE

encontre uma solução para otimizar o trafego em sua rede pois os serviços que

prestam de dados, voz e vídeo não estão atendendo as necessidades de seus clientes

nos estados do Rio de Janeiro e São Paulo, a operadora NetRight teve um aumento em

sua demanda de serviços que superou suas expectativas para o ano , e segundo as boas

praticas do ITIL (Information Techonology Infraestructure Library) processo no qual

o cliente esta baseado, um estudo foi feito pelos processos de gerenciamento da

capacidade e disponibilidade e foi identificado que suas operações de rede chegaram

à 95% de utilização, com picos de tráfego de até 98%, o que está gerando lentidão na

rede e segundos as boas práticas de planejamento e gerenciamento da capacidade e

disponibilidade foi identificado que a empresa precisa otimizar o tráfego na rede por

que não está conseguindo atender o acordo de nível de serviço SLA (Service Level

Agreement) com os seus clientes, sendo desta forma penalizada com multas que

incidem sob os contratos.

A solução que a RCE apresentará para otimizar a infra-estrutura já existente

será o protocolo MPLS-TE implantado com o QoS que garantirá a entrega dos dados.

3 CONCEITO E DEFINIÇÕES TEÓRICAS

3.1 MPLS - Multi Protocol Label Switching.

Tecnologia de encaminhamento de pacotes através de comutação, padronizado

pela IETF (Internet Engineering Task Force) através da RFC-3031 e opera numa

camada OSI intermediária às definições tradicionais do Layer 2 (Enlace) e Layer 3

(Rede), também conhecida como camada 2,5. Os dados trafegam na rede através de

rótulos agregados ao cabeçalho do pacote IP podendo ainda oferecer serviços

diferenciados e com qualidade.

Page 15: TCC_MPLS_TE_R01

15

O MPLS também é uma tecnologia statmux assim como o IP, ou seja, realiza

multiplexação estatística. Divide o tráfego da rede em unidades discretas tratando cada

unidade individualmente. No caso do protocolo IP, a unidade é o pacote.

Esta tecnologia permite as operadoras oferecerem serviços em sua rede além

do que existe fisicamente, tirando proveito financeiro com isso.

3.1.1 Funcionamento

As redes convencionais baseadas em IP deixam a desejar no quesito de

qualidade de serviço, características ora visto em redes baseadas em circuito, como

ATM (Asynchronous Tranfer Mode). Como o protocolo IP não é orientado a conexão,

os pacotes percorridos pela rede passam pelos roteadores que analisam o pacote e

realizam o algoritmo de roteamento.

Os roteadores de Borda (LER – Label Edge Router) classificam os pacotes

através da FEC (Forwarding Equivalence Class), a qual é aplicada as mesmas regras

de encaminhamento. A cada salto a FEC é renovada.

O MPLS é um protocolo orientado a conexão, possibilitando uma melhor

performance da rede e a criação de serviços.

Ao entrar na nuvem MPLS, os pacotes são rotulados e codificados a uma única

vez a FEC tornando o encaminhamento baseado apenas nestes rótulos sem a

necessidade de analisar o cabeçalho e nem realizar o algoritmo de roteamento. Assim

que o pacote chega no próximo roteador, a Label antiga é trocada e o pacote é

encaminhado ao próximo roteador.

3.1.2 Vantagens

Existem grandes vantagens ao encaminhar pacotes rotulados, ao invés de roteá-

los baseados em seus cabeçalhos, como:

O processamento dos pacotes são mais rápidos, devido ao tempo gasto para

encaminhar um rótulo que é menor do que o gasto para rotear um cabeçalho de

pacote;

É possível atribuir prioridade aos rótulos, garantindo a qualidade de serviço de

Frame Relay e de ATM;

os pacotes percorrem a rede pública através de caminhos estáticos do tipo

circuito, que são a base para Redes Virtuais Privadas (VPN’s);

Page 16: TCC_MPLS_TE_R01

16

a carga útil dos pacotes não é examinada pelos roteadores de encaminhamento,

permitindo diferentes níveis de criptografia e o transporte de múltiplos

protocolos.

O grande diferencial do MPLS é permitir a comutação sobre qualquer rede de

datagramas, fazendo assim um circuito virtual a partir das rotas planejadas pelos

protocolos de roteamento da camada de rede.

É por estes motivos que o MPLS tem capacidade de oferecer QoS e

Engenharia de tráfego, bem como serviços diferenciados.

3.2 ENGENHARIA DE TRÁFEGO

Atualmente existem dois tipos de engenharia empregados nas redes de

computadores, a engenharia de rede e a engenharia de tráfego.

A engenharia de Rede realiza a manipulação da rede e faz o ajuste do tráfego.

Normalmente aplicado a uma escala muito longa (semanas, meses, ano) devido ao

tempo empregado a instalação de novos circuitos ou equipamentos.

Na engenharia de tráfego o processo é inverso, pois o tráfego é manipulado

para ajustar-se a rede. Mesmo aplicando uma boa provisão da sua rede, o tráfego

nunca corresponderá a 100% do que foi previsto, pois a taxa de crescimento do tráfego

excede as previsões realizadas. A grande probabilidade de falhas, fazendo com que o

tráfego seja redirecionado a um único caminho, criando um congestionamento na rede,

de forma a utilizar um enlace mais do que outro.

A engenharia de tráfego vem solucionar este problema de congestionamento,

pois tem como objetivo de movimentar o tráfego da rede de modo que um enlace

congestionado possa ser redirecionado a outros enlaces que não utilizam sua

capacidade.

A crescente demanda por serviços diferenciados com qualidade fez com que as

grandes operadoras observassem as necessidades em suas arquiteturas, bem como

analisarem os gargalos ora aparentes. Somente o aumento de capacidade de enlaces

não eram suficientes para suprir a demanda.

3.3 MPLS TE

Page 17: TCC_MPLS_TE_R01

17

Ao implantarmos o MPLS TE teremos a combinação da engenharia de tráfego

do ATM com a flexibilidade e a diferenciação de classes de serviços do IP (Osborne,

2003, p. 11).

Todo o tráfego da rede será encaminhado pelas LSP’s (Label Switch Path)

também conhecidos como túneis TE que é o caminho que o pacote rotulado percorre

numa rede, desde a inserção do rótulo até seu descarte.

Ao contrario do ATM, o MPLS TE evita os problemas causado por

inundações, utilizando um mecanismo de rota automática, montando uma tabela de

roteamento sem formar uma malha completa de vizinhos.

Para implantarmos o MPLS TE, é necessário que haja um protocolo de

roteamento de estado de enlace, assim como a engenharia de tráfego ativada

globalmente nos roteadores que farão parte da rede MPLS TE. É importante que seja

ativado a interface de loopback, pois não importa como estão as outras interfaces, esta

estará sempre ativa que será utilizada para a engenharia de tráfego e a configuração

básica do túnel TE.

Uma das caracteŕisticas aplausíveis do MPLS TE é a capacidade de reservar

largura de banda, configurando pelo comando IP RSVP (Reservation Protocol)

bandwidth definindo a quantidade de largura de banda reservável total e a quantidade

máxima que pode ser reservada por um fluxo de interface, caso não seja especificado

um valor será adotado o padrão de 75% de reserva.

3.3.1 Prioridade de Túnel

Os túneis TE podem ser priorizados de acordo com o tráfego, que podem ser

VoIP (Voice over IP) ou até mesmo dados mais importantes que os outros. O MPLS

TE permite priorizar os túneis de mais importância em relação à de menos importância

que são afastados do caminho e usados para recalculo de um caminho.

3.3.2 Níveis de Prioridade

Os túneis TE possuem duas prioridades importantes que é o setup e o holding,

onde ambas são classificadas com um numero de 0 a 7, onde a classificação de maior

número tem menos importância. Desta forma os túneis recebem os tráfegos de acordo

com o grau de importância.

Page 18: TCC_MPLS_TE_R01

18

3.4 PROTOCOLOS DE ROTEAMENTO:

Os protocolos de roteamento são utilizados para fazer a comunicação entre

componentes de redes transmitindo e recebendo dados

3.4.1 O PROTOCOLO ETHERNET

Segundo TANENBAUM (2003) no inicio o pesquisador Norman Abramson

criou AutiliLOHANET que equipava cada terminal, com duas freqüências de rádio

uma upstream e outra downstream, onde um usuário era capaz de transmitir pelo canal

de upstream e se ninguém estivesse transmitindo naquele instante o pacote seria

reconhecido pelo canal downstream. Desta forma ALOHANET funcionava bem em

situações de baixo trafico de informações logo seria necessário um meio mais

confiável e mais rápido devido a esta necessidade nasceu o protocolo Ethernet. No

mesmo período de tempo um estudante chamado Bob Metcalfe acabará de se graduar

e teve muito interesse no trabalho que Norman Abramson e acompanhou e trabalho

com o pesquisador logo em seguida Bob começou a trabalhar para a Xerox que já

tinha em sua produção os computadores pessoais, porém as maquinas eram isoladas

não trocavam informações entre si. Foi quando em 1976, Bob Metcalfe com a

experiência adquirida de Normar Abramson e seu amigo David Boggs, desenvolveram

e implantaram a primeira LAN (local area network) e eles a nomearam de Ethernet

3.4.2 REDES ETHERNET.

Segundo FILIPPETTI (2009) Ethernet é um método por meio de contenção

que permite que todos os dispositivos (hosts) em uma rede Ethernet compartilhem a

mesma largura de banda de umlink. Ethernet é muito popular devido a sua

descomplicada implantação consolidação no mercado, escalabilidade, baixo custo e

facilidade de atualização para novas tecnologias como, por exemplo, para Gigabit

Ethernet.

O padrão Ethernet utiliza especificações das camadas de Enlace e Física,

utilizam também uma técnica chamada CSMA/CD (Carrier Sense Multiple Access

with Collision Detect) o que permite aos dispositivos o compartilhamento homogêneo

da largura de banda, evitando que dois dispositivos transmitam simultaneamente em

um mesmo meio, ao mesmo tempo.

Page 19: TCC_MPLS_TE_R01

19

A técnica CSMA/CD foi a solução encontrada para problemas de colisão que

ocorriam quando pacotes eram simultaneamente transmitidos de diferentes

dispositivos em um mesmo meio. Seu funcionamento é bastante simples no intervalo

de tempo entre o termino da transmissão de um pacote e a geração de novos, outros

hosts podem utilizar o meio de comunicação para enviar seus próprios pacotes, quando

um host deseja transmitir ele primeiro verifica se há presença de sinal no meio (cabo),

caso não seja constatada a presença de nenhum sinal, ou seja, nenhum outro host

transmitindo, o host inicia então sua transmissão, o host que deseja transmitir monitora

constantemente o meio e caso seja detectado outro sinal além do host transmissor, um

sinal de congestionamento é enviado, ocasionando uma pausa na transmissão de dados

pelos outros hosts, os hosts que desejam transmitir respondem ao sinal de

congestionamento esperando um determinado intervalo de tempo antes de tentarem

novamente o envio de dados, e após 15 tentativas sem sucesso (15 colisões), um time

out ocorrerá.

3.4.3 CONCEITOS HALF DUPLEX E FULL DUPLEX ETHERNET.

Half duplex Ethernet é definido no padrão original Ethernet (IEEE 802.3)

(Institute of Electrical and Electronics Engineers) e utiliza apenas um par de cabos

com sinal fluindo em ambas as suas direções, o que significa que colisões podem

ocorrer, half duplex Ethernet, tipicamente 10BaseT, atinge um pico de eficiência de

60%, sendo assim em uma rede de grande porte será obtido no máximo de 3 a 4MbpS.

Já o conceito full duplex Ethernet utiliza dois pares de cabos, não há colisões

uma vez que ela disponibiliza um par para transmissão e outro para recepção de dados,

teoricamente, é possível obter uma taxa de transmissão da ordem de 100Mbps em

ambas as direções o que resulta em uma taxa agregada de 200Mbps ou seja 100% de

eficiência.

3.4.4 ENDEREÇAMENTO ETHERNET.

O esquema de endereçamento utiliza Ethernet utiliza o chamado endereço

MAC (Media Access Control), que se encontra gravado no hardware de cada

dispositivo de rede como as placas de rede NIC (Network Interface Card). O endereço

MAC é uma seqüência de 48 bits (6 bytes [1 byte = 8 bits]) escrita em formato

Page 20: TCC_MPLS_TE_R01

20

canônico o que garante que todos os endereços MAC sejam gravados no mesmo

formato, ainda que se tratando de dispositivos de diferentes fabricantes ou

plataformas.

Figura 1: Divisão do endereço MAC.

A porção do identificador OUI (Organizationnally Unique Identifier) é

definido pelo que o indica a uma determinada organização ou fabricante. O fabricante,

por sua vez, designa um endereço administrativo global de 24 bits (porção Vendos

Assigned), que é uma seqüência numérica exclusiva aos produtos daquele fabricante.

A camada de enlace de dados é responsável pelo encapsulamento dos dados em

"quadros" (frames). Frames são necessários para transmitir dados passados pela

camada de Rede (pacotes) através de um tipo de acesso ao meio.

3.4.5 O Protocolo IP (Internet Protocol):

Page 21: TCC_MPLS_TE_R01

21

Segundo TANENBAUM (2003) na internet cada host e cada roteador têm um

endereço IP que codifica seu numero de rede e seu número de host, está combinação é

exclusiva sendo deste modo cada endereço único em uma rede. Em geral os endereços

IP tem 32 bits sendo estes escritos em notação decimal divididos por pontos sendo 4

octetos 255.255.255.255 que identificam a interface de um componente em uma rede ,

marcando cada pacote IP com o endereço de origem e destino .

Os IP’s também podem ser divididos em classes de acordo com a necessidade

do projeto como mostra a figura abaixo:

Tabela 1: Classes IP

FONTE: SITSE WIRELESS BRASIL

3.4.6 O Protocolo OSPF (Open Shortest Path First)

O OSPF é classificado como um IGP (Internal Gateway Protocol), isso

significa que este protocolo distribui as informações de roteamento entre os roteadores

que pertencem a um mesmo sistema autônomo.

O OSPF foi desenvolvido pelo IETF (Internet Engineering Task Force), para

suportar o TCP/IP em um ambiente de Internet que dá suporte ao CIDR (Classless

Inter Domain Routing).

Os pacotes IP´s são encaminhados da forma em que chegam ao roteador, não

são encapsulados em nenhum outro protocolo enquanto eles transitam entre AS’s

(Autonomous Systems), o OSPF é um protocolo dinâmico e que detecta rapidamente

qualquer mudança na topologia pois todos os roteador que possuem OSPF

configurado tem o conhecimento de toda a rede em um sistema autônomo, este

protocolo também calcula novas rotas caso alguma rota seja perdida por algum

problema, a convergência deste protocolo é rápida e eficiente pois ele é um protocolo

Page 22: TCC_MPLS_TE_R01

22

que trabalha com o estado do link (link state) o que significa que as mudanças em uma

rede são incrementais e via multicast ou seja somente os roteadores de uma certa área

e com o OSPF configurado, serão atualizados diferentemente dos protocolos de vetor

de distância como o RIP (Router Internet Protocol) versão 1 e RIP versão 2 e EIGRP

(Enhanced Interior Gateway Routing Protocol) que fazem suas atualizações de tempos

em tempos causando assim um trafego desnecessário na rede.

Este tempo de convergência é baixo em relação a outros protocolos o que torna

o OSPF ainda mais rápido e de melhor desempenho, pois ele faz suas atualizações via

multicast somente aos roteadores que estão configurados com este protocolo

utilizando os seguintes endereços 224.0.0.5 que envia suas atualizações para todos os

roteadores que fazem parte de uma área e 224.0.0.6 que envia atualizações aos

roteadores designados.

3.4.7 PROTOCOLO BGP (Border Gateway Protocol).

Entre um único AS, o protocolo de roteamento recomendado é o OSPF

embora existam outros, no entanto para roteamento entre AS’s é usado um outro tipo

protocolo , conhecido como BGP o único EGP (Exterior Gateway Protocol). Segundo

TANENBAUM (2003) é necessário o uso do BGP torna-se necessário por que os

objetivos de um AS interno e um externo são diferentes, sendo assim o IGP irá

movimentar os pacotes de forma mais eficiente da origem até o destino, ele não

precisa se preocupar com as políticas aplicadas para que o pacote chegue ao destino

por que o pacote encontra-se dentro do mesmo AS, diferentemente dos roteadores de

protocolos de gateway exterior que tem que se preocupar muito com as políticas

aplicadas.

Um roteador BGP, consiste em AS’s e nas linhas que os conectam e é um

protocolo de vetor de distância, que tem controle de qual caminho está sendo usado

informando aos seus vizinhos quais rotas estão sendo usadas e quais estão livres.

Segundo a RFC (Request For Coments) 1771 a função principal do protocolo

BGP é a troca entre informações de roteamento entre os roteadores BGP desta forma

para que um roteador BGP alcance uma outra rede os roteadores BGP trocam suas

listas de roteamento incluindo as informações da lista de sistemas autônomos

alcançáveis em suas respectivas listas.

Page 23: TCC_MPLS_TE_R01

23

3.4.8 PROTOCOLO PPP.

Segundo a RFC 1661 , o protocolo PPP (Point-to-Point Protocol) foi

desenvolvido para links simples e que transportam pacotes entre dois pontos de

comunicação, este protocolo pode fornecer comunicação Full Duplex simultaneamente

e operação bi-direcional, atende também as necessidades de uma variedade de hosts,

bridge e roteadores.

O Protocolo PPP fornece multiplexação para diferentes tipos de protocolos no

mesmo Link, também tem a vantagem de poder ser aplicado em ambientes onde

existam vários tipos de equipamentos ou seja, o protocolo pode ser aplicado em

vendors diferentes.

3.5 QoS – Quality of Service

QoS (Quality of Service) em redes de computadores é um conjunto de normas

e mecanismos para assegurar a alta qualidade de desempenho para aplicações críticas.

Usando mecanismos de QoS, administradores de rede podem utilizar os recursos

existentes de forma eficiente e garantir o nível necessário de serviço sem reativamente

expandir ou exceder o provisionamento de suas redes.

Tradicionalmente, o conceito de qualidade de serviço em redes fez com que

todo o tráfego de uma rede fosse tratado de forma igual. O resultado foi que todo o

tráfego da rede recebesse maior esforço por parte da rede, sem garantias para as

características de desempenho, confiabilidade, atraso, variação no atraso ou outros.

Com maior esforço na prestação de serviços, no entanto, uma aplicação de largura de

banda única pode resultar em um desempenho ruim ou inaceitável para todas as

aplicações. O conceito de QoS é aquele em que as exigências de alguns aplicativos e

usuários são mais críticos do que outros, o que significa que algum tráfego precisa de

tratamento preferencial.

3.5.1 Conceitos de QoS

O objetivo da QoS é

fornecer serviço de entrega

preferencial para as

Descrição

Page 24: TCC_MPLS_TE_R01

24

aplicações que precisam dela,

garantindo largura de banda

suficiente, controlando

latência e jitter e reduzindo a

perda de dados. A tabela a

seguir descreve essas

características da rede.

Característica na Rede

Largura de Banda

A Taxa em que o tráfego é transferido

pela rede.

Latência

O atraso na transmissão de dados da

origem ao destino.

Jitter A Variação na latência.

Pacotes Descartados

A porcentagem de pacotes descartados

pelo roteador.

Tabela 2: Conceitos de QoS

O IETF define dois modelos principais para QoS em redes baseadas em IP:

IntServ (Integrated Services) e DiffServ (Differentiated Services). Estes modelos

abrangem várias categorias de mecanismos que proporcionam um tratamento

preferencial ao tráfego especificado.

Categoria de

Mecanismos QoS Descrição

Controle de Admissão

Determina quais as aplicações e os

usuários têm maior prioridade referente aos

recursos da rede. Estes mecanismos

especificam como e por quem da rede ou de

um segmento da rede (subnet) a aplicação

pode ser usado.

Controle de Tráfego

Regular os fluxos de dados através da

classificação, agendamento e marcação de

pacotes com base na prioridade e na

moldagem do tráfego (suavização das rajadas

Page 25: TCC_MPLS_TE_R01

25

de tráfego, limitando a taxa de fluxo).

Mecanismos de controle de tráfego separam o

tráfego em classes de serviço e controle de

entrega para a rede. A classe de serviço

atribuída a um fluxo de tráfego determina o

tratamento da QoS que o tráfego virá a

receber.

Tabela 3: Mecanismos de QoS

(Technet Microsoft, 2011, Disponível em:

<http://technet.microsoft.com/pt-br/library/cc757120%28WS.10%29.aspx> Acessado

em: 03 de setembro de 2011.)

3.5.2 INTSERV (RSVP)

Segundo KUROSE(2003) o modelo IntServ integra o RSVP (Resource

Reservation Protocol) reserva de recursos e mecanismos de Controle de Tráfego para

suportar o tratamento especial dos fluxos de tráfego individuais.

Características fundamentais da arquitetura:

Recursos Reservados: um roteador tem que saber que quantidade de seus

recursos (buffers, largura de banda de enlace) já está reservada para sessões em

andamento;

Estabelecimento de chamada: uma sessão que exige QoS deve primeiramente

estar habilitada a reservar recursos suficientes em cada roteador no trajeto fonte-

destino / remetente-destinatário para garantir que suas exigências de QoS fim-a-fim

sejam cumpridas.

O recurso RSVP permite que aplicações reservem largura de banda para seus

fluxos de dados. Ele é usado por um hospedeiro, em nome do fluxo de dados de uma

aplicação, para requisitar uma quantidade específica de largura de banda na rede.

As duas características principais do RSVP são:

Fornecer Reservas de Largura de Banda em árvores Multicast (o Unicast é

tratado como um caso de Multicast degenerado);

Ele é orientado para o receptor, isto é, o receptor do fluxo de dados é quem

inicia e mantém a reserva de recursos usada para aquele fluxo;

Page 26: TCC_MPLS_TE_R01

26

Para entender melhor o RSVP, devemos compreender a idéia de sessão. Como

acontece com o RTP (Real Time Protocol) uma sessão pode consistir em vários fluxos

de dados, ou seja, cada remetente em uma sessão pode ser a fonte de um ou mais

fluxos de dados, por exemplo, um usuário pode ser a fonte de um fluxo de dados de

vídeo e este mesmo usuário pode ser a fonte de um fluxo de dados de aúdio, cada

fluxo de dados de uma sessão tem o mesmo endereço multicast.

3.5.3 DIFFSERV (DSCP, CLASS OF SERVICE)

Segundo KUROSE (2003) O modelo DiffServ usa controle de tráfego para

suportar o tratamento especial dos fluxos de tráfego agregado.

A RFC 2475 define uma arquitetura de serviços diferenciados, DSCP (DiffServ

Code Point) que utiliza bits e vários mecanismos para fornecer QoS qualidades de

serviço na sua rede.

A Arquitetura DiffServ tem dois componentes principais:

Trânsito condicionado (Traffic conditioning): Inclui coisas tais como

policiamento, coloração, e modelagem. É feito apenas na borda da rede.

Comportamento de salto (Per-hop-behaviors): consistem essencialmente em

filas, programação e mecanismos caindo. Como o nome indica, elas são feitas a cada

salto na rede.

3.5.4 Class of Service

O primeiro passo na aplicação da arquitetura DiffServ é ter a capacidade de

classificar pacotes.

Classificação é o ato de examinar um pacote para decidir que tipo de regras

que devem ser executados por meio, e, posteriormente, o DSCP ou valor EXP deve ser

definido no pacote.

3.6 (DS-TE) DiffServ-Aware Traffic Engineering

Engenharia de tráfego via arquitetura DiffServ permite a restrição baseada em

roteamento de tráfego IP. Uma das restrições conseguidas com constraint-based

routing/restrição baseada em roteamento (CBR) (Constant Bit Rate) é a

disponibilidade de largura de banda necessária ao longo de um caminho selecionado.

Page 27: TCC_MPLS_TE_R01

27

DiffServ sob Engenharia de Tráfego estende o tráfego para que você possa executar

com base em restrição de roteamento de tráfego "garantido", que satisfaça uma

restrição de largura de banda mais restritiva do que o feito com CBR para o tráfego

regular. A largura de banda mais restritiva é considerado um sub-conjunto, enquanto a

largura de banda através de túneis regulares TE é chamado de conjunto global. (A

piscina é uma sub-parcela do conjunto global.) Esta capacidade de satisfazer uma

restrição traduz mais restritiva largura de banda para uma capacidade de atingir um

melhor desempenho QoS (em termos de atrasos, perda de jitter, ou) para garantia do

tráfego.

Por exemplo, DS-TE (DiffServ-Aware Traffic Engineering) pode ser usado

para garantir que o tráfego seja encaminhado através da rede de modo que, em cada

link, nunca mais de 40 por cento (ou qualquer percentual atribuído) da capacidade do

link de tráfego garantida (por exemplo, voz,), enquanto não pode ser de até 100 por

cento da capacidade do link de tráfego regular. Mecanismos de QoS também são

usados em cada link para que o tráfego aloque uma fila para dados marcados

separadamente do tráfego regular, torna-se então possível aplicar separado

"overbooking" em português excesso de demanda para assim tornar o tráfego

garantido e regular. (Na verdade, para o tráfego garantido, torna-se possível impor

overbooking em todos os pacotes até mesmo um underbooking/ baixo nível de

demanda, de modo que QoS muito alto pode ser alcançado fim a fim para que o

tráfego, mesmo para o tráfego regular, de um ponto com excesso de demanda

significativa continue a ser executada.)

Além disso, através da capacidade de impor uma percentagem máxima de

tráfego garantido em qualquer link, o administrador de rede pode controlar

diretamente o fim a fim da QoS através de parâmetros de desempenho sem ter que

depender de mais de engenharia ou sobre o comportamento esperado de roteamento

através de caminho mais curto. Isto é essencial para o transporte de aplicações que têm

exigências muito elevadas de QoS (tais como voz em tempo real, linha IP virtual

alugadas e o comércio de largura de banda), onde o excesso de engenharia não pode

ser assumida por toda a rede.

DS-TE envolve e estende o protocolo OSPF protocolo de roteamento, de modo

que a largura de banda de um subconjunto disponível em cada nível de preempção seja

anunciado para além da largura de banda disponível nos conjuntos globais em cada

nível de preempção. E o DS-TE modifica a restrição baseada em roteamento para ter

Page 28: TCC_MPLS_TE_R01

28

essa informação mais complexa levada em conta durante a computação do caminho.

(Cisco, 2011 Disponivel em:

<

http://www.cisco.com/en/US/docs/ios/12_2s/feature/guide/fsdserv3.html#wp1015327

>

Acessado em: 17 de Set. de 2011.)