TCC_MPLS_TE_R01
-
Upload
rodrigo-fernando-gomes-lima -
Category
Documents
-
view
33 -
download
0
description
Transcript of TCC_MPLS_TE_R01
FACULDADE DE TECNOLOGIA IBTA
Carlos Henrique Bertacini
Emerson Oliveira Sutil Da Silva
Rodrigo Fernando Gomes Lima
MPLS-TE – IMPLEMENTAÇÃO DE UMA REDE MPLS-TE COM QOS
CAMPINAS – SP
2011
Carlos Henrique Bertacini
Emerson Oliveira Sutil Da Silva
Rodrigo Fernando Gomes Lima
MPLS-TE – IMPLEMENTAÇÃO DE UMA REDE MPLS-TE COM QOS
Trabalho de Conclusão de Curso apresentado
à Faculdade de Tecnologia IBTA para a obtenção do
título de Tecnólogo em Redes de Computadores
Orientador: Prof. Caio Camargo Martins
CAMPINAS – SP
2011
Carlos Henrique Bertacini
Emerson Oliveira Sutil Da Silva
Rodrigo Fernando Gomes Lima
MPLS-TE – IMPLEMENTAÇÃO DE UMA REDE MPLS-TE COM QOS
Trabalho de Conclusão de Curso apresentado à
Faculdade de Tecnologia IBTA para a obtenção do
título de Tecnólogo em Redes de Computadores
Aprovado em __/__/____
BANCA EXAMINADORA
________________________________________________________
Prof. Ana Raquel Siqueira Calais
Faculdade de Tecnologia IBTA
_________________________________________________________
Prof. Caio Camargo Martins
Faculdade de Tecnologia IBTA
Este trabalho é dedicado a todas as
pessoas que contribuiram diretamente para o
desenvolvimento deste TCC e que influenciaram
direta ou indiretamente em nossas carreiras.
AGRADECIMENTOS
Agradecemos a todos aqueles que colaboraram no desenvolvimento desta monografia e que
foram parte fundamental para que o TCC fosse desenvolvido, nossos sinceros agradecimentos
ao professor Caio Martins que transmitiu sempre com muita clareza todos os seus
conhecimentos e que esteve sempre a nossa disposição, à professora Ana Raquel que nos
ajudou e orientou passo a passo até chegarmos nesta versão completa do TCC dentro dos
padrões ABNT.
"Aprender é a única coisa de que a mente nunca
se cansa, nunca tem medo e nunca se arrepende."
(Leonardo da Vinci)
RESUMO
O projeto consiste na implantação do protocolo MPLS TE (Multi Protocol Label
Switching Traffic Engineering) com QoS (Quality of Service) em uma infra-estrutura de
backbone, de uma empresa prestadora de serviços onde haverá trafego de dados, voz e vídeo,
o backbone da empresa em questão está localizado nas cidades do Rio de Janeiro e São Paulo,
e para otimizar o tráfego será implantado o protocolo MPLS TE com QoS que implanta
engenharia de tráfego em redes IPs (Internet Protocol) permitindo assim o estabelecimento de
caminhos alternativos nestas redes, diferentes dos caminhos definidos pelo protocolo IGP
(Internal Gateway Protocol) baseado em critérios de recursos disponíveis e métricas sensíveis
ao atraso.
LISTA DE FIGURAS
Figura 1: Divisão do endereço MAC ..............................................................................................................Pá
Figura 2:...........................................................................................................................................................
Figura 3:...........................................................................................................................................................
Figura 4:...........................................................................................................................................................
Figura 5:...........................................................................................................................................................
Figura 6:...........................................................................................................................................................
Figura 7:...........................................................................................................................................................
Figura 8:...........................................................................................................................................................
LISTA DE TABELAS
Tabela 1: Classes IP 22
Tabela 2:nome
Tabela 3:nome
Tabela 4:nome
Tabela 5:nome
Tabela 6:nome
Tabela 7:nome
LISTA DE ABREVIATURAS E SIGLAS
AS – Autonomous Systems
ATM – Asynchronous Tranfer Mode
BGP – Border Gateway Protocol
CBR – Constant Bit Rate
CIDR – Classless Inter Domain Routing
CSMA/CD – Carrier Sense Multiple Access with Collision Detect
Diffserv – Differentiated Service
DSCP – DiffServ Code Point
DS-TE – DiffServ-Aware Traffic Engineering
EGP – External Gateway Protocol
EIGRP – Enhanced Interior Gateway Routing Protocol
FEC – Forwarding Equivalence Class
IEEE – Institute of Electrical and Electronics Engineers
IETF – Internet Engineering Task Force
IGP – Internal Gateway Protocol
IntServ – Integrated Service
IP – Internet Protocol
ITIL – Information Techonology Infraestructure Library
LAN – (local area network)
LSP – (Label Switch Path)
MAC – Media Access Control
MPLS – Multiprotocol Label Switching
NIC – Network Interface Card
OSPF – Open Shortest Path First
OUI – Organizationnally Unique Identifier
PPP – Point to Point Protocol
PSTN – Public Switched Telephone Network
QoS – Quality of Service
RFC – Request For Coments
RIP – Router Internet Protocol
RSVP – Resource Reservation Protocol
RTP – Real Time Protocol
11
SLA – Service Level Agreement
TE – Traffic Engineering
VoIP – Voice over IP
SUMÁRIO
1 INTRODUÇÃO...........................................................................................................................................00
1.1 EXCLUSÕES ESPECÍFICAS...........................................................................................................................00
2 CENÁRIO....................................................................................................................................................00
3 CONCEITO E DEFINIÇÕES TEÓRICAS.............................................................................................00
13
1 INTRODUÇÃO
Este projeto terá como objetivo, a implantação do MPLS TE (MultiProtocol
Label Switching) onde será apresentada a engenharia de tráfego em redes IP’s
(Internet Protocol) que permiti o estabelecimento de caminhos alternativos em redes,
diferentes dos caminhos definidos pelo protocolo IGP (Internal Gateway Protocol)
baseado em critérios de recursos disponíveis, métricas sensíveis ao atraso como o
OSPF (Open Shortest Path First) ou, ainda características físicas do enlace. O projeto
será implantado em uma rede já existente e justificará como o MPLS TE pode
otimizar o tráfego em uma rede evitando gargalos (congestionamentos) e falhas, desta
forma agregando valor ao cliente principalmente pelo foco ser na aplicação de QoS
(Quality os Service) que irá garantir a entrega dos pacotes aos seus respectivos
destinos, devido à demanda e necessidade de mercado se faz necessário maior
qualidade, agilidade e segurança relacionada à garantia de entrega dos serviços dos
clientes que solicitaram uma solução permanente para o problema.
1.1 Exclusões Específicas
Infra-estrutura da rede;
Detalhamentos dos protocolos exceto protocolo MPLS TE;
14
2 CENÁRIO
A RCE Engineers é uma empresa de telecomunicações que oferece soluções de
internet voltada para operadoras de telefonia, a empresa NetRight solicitou que a RCE
encontre uma solução para otimizar o trafego em sua rede pois os serviços que
prestam de dados, voz e vídeo não estão atendendo as necessidades de seus clientes
nos estados do Rio de Janeiro e São Paulo, a operadora NetRight teve um aumento em
sua demanda de serviços que superou suas expectativas para o ano , e segundo as boas
praticas do ITIL (Information Techonology Infraestructure Library) processo no qual
o cliente esta baseado, um estudo foi feito pelos processos de gerenciamento da
capacidade e disponibilidade e foi identificado que suas operações de rede chegaram
à 95% de utilização, com picos de tráfego de até 98%, o que está gerando lentidão na
rede e segundos as boas práticas de planejamento e gerenciamento da capacidade e
disponibilidade foi identificado que a empresa precisa otimizar o tráfego na rede por
que não está conseguindo atender o acordo de nível de serviço SLA (Service Level
Agreement) com os seus clientes, sendo desta forma penalizada com multas que
incidem sob os contratos.
A solução que a RCE apresentará para otimizar a infra-estrutura já existente
será o protocolo MPLS-TE implantado com o QoS que garantirá a entrega dos dados.
3 CONCEITO E DEFINIÇÕES TEÓRICAS
3.1 MPLS - Multi Protocol Label Switching.
Tecnologia de encaminhamento de pacotes através de comutação, padronizado
pela IETF (Internet Engineering Task Force) através da RFC-3031 e opera numa
camada OSI intermediária às definições tradicionais do Layer 2 (Enlace) e Layer 3
(Rede), também conhecida como camada 2,5. Os dados trafegam na rede através de
rótulos agregados ao cabeçalho do pacote IP podendo ainda oferecer serviços
diferenciados e com qualidade.
15
O MPLS também é uma tecnologia statmux assim como o IP, ou seja, realiza
multiplexação estatística. Divide o tráfego da rede em unidades discretas tratando cada
unidade individualmente. No caso do protocolo IP, a unidade é o pacote.
Esta tecnologia permite as operadoras oferecerem serviços em sua rede além
do que existe fisicamente, tirando proveito financeiro com isso.
3.1.1 Funcionamento
As redes convencionais baseadas em IP deixam a desejar no quesito de
qualidade de serviço, características ora visto em redes baseadas em circuito, como
ATM (Asynchronous Tranfer Mode). Como o protocolo IP não é orientado a conexão,
os pacotes percorridos pela rede passam pelos roteadores que analisam o pacote e
realizam o algoritmo de roteamento.
Os roteadores de Borda (LER – Label Edge Router) classificam os pacotes
através da FEC (Forwarding Equivalence Class), a qual é aplicada as mesmas regras
de encaminhamento. A cada salto a FEC é renovada.
O MPLS é um protocolo orientado a conexão, possibilitando uma melhor
performance da rede e a criação de serviços.
Ao entrar na nuvem MPLS, os pacotes são rotulados e codificados a uma única
vez a FEC tornando o encaminhamento baseado apenas nestes rótulos sem a
necessidade de analisar o cabeçalho e nem realizar o algoritmo de roteamento. Assim
que o pacote chega no próximo roteador, a Label antiga é trocada e o pacote é
encaminhado ao próximo roteador.
3.1.2 Vantagens
Existem grandes vantagens ao encaminhar pacotes rotulados, ao invés de roteá-
los baseados em seus cabeçalhos, como:
O processamento dos pacotes são mais rápidos, devido ao tempo gasto para
encaminhar um rótulo que é menor do que o gasto para rotear um cabeçalho de
pacote;
É possível atribuir prioridade aos rótulos, garantindo a qualidade de serviço de
Frame Relay e de ATM;
os pacotes percorrem a rede pública através de caminhos estáticos do tipo
circuito, que são a base para Redes Virtuais Privadas (VPN’s);
16
a carga útil dos pacotes não é examinada pelos roteadores de encaminhamento,
permitindo diferentes níveis de criptografia e o transporte de múltiplos
protocolos.
O grande diferencial do MPLS é permitir a comutação sobre qualquer rede de
datagramas, fazendo assim um circuito virtual a partir das rotas planejadas pelos
protocolos de roteamento da camada de rede.
É por estes motivos que o MPLS tem capacidade de oferecer QoS e
Engenharia de tráfego, bem como serviços diferenciados.
3.2 ENGENHARIA DE TRÁFEGO
Atualmente existem dois tipos de engenharia empregados nas redes de
computadores, a engenharia de rede e a engenharia de tráfego.
A engenharia de Rede realiza a manipulação da rede e faz o ajuste do tráfego.
Normalmente aplicado a uma escala muito longa (semanas, meses, ano) devido ao
tempo empregado a instalação de novos circuitos ou equipamentos.
Na engenharia de tráfego o processo é inverso, pois o tráfego é manipulado
para ajustar-se a rede. Mesmo aplicando uma boa provisão da sua rede, o tráfego
nunca corresponderá a 100% do que foi previsto, pois a taxa de crescimento do tráfego
excede as previsões realizadas. A grande probabilidade de falhas, fazendo com que o
tráfego seja redirecionado a um único caminho, criando um congestionamento na rede,
de forma a utilizar um enlace mais do que outro.
A engenharia de tráfego vem solucionar este problema de congestionamento,
pois tem como objetivo de movimentar o tráfego da rede de modo que um enlace
congestionado possa ser redirecionado a outros enlaces que não utilizam sua
capacidade.
A crescente demanda por serviços diferenciados com qualidade fez com que as
grandes operadoras observassem as necessidades em suas arquiteturas, bem como
analisarem os gargalos ora aparentes. Somente o aumento de capacidade de enlaces
não eram suficientes para suprir a demanda.
3.3 MPLS TE
17
Ao implantarmos o MPLS TE teremos a combinação da engenharia de tráfego
do ATM com a flexibilidade e a diferenciação de classes de serviços do IP (Osborne,
2003, p. 11).
Todo o tráfego da rede será encaminhado pelas LSP’s (Label Switch Path)
também conhecidos como túneis TE que é o caminho que o pacote rotulado percorre
numa rede, desde a inserção do rótulo até seu descarte.
Ao contrario do ATM, o MPLS TE evita os problemas causado por
inundações, utilizando um mecanismo de rota automática, montando uma tabela de
roteamento sem formar uma malha completa de vizinhos.
Para implantarmos o MPLS TE, é necessário que haja um protocolo de
roteamento de estado de enlace, assim como a engenharia de tráfego ativada
globalmente nos roteadores que farão parte da rede MPLS TE. É importante que seja
ativado a interface de loopback, pois não importa como estão as outras interfaces, esta
estará sempre ativa que será utilizada para a engenharia de tráfego e a configuração
básica do túnel TE.
Uma das caracteŕisticas aplausíveis do MPLS TE é a capacidade de reservar
largura de banda, configurando pelo comando IP RSVP (Reservation Protocol)
bandwidth definindo a quantidade de largura de banda reservável total e a quantidade
máxima que pode ser reservada por um fluxo de interface, caso não seja especificado
um valor será adotado o padrão de 75% de reserva.
3.3.1 Prioridade de Túnel
Os túneis TE podem ser priorizados de acordo com o tráfego, que podem ser
VoIP (Voice over IP) ou até mesmo dados mais importantes que os outros. O MPLS
TE permite priorizar os túneis de mais importância em relação à de menos importância
que são afastados do caminho e usados para recalculo de um caminho.
3.3.2 Níveis de Prioridade
Os túneis TE possuem duas prioridades importantes que é o setup e o holding,
onde ambas são classificadas com um numero de 0 a 7, onde a classificação de maior
número tem menos importância. Desta forma os túneis recebem os tráfegos de acordo
com o grau de importância.
18
3.4 PROTOCOLOS DE ROTEAMENTO:
Os protocolos de roteamento são utilizados para fazer a comunicação entre
componentes de redes transmitindo e recebendo dados
3.4.1 O PROTOCOLO ETHERNET
Segundo TANENBAUM (2003) no inicio o pesquisador Norman Abramson
criou AutiliLOHANET que equipava cada terminal, com duas freqüências de rádio
uma upstream e outra downstream, onde um usuário era capaz de transmitir pelo canal
de upstream e se ninguém estivesse transmitindo naquele instante o pacote seria
reconhecido pelo canal downstream. Desta forma ALOHANET funcionava bem em
situações de baixo trafico de informações logo seria necessário um meio mais
confiável e mais rápido devido a esta necessidade nasceu o protocolo Ethernet. No
mesmo período de tempo um estudante chamado Bob Metcalfe acabará de se graduar
e teve muito interesse no trabalho que Norman Abramson e acompanhou e trabalho
com o pesquisador logo em seguida Bob começou a trabalhar para a Xerox que já
tinha em sua produção os computadores pessoais, porém as maquinas eram isoladas
não trocavam informações entre si. Foi quando em 1976, Bob Metcalfe com a
experiência adquirida de Normar Abramson e seu amigo David Boggs, desenvolveram
e implantaram a primeira LAN (local area network) e eles a nomearam de Ethernet
3.4.2 REDES ETHERNET.
Segundo FILIPPETTI (2009) Ethernet é um método por meio de contenção
que permite que todos os dispositivos (hosts) em uma rede Ethernet compartilhem a
mesma largura de banda de umlink. Ethernet é muito popular devido a sua
descomplicada implantação consolidação no mercado, escalabilidade, baixo custo e
facilidade de atualização para novas tecnologias como, por exemplo, para Gigabit
Ethernet.
O padrão Ethernet utiliza especificações das camadas de Enlace e Física,
utilizam também uma técnica chamada CSMA/CD (Carrier Sense Multiple Access
with Collision Detect) o que permite aos dispositivos o compartilhamento homogêneo
da largura de banda, evitando que dois dispositivos transmitam simultaneamente em
um mesmo meio, ao mesmo tempo.
19
A técnica CSMA/CD foi a solução encontrada para problemas de colisão que
ocorriam quando pacotes eram simultaneamente transmitidos de diferentes
dispositivos em um mesmo meio. Seu funcionamento é bastante simples no intervalo
de tempo entre o termino da transmissão de um pacote e a geração de novos, outros
hosts podem utilizar o meio de comunicação para enviar seus próprios pacotes, quando
um host deseja transmitir ele primeiro verifica se há presença de sinal no meio (cabo),
caso não seja constatada a presença de nenhum sinal, ou seja, nenhum outro host
transmitindo, o host inicia então sua transmissão, o host que deseja transmitir monitora
constantemente o meio e caso seja detectado outro sinal além do host transmissor, um
sinal de congestionamento é enviado, ocasionando uma pausa na transmissão de dados
pelos outros hosts, os hosts que desejam transmitir respondem ao sinal de
congestionamento esperando um determinado intervalo de tempo antes de tentarem
novamente o envio de dados, e após 15 tentativas sem sucesso (15 colisões), um time
out ocorrerá.
3.4.3 CONCEITOS HALF DUPLEX E FULL DUPLEX ETHERNET.
Half duplex Ethernet é definido no padrão original Ethernet (IEEE 802.3)
(Institute of Electrical and Electronics Engineers) e utiliza apenas um par de cabos
com sinal fluindo em ambas as suas direções, o que significa que colisões podem
ocorrer, half duplex Ethernet, tipicamente 10BaseT, atinge um pico de eficiência de
60%, sendo assim em uma rede de grande porte será obtido no máximo de 3 a 4MbpS.
Já o conceito full duplex Ethernet utiliza dois pares de cabos, não há colisões
uma vez que ela disponibiliza um par para transmissão e outro para recepção de dados,
teoricamente, é possível obter uma taxa de transmissão da ordem de 100Mbps em
ambas as direções o que resulta em uma taxa agregada de 200Mbps ou seja 100% de
eficiência.
3.4.4 ENDEREÇAMENTO ETHERNET.
O esquema de endereçamento utiliza Ethernet utiliza o chamado endereço
MAC (Media Access Control), que se encontra gravado no hardware de cada
dispositivo de rede como as placas de rede NIC (Network Interface Card). O endereço
MAC é uma seqüência de 48 bits (6 bytes [1 byte = 8 bits]) escrita em formato
20
canônico o que garante que todos os endereços MAC sejam gravados no mesmo
formato, ainda que se tratando de dispositivos de diferentes fabricantes ou
plataformas.
Figura 1: Divisão do endereço MAC.
A porção do identificador OUI (Organizationnally Unique Identifier) é
definido pelo que o indica a uma determinada organização ou fabricante. O fabricante,
por sua vez, designa um endereço administrativo global de 24 bits (porção Vendos
Assigned), que é uma seqüência numérica exclusiva aos produtos daquele fabricante.
A camada de enlace de dados é responsável pelo encapsulamento dos dados em
"quadros" (frames). Frames são necessários para transmitir dados passados pela
camada de Rede (pacotes) através de um tipo de acesso ao meio.
3.4.5 O Protocolo IP (Internet Protocol):
21
Segundo TANENBAUM (2003) na internet cada host e cada roteador têm um
endereço IP que codifica seu numero de rede e seu número de host, está combinação é
exclusiva sendo deste modo cada endereço único em uma rede. Em geral os endereços
IP tem 32 bits sendo estes escritos em notação decimal divididos por pontos sendo 4
octetos 255.255.255.255 que identificam a interface de um componente em uma rede ,
marcando cada pacote IP com o endereço de origem e destino .
Os IP’s também podem ser divididos em classes de acordo com a necessidade
do projeto como mostra a figura abaixo:
Tabela 1: Classes IP
FONTE: SITSE WIRELESS BRASIL
3.4.6 O Protocolo OSPF (Open Shortest Path First)
O OSPF é classificado como um IGP (Internal Gateway Protocol), isso
significa que este protocolo distribui as informações de roteamento entre os roteadores
que pertencem a um mesmo sistema autônomo.
O OSPF foi desenvolvido pelo IETF (Internet Engineering Task Force), para
suportar o TCP/IP em um ambiente de Internet que dá suporte ao CIDR (Classless
Inter Domain Routing).
Os pacotes IP´s são encaminhados da forma em que chegam ao roteador, não
são encapsulados em nenhum outro protocolo enquanto eles transitam entre AS’s
(Autonomous Systems), o OSPF é um protocolo dinâmico e que detecta rapidamente
qualquer mudança na topologia pois todos os roteador que possuem OSPF
configurado tem o conhecimento de toda a rede em um sistema autônomo, este
protocolo também calcula novas rotas caso alguma rota seja perdida por algum
problema, a convergência deste protocolo é rápida e eficiente pois ele é um protocolo
22
que trabalha com o estado do link (link state) o que significa que as mudanças em uma
rede são incrementais e via multicast ou seja somente os roteadores de uma certa área
e com o OSPF configurado, serão atualizados diferentemente dos protocolos de vetor
de distância como o RIP (Router Internet Protocol) versão 1 e RIP versão 2 e EIGRP
(Enhanced Interior Gateway Routing Protocol) que fazem suas atualizações de tempos
em tempos causando assim um trafego desnecessário na rede.
Este tempo de convergência é baixo em relação a outros protocolos o que torna
o OSPF ainda mais rápido e de melhor desempenho, pois ele faz suas atualizações via
multicast somente aos roteadores que estão configurados com este protocolo
utilizando os seguintes endereços 224.0.0.5 que envia suas atualizações para todos os
roteadores que fazem parte de uma área e 224.0.0.6 que envia atualizações aos
roteadores designados.
3.4.7 PROTOCOLO BGP (Border Gateway Protocol).
Entre um único AS, o protocolo de roteamento recomendado é o OSPF
embora existam outros, no entanto para roteamento entre AS’s é usado um outro tipo
protocolo , conhecido como BGP o único EGP (Exterior Gateway Protocol). Segundo
TANENBAUM (2003) é necessário o uso do BGP torna-se necessário por que os
objetivos de um AS interno e um externo são diferentes, sendo assim o IGP irá
movimentar os pacotes de forma mais eficiente da origem até o destino, ele não
precisa se preocupar com as políticas aplicadas para que o pacote chegue ao destino
por que o pacote encontra-se dentro do mesmo AS, diferentemente dos roteadores de
protocolos de gateway exterior que tem que se preocupar muito com as políticas
aplicadas.
Um roteador BGP, consiste em AS’s e nas linhas que os conectam e é um
protocolo de vetor de distância, que tem controle de qual caminho está sendo usado
informando aos seus vizinhos quais rotas estão sendo usadas e quais estão livres.
Segundo a RFC (Request For Coments) 1771 a função principal do protocolo
BGP é a troca entre informações de roteamento entre os roteadores BGP desta forma
para que um roteador BGP alcance uma outra rede os roteadores BGP trocam suas
listas de roteamento incluindo as informações da lista de sistemas autônomos
alcançáveis em suas respectivas listas.
23
3.4.8 PROTOCOLO PPP.
Segundo a RFC 1661 , o protocolo PPP (Point-to-Point Protocol) foi
desenvolvido para links simples e que transportam pacotes entre dois pontos de
comunicação, este protocolo pode fornecer comunicação Full Duplex simultaneamente
e operação bi-direcional, atende também as necessidades de uma variedade de hosts,
bridge e roteadores.
O Protocolo PPP fornece multiplexação para diferentes tipos de protocolos no
mesmo Link, também tem a vantagem de poder ser aplicado em ambientes onde
existam vários tipos de equipamentos ou seja, o protocolo pode ser aplicado em
vendors diferentes.
3.5 QoS – Quality of Service
QoS (Quality of Service) em redes de computadores é um conjunto de normas
e mecanismos para assegurar a alta qualidade de desempenho para aplicações críticas.
Usando mecanismos de QoS, administradores de rede podem utilizar os recursos
existentes de forma eficiente e garantir o nível necessário de serviço sem reativamente
expandir ou exceder o provisionamento de suas redes.
Tradicionalmente, o conceito de qualidade de serviço em redes fez com que
todo o tráfego de uma rede fosse tratado de forma igual. O resultado foi que todo o
tráfego da rede recebesse maior esforço por parte da rede, sem garantias para as
características de desempenho, confiabilidade, atraso, variação no atraso ou outros.
Com maior esforço na prestação de serviços, no entanto, uma aplicação de largura de
banda única pode resultar em um desempenho ruim ou inaceitável para todas as
aplicações. O conceito de QoS é aquele em que as exigências de alguns aplicativos e
usuários são mais críticos do que outros, o que significa que algum tráfego precisa de
tratamento preferencial.
3.5.1 Conceitos de QoS
O objetivo da QoS é
fornecer serviço de entrega
preferencial para as
Descrição
24
aplicações que precisam dela,
garantindo largura de banda
suficiente, controlando
latência e jitter e reduzindo a
perda de dados. A tabela a
seguir descreve essas
características da rede.
Característica na Rede
Largura de Banda
A Taxa em que o tráfego é transferido
pela rede.
Latência
O atraso na transmissão de dados da
origem ao destino.
Jitter A Variação na latência.
Pacotes Descartados
A porcentagem de pacotes descartados
pelo roteador.
Tabela 2: Conceitos de QoS
O IETF define dois modelos principais para QoS em redes baseadas em IP:
IntServ (Integrated Services) e DiffServ (Differentiated Services). Estes modelos
abrangem várias categorias de mecanismos que proporcionam um tratamento
preferencial ao tráfego especificado.
Categoria de
Mecanismos QoS Descrição
Controle de Admissão
Determina quais as aplicações e os
usuários têm maior prioridade referente aos
recursos da rede. Estes mecanismos
especificam como e por quem da rede ou de
um segmento da rede (subnet) a aplicação
pode ser usado.
Controle de Tráfego
Regular os fluxos de dados através da
classificação, agendamento e marcação de
pacotes com base na prioridade e na
moldagem do tráfego (suavização das rajadas
25
de tráfego, limitando a taxa de fluxo).
Mecanismos de controle de tráfego separam o
tráfego em classes de serviço e controle de
entrega para a rede. A classe de serviço
atribuída a um fluxo de tráfego determina o
tratamento da QoS que o tráfego virá a
receber.
Tabela 3: Mecanismos de QoS
(Technet Microsoft, 2011, Disponível em:
<http://technet.microsoft.com/pt-br/library/cc757120%28WS.10%29.aspx> Acessado
em: 03 de setembro de 2011.)
3.5.2 INTSERV (RSVP)
Segundo KUROSE(2003) o modelo IntServ integra o RSVP (Resource
Reservation Protocol) reserva de recursos e mecanismos de Controle de Tráfego para
suportar o tratamento especial dos fluxos de tráfego individuais.
Características fundamentais da arquitetura:
Recursos Reservados: um roteador tem que saber que quantidade de seus
recursos (buffers, largura de banda de enlace) já está reservada para sessões em
andamento;
Estabelecimento de chamada: uma sessão que exige QoS deve primeiramente
estar habilitada a reservar recursos suficientes em cada roteador no trajeto fonte-
destino / remetente-destinatário para garantir que suas exigências de QoS fim-a-fim
sejam cumpridas.
O recurso RSVP permite que aplicações reservem largura de banda para seus
fluxos de dados. Ele é usado por um hospedeiro, em nome do fluxo de dados de uma
aplicação, para requisitar uma quantidade específica de largura de banda na rede.
As duas características principais do RSVP são:
Fornecer Reservas de Largura de Banda em árvores Multicast (o Unicast é
tratado como um caso de Multicast degenerado);
Ele é orientado para o receptor, isto é, o receptor do fluxo de dados é quem
inicia e mantém a reserva de recursos usada para aquele fluxo;
26
Para entender melhor o RSVP, devemos compreender a idéia de sessão. Como
acontece com o RTP (Real Time Protocol) uma sessão pode consistir em vários fluxos
de dados, ou seja, cada remetente em uma sessão pode ser a fonte de um ou mais
fluxos de dados, por exemplo, um usuário pode ser a fonte de um fluxo de dados de
vídeo e este mesmo usuário pode ser a fonte de um fluxo de dados de aúdio, cada
fluxo de dados de uma sessão tem o mesmo endereço multicast.
3.5.3 DIFFSERV (DSCP, CLASS OF SERVICE)
Segundo KUROSE (2003) O modelo DiffServ usa controle de tráfego para
suportar o tratamento especial dos fluxos de tráfego agregado.
A RFC 2475 define uma arquitetura de serviços diferenciados, DSCP (DiffServ
Code Point) que utiliza bits e vários mecanismos para fornecer QoS qualidades de
serviço na sua rede.
A Arquitetura DiffServ tem dois componentes principais:
Trânsito condicionado (Traffic conditioning): Inclui coisas tais como
policiamento, coloração, e modelagem. É feito apenas na borda da rede.
Comportamento de salto (Per-hop-behaviors): consistem essencialmente em
filas, programação e mecanismos caindo. Como o nome indica, elas são feitas a cada
salto na rede.
3.5.4 Class of Service
O primeiro passo na aplicação da arquitetura DiffServ é ter a capacidade de
classificar pacotes.
Classificação é o ato de examinar um pacote para decidir que tipo de regras
que devem ser executados por meio, e, posteriormente, o DSCP ou valor EXP deve ser
definido no pacote.
3.6 (DS-TE) DiffServ-Aware Traffic Engineering
Engenharia de tráfego via arquitetura DiffServ permite a restrição baseada em
roteamento de tráfego IP. Uma das restrições conseguidas com constraint-based
routing/restrição baseada em roteamento (CBR) (Constant Bit Rate) é a
disponibilidade de largura de banda necessária ao longo de um caminho selecionado.
27
DiffServ sob Engenharia de Tráfego estende o tráfego para que você possa executar
com base em restrição de roteamento de tráfego "garantido", que satisfaça uma
restrição de largura de banda mais restritiva do que o feito com CBR para o tráfego
regular. A largura de banda mais restritiva é considerado um sub-conjunto, enquanto a
largura de banda através de túneis regulares TE é chamado de conjunto global. (A
piscina é uma sub-parcela do conjunto global.) Esta capacidade de satisfazer uma
restrição traduz mais restritiva largura de banda para uma capacidade de atingir um
melhor desempenho QoS (em termos de atrasos, perda de jitter, ou) para garantia do
tráfego.
Por exemplo, DS-TE (DiffServ-Aware Traffic Engineering) pode ser usado
para garantir que o tráfego seja encaminhado através da rede de modo que, em cada
link, nunca mais de 40 por cento (ou qualquer percentual atribuído) da capacidade do
link de tráfego garantida (por exemplo, voz,), enquanto não pode ser de até 100 por
cento da capacidade do link de tráfego regular. Mecanismos de QoS também são
usados em cada link para que o tráfego aloque uma fila para dados marcados
separadamente do tráfego regular, torna-se então possível aplicar separado
"overbooking" em português excesso de demanda para assim tornar o tráfego
garantido e regular. (Na verdade, para o tráfego garantido, torna-se possível impor
overbooking em todos os pacotes até mesmo um underbooking/ baixo nível de
demanda, de modo que QoS muito alto pode ser alcançado fim a fim para que o
tráfego, mesmo para o tráfego regular, de um ponto com excesso de demanda
significativa continue a ser executada.)
Além disso, através da capacidade de impor uma percentagem máxima de
tráfego garantido em qualquer link, o administrador de rede pode controlar
diretamente o fim a fim da QoS através de parâmetros de desempenho sem ter que
depender de mais de engenharia ou sobre o comportamento esperado de roteamento
através de caminho mais curto. Isto é essencial para o transporte de aplicações que têm
exigências muito elevadas de QoS (tais como voz em tempo real, linha IP virtual
alugadas e o comércio de largura de banda), onde o excesso de engenharia não pode
ser assumida por toda a rede.
DS-TE envolve e estende o protocolo OSPF protocolo de roteamento, de modo
que a largura de banda de um subconjunto disponível em cada nível de preempção seja
anunciado para além da largura de banda disponível nos conjuntos globais em cada
nível de preempção. E o DS-TE modifica a restrição baseada em roteamento para ter
28
essa informação mais complexa levada em conta durante a computação do caminho.
(Cisco, 2011 Disponivel em:
<
http://www.cisco.com/en/US/docs/ios/12_2s/feature/guide/fsdserv3.html#wp1015327
>
Acessado em: 17 de Set. de 2011.)