SUMÁRIO
PREFÁCIO............................................................................................................................................ 7
1 BREVE HISTÓRICO....................................................................................................................9
1.1 Os precursores...................................................................................................................10
1.1.1 O surgimento dos números:...............................................................................................10
1.1.2 ábaco (aprox. 3500 a.c.)....................................................................................................11
1.1.3 bastões de napier (1610 - 1614)........................................................................................12
1.1.4 réguas de cálculo (1621)....................................................................................................13
1.1.5 Os anos de 1600................................................................................................................13
1.1.6 Os anos de 1800................................................................................................................14
1.2 Do Transistor ao Microprocessador...................................................................................16
1.3 E tudo começou numa garagem........................................................................................24
1.4 GERAÇÃO DE COMPUTADORES....................................................................................38
2 ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES.....................................................48
2.1 Organização funcional de um computador.........................................................................51
2.2 UCP / microprocesssador..................................................................................................52
2.2.1 Unidade de Aritmética e Lógica – UAL...............................................................................54
2.2.2 Registradores.....................................................................................................................54
2.2.3 Unidade de Controle..........................................................................................................55
2.2.4 Relógio............................................................................................................................... 55
2.2.5 Registrador de Instrução (RI).............................................................................................56
2.2.6 Contador de Instrução........................................................................................................56
2.2.7 Decodificador de Instrução.................................................................................................56
2.2.8 Registrador de Dados de Mem. - RDM e Registrador de Endereços de Mem. - REM.......57
2.3 Categorias de Microprocessadores:...................................................................................59
2.4 ARQUITETURA CISC X RISC...........................................................................................70
2.4.1 Princípios técnicos de máquinas RISC..............................................................................73
2.4.2 Uma Instrução por Ciclo da Via de Dados.........................................................................75
2.5 instalando um cpu AMD (segundo procedimento técnico).................................................75
2.5.1 Procedimento de Instalação...............................................................................................76
2.6 Memórias........................................................................................................................... 94
2.6.1 MEMÓRIAS DE LEITURA – ROM.....................................................................................95
2.6.2 MEMÓRIAS DE ACESSO RANDÔMICO - RAM................................................................98
2.7 BARRAMENTO................................................................................................................101
2.7.1 Barramento do processador.............................................................................................103
2.7.2 Barramento de Cache......................................................................................................103
2.7.3 Barramento da memória...................................................................................................103
2.7.4 Barramento de E/S...........................................................................................................104
1
2.7.5 Barramento ISA................................................................................................................105
2.7.6 Barramento PCI................................................................................................................107
2.7.7 barramento pc-card (pcmcia)...........................................................................................108
2.7.8 usb................................................................................................................................... 112
2.8 Placas de Expansão.........................................................................................................113
2.8.1 Placa de Vídeo................................................................................................................. 113
2.8.2 Placa de Modem..............................................................................................................114
2.8.3 Placa de Rede.................................................................................................................. 115
3. A MONTAGEM......................................................................................................................... 117
3.1 Ferramentas..................................................................................................................... 117
3.2 Acessórios do gabinete....................................................................................................119
3.3 Parafusos......................................................................................................................... 120
3.4 Espaçadores plásticos.....................................................................................................122
3.5 Furos de fixação da placa de CPU...................................................................................124
3.6 Tampa plástica frontal......................................................................................................124
3.7 Tampas traseiras..............................................................................................................125
3.8 Painel traseiro do gabinete ATX.......................................................................................126
3.9 Montagem da placa de CPU............................................................................................127
3.9.1 preparação prévia do gabinete.........................................................................................127
3.9.2 fixação da placa de cpu....................................................................................................128
3.9.3 colocação do painel dos conectores atx...........................................................................129
3.9.4 caminho para fixar os drives............................................................................................130
3.10 Power Switch ATX............................................................................................................131
3.11 Ligação da fonte na placa de CPU ATX...........................................................................132
3.12 Cooler............................................................................................................................... 132
3.13 Instalação de módulos DIMM...........................................................................................133
3.14 Painel frontal do gabinete.................................................................................................135
3.14.1 conexão do alto-falante...........................................................................................135
3.14.2 conexão do reset.....................................................................................................137
3.14.3 conexão do hard disk led.........................................................................................138
3.14.4 conexão do power led e keylock..............................................................................138
3.15 Fixação do Pentium 4.......................................................................................................140
3.16 Montagem dos drives.......................................................................................................143
3.17 Ligação da fonte nos drives e disco rígido.......................................................................149
3.18 Cabos flat......................................................................................................................... 151
3.19 jumpers de dispositivos ide..............................................................................................157
3.20 Jumpers em drives de CD-ROM......................................................................................159
3.21 Montagem das placas de expansão.................................................................................159
3.22 Encaixando uma placa de expansão................................................................................160
2
3.22.1 distribuição das placas pelos slots...........................................................................163
3.22.2 feche as fendas sem uso.........................................................................................163
3.23 ligações na fonte de alimentação.....................................................................................164
3.24 Cabos flat......................................................................................................................... 165
3.25 Ligar para testar...............................................................................................................167
4. TIPOS DE GABINETE..............................................................................................................169
4.2 AS FORMAS DOS COMPUTADORES DE HOJE...........................................................175
4.2.1 Supercomputadores.........................................................................................................176
4.2.2 Mainframes...................................................................................................................... 178
4.2.3 minicomputadores............................................................................................................181
4.2.4 PC´s................................................................................................................................. 183
4.2.5 Microcomputadores PCs..................................................................................................184
4.2.6 Notebooks........................................................................................................................ 184
4.2.7 Palmtops.......................................................................................................................... 185
4.2.8 PDAs................................................................................................................................ 186
4.2.9 Sistemas Embarcados.....................................................................................................186
5 DISPOSITIVOS SECUNDÁRIOS DE ARMAZENAMENTO.....................................................187
5.1 Hierarquia e conceitos preliminares.................................................................................188
5.2 Dispositivos de armazenagem de massa.........................................................................194
5.2.1 Outros critérios relevantes na escolha de um sistema de armazenagem adequado.......196
5.3 Disco flexível ou disquete.................................................................................................199
5.4 Disco rígido...................................................................................................................... 201
5.4.1 estrutura de um disco rígido.............................................................................................202
5.4.2 controladoras de discos magnéticos (interface)...............................................................209
5.5 Disco Bernoulli - 5 ¼”.......................................................................................................216
5.6 Zip Drive - 3 ½”................................................................................................................. 216
5.7 Click................................................................................................................................. 217
5.8 Kanguru Disk (Interactive Media Corp)............................................................................218
5.9 Jaz Drive.......................................................................................................................... 218
5.10 Fita magnética..................................................................................................................219
5.10.1 tecnologias..............................................................................................................221
5.11 Fita Streamer...................................................................................................................222
5.12 Fita DAT........................................................................................................................... 223
5.13 Fitas QIC e Travan...........................................................................................................223
5.14 Fitas 3480, 3490...............................................................................................................224
5.15 DLT Capacidades: 15/20/30/70GB...................................................................................225
5.16 Fitas Advanced Intelligent Tape -AIT...............................................................................225
5.17 Dispositivos Ópticos.........................................................................................................226
5.17.1 cd-rom (compact disk - read only memory).............................................................226
3
5.17.2 cd-worm (write once, read many)............................................................................228
5.17.3 cd-r (compact-disc recordable) ou cd-wo (write once).............................................229
5.17.4 cd-rw (compact-disc rewritable) ou cd-e (erasable).................................................229
5.17.5 cd-rw (compact disk rewriteable).............................................................................230
5.17.6 dvd........................................................................................................................... 231
5.17.7 outros tipos de dvd..................................................................................................233
5.18 Disco MO (Magneto-Óptico).............................................................................................234
5.19 CARTÃO.......................................................................................................................... 235
6 BACKUP.................................................................................................................................. 237
6.1 Política de Segurança de arquivos...................................................................................238
6.2 Tipos de backup...............................................................................................................241
6.3 Modos de backup.............................................................................................................243
6.4 Quanto tempo devem durar os suportes de rmazenamento?.........................................244
6.5 ALGUMAS SOLUÇÕES...................................................................................................248
6.5.1 veritas netbackup™ 6.0 vault option................................................................................248
6.5.2 dataexchange data continuity solution (dedcs)................................................................253
6.5.3 soluções ibm....................................................................................................................255
6.5.4 ibm ILM............................................................................................................................ 257
6.5.5 EMC - uma nova visão para backup, recuperação e arquivamento.................................264
6.5.6 EMC Avamar....................................................................................................................267
6.6 BACKUP USANDO INTERFACE DO WINDOWS............................................................269
7 TOLERÂNCIA À FALHAS.......................................................................................................273
7.1 Mercado para produtos tolerantes a falhas......................................................................274
7.2 Defeitos em sistemas de computação..............................................................................275
7.3 Desafios atuais.................................................................................................................276
7.4 Tolerância a falhas ou dependabilidade?.........................................................................277
7.5 Falha, erro e defeito.........................................................................................................278
7.5.1 O modelo de 3 universos.................................................................................................278
7.6 Dependabilidade..............................................................................................................279
7.7 Confiabilidade..................................................................................................................280
7.8 Disponibilidade................................................................................................................. 281
7.9 Outros atributos................................................................................................................282
7.10 Medidas relacionadas a tempo médio de funcionamento................................................283
7.11 Cluster.............................................................................................................................. 284
7.11.1 Clusters de Computadores......................................................................................285
7.11.2 Cluster de alta performance de computação...........................................................287
7.11.3 Cluster de alta disponibilidade.................................................................................288
7.11.4 Clusters X Supercomputadores...............................................................................290
7.12 Grid e data grid................................................................................................................. 292
4
7.12.1 Grids Computacionais.............................................................................................292
7.12.2 Data Grid................................................................................................................. 293
8 RAID......................................................................................................................................... 294
8.1 RAID nível 0..................................................................................................................... 298
8.2 RAID nível 1..................................................................................................................... 299
8.3 RAID nível 2..................................................................................................................... 300
8.4 RAID nível 3..................................................................................................................... 300
8.5 RAID em HDs IDE............................................................................................................302
8.5.1 raid 0 (striping):................................................................................................................302
8.5.2 raid 1 (mirroring):..............................................................................................................303
8.5.3 raid 10 (mirror/strip):.........................................................................................................303
8.6 Configuração:...................................................................................................................304
8.7 Interfaces SCSI................................................................................................................306
8.8 RAID com HDs SCSI........................................................................................................308
8.8.1 raid 0 (striping)................................................................................................................. 310
8.8.2 raid 1 (mirroring)...............................................................................................................310
8.8.3 raid 2................................................................................................................................ 310
8.8.4 raid 3................................................................................................................................ 311
8.8.5 raid 4................................................................................................................................ 312
8.8.6 raid 5................................................................................................................................ 313
8.8.7 raid 6................................................................................................................................ 313
8.8.8 raid 10.............................................................................................................................. 314
8.8.9 raid 53 (ou 5+3)................................................................................................................314
8.9 Tipos de Implementações de RAID VIA SOFTWARE......................................................314
8.9.1 raid 0................................................................................................................................ 315
8.9.2 raid 1................................................................................................................................ 315
8.9.3 raid 5................................................................................................................................ 316
8.10 Implementação de RAID de Hardware.............................................................................316
8.11 Implementação de RAID 1 no Windows 2000: Volumes Espelhados..............................317
9 SERVIDORES.......................................................................................................................... 321
9.1 ARQUITETURA E TECNOLOGIA DE SERVIDOR..........................................................322
9.1.1 processador intel xeon.....................................................................................................322
9.1.2 Memória DDR2 Chipkill....................................................................................................323
9.1.3 Controladora SCSI Ultra320.............................................................................................324
9.1.4 Discos Hot-Swap SCSI Ultra320......................................................................................325
9.1.5 Light Path Diagnostic.......................................................................................................326
9.1.6 Floppy Drive e CD-ROM Drive.........................................................................................327
9.1.7 Gerenciamento Integrado.................................................................................................328
9.1.8 Remote Supervisor Adapter.............................................................................................328
5
9.1.9 Ventiladores Hot-Swap e Redundantes...........................................................................329
9.1.10 fontes de energia hot-swap e redundantes..............................................................330
9.1.11 Portas Externas.......................................................................................................331
9.1.12 Dual Gigabit Ethernet..............................................................................................331
9.1.13 Softwares Gratuítos.................................................................................................332
9.1.14 Identificação Gabinete Servidor (Frontal)................................................................335
9.1.15 Identificação Gabinete Servidor (traseira)...............................................................336
9.2 e com os senhores... As máquinas..................................................................................336
9.2.1 System x3500..................................................................................................................336
9.2.2 System x3650..................................................................................................................338
9.2.3 IBM System i 520.............................................................................................................340
9.2.4 Servidores Itautec ZX400.................................................................................................342
9.2.5 Servidor LR100................................................................................................................343
9.2.6 Servidor MX201................................................................................................................344
9.2.7 Servidores ZX400 e ZX440..............................................................................................345
9.2.8 Storage Itautec FT1630....................................................................................................346
10 REFERÊNCIAS BIBLIOGRÁFICAS..........................................................................................347
6
PREFÁCIO
Esta apostila tem como objetivo servir de base para os estudos ministrados
sobre a disciplina específica de “MONTAGEM E MANUTENÇÃO DE SERVIDORES
E DESKTOPS”, e apresenta os principais assuntos a serem abordados sobre este
tema.
Os assuntos são abordados de forma clara e objetiva de modo que o leitor
utilizador compreenda facilmente os tópicos estudados.
Muitos “profissionais” atuam ou almejam atuar na área de administração de
redes de computadores, pois ela oferece boas oportunidades de trabalho. No
entanto, poucos conhecem a fundo os procedimentos e as técnicas adequadas para
montagem de um PC e muito menos as tecnologias, as arquiteturas e portes de
máquinas projetadas exclusivamente para finalidade de SERVIDOR, não tendo o
domínio suficiente para tirar proveito de todo potencial de uma máquina,
independentemente do tipo de hardware utilizado.
Neste material entraremos juntos em um mundo hi-tech, onde os senhores,
caros leitores, terão a oportunidade de ter um diferencial em relação a outros que
escolheram outros caminhos e que infelizmente, não podem compartilhar desta
oportunidade com os senhores.
Abordaremos temas que vão desde a montagem de um PC, passando por
Arquitetura de computadores, Técnicas de Backup, Tolerância à falhas incluindo
tecnologias como RAID e finalizando com o que de mais importa para os
administradores de rede: SERVER ARCHITETURE AND FEATURES.
Este material de apoio compreende desde conceitos básicos a conceitos
mais apurados tecnicamente, no que diz respeito à tecnologia que range o escopo
entre computadores pessoais à servidores de alta capacidade, quer seja
desempenho, quer seja em capacidade de armazenamento, ou ainda em alto grau
de resiliência.
Desejamos aos senhores leitores, que tirem o máximo proveito desta
literatura, que é de fundamental importância para um embasamento técnico e
profissional, tanto para aqueles que já atuam na área, bem como para aqueles que
almejam ingressar nesta promissora atividade profissional.
7
Aos futuros e prósperos administradores de rede desejo que se apliquem,
pois é uma área muito dinâmica e que ao mesmo tempo exige o máximo de
empenho e concentração.
OBS: a elaboração deste material foi desenvolvida e organizada
logicamente, tendo como foco principal o seguinte caminho: de um administrador de
rede para vocês queridos acadêmicos de rede de computadores. Aproveitem.
Boa leitura!!!!
Atenciosamente,
Profº Esp. Almir Bruno.
8
1 BREVE HISTÓRICO
O estudo da história da computação deve ser encarado com a sua devida
importância, pois somente dessa forma é possível entender o grande avanço dessa
ciência tão recente. Estudando as idéias e conceitos fundamentais que formaram a
base do desenvolvimento da computação, podemos entender a sua situação atual e
até imaginar qual será o seu futuro.
A necessidade humana de instrumentos de auxílio ao cálculo e à
manipulação de informações data de milhares de anos. Para entendermos a
evolução histórica da computação faremos referência a alguns aspectos da evolução
da Ciência da Matemática, mais especificamente de alguns dos seus ramos, no caso
a Álgebra e a Lógica Simbólica ou Matemática.
Algumas datas aqui mostradas são datas aproximadas e podem estar
diferentes de outras mencionadas por outros autores, pois dependem da referência
utilizada (início ou conclusão de um trabalho ou estudo).
A disputa pelo tÍtulo de primeiro computador do mundo é acirrada. Isto
porque devemos levar em consideração que os precursores dos primeiros
computadores eram máquinas mecânicas. Aos poucos, com a utilização de
eletricidade com chaves mecânicas e eletromagnéticas, chegou-se à utilização de
computadores eletromecânicos. Mas aí está o ponto.
As máquinas puramente mecânicas são ou não são computadores? E as
eletromecânicas?
Podemos considerá-las, pois, computadores?
Apesar dos computadores eletrônicos terem efetivamente aparecido
somente na década de 40, os fundamentos em que se baseiam remontam a
centenas ou até mesmo milhares de anos.
Se levarmos em conta que o termo COMPUTAR, significa fazer cálculos,
contar, efetuar operações aritméticas, COMPUTADOR seria então o mecanismo ou
máquina que auxilia essa tarefa, com vantagens no tempo gasto e na precisão.
Inicialmente o homem utilizou seus próprios dedos para essa tarefa, dando
origem ao sistema DECIMAL e aos termos DIGITAL e DIGITO . Para auxílio deste
método, eram usados gravetos, contas ou marcas na parede.
9
Com a evolução da humanidade, novas invenções para auxiliar os cálculos
tornaram-se de fundamental importância e necessidade para o homem cada vez
mais moderno. Vamos, a seguir, acompanhar um pouco toda essa evolução.
1.1 OS PRECURSORES
1.1.1 O surgimento dos números:
Quando enfrentamos situações em que queremos saber "quantos", nossa
primeira atitude é contar. Mas os homens que viveram há milhares de anos não
conheciam os números nem sabiam contar. Então como surgiram os números?
Há cerca de 10.000 anos atrás, os pastores de ovelhas tinham necessidades
de controlar os rebanhos. Precisavam saber se não faltavam ovelhas. Como os
pastores podiam saber se alguma ovelha se perdera ou se outras haviam se juntado
ao rebanho?
Alguns vestígios indicam que os pastores faziam o controle de seu rebanho
usando conjuntos de pedras. Ao soltar as ovelhas, o pastor separava uma pedra
para cada animal que passava e guardava o monte de pedras.
Certamente o homem primitivo usava também os dedos para fazer
contagens, levantando um dedo para cada objeto. Entretanto, surgiu um novo
problema: levantar dedos permitia saber, no momento, a quantidade de objetos, mas
não permitia guardar essa informação. Era fácil esquecer quantos dedos haviam
sido levantados. Separar pedras já permitia guardar a informação por mais tempo,
mas não era muito seguro. Surgiu, portanto, o problema de registrar as quantidades.
Nossos antepassados custaram muito para inventar o zero e, mesmo depois
de nascido, o símbolo para o "nada" demorou a ser aceito. Os números surgiram da
necessidade de determinar quantidades. Ora, quem não tem coisa alguma, que
necessidade pode ter de contar o que não tem? O zero surgiu quando se procurou
representar, fielmente, com símbolos no papel, o que se passava no ábaco. Por
volta de 650 a.C. Os Hindus inventaram o zero escrito, isso permitia que
executassem a aritmética decimal no papel.
O matemático e astrônomo persa Al'Khowarizmi escreveu um livro sobre a
matemática hindu e a álgebra, de seu nome derivaram as palavras algarismo e
algoritmo.
10
A álgebra, que deve ser colocada entre as ciências
que fundamentaram o desenvolvimento da Computação. Pois
o computador e todos os instrumentos que o precederam
(réguas de cálculo, máquina de Pascal, a calculadora de
Leibniz, a máquina analítica de Babbage, etc.) são somente
as manifestações práticas que foram surgindo, com
naturalidade, em resultado da busca pelo homem de reduzir
os problemas a equações matemáticas, resolvendo-as
segundo regras.
1.1.2 ábaco (aprox. 3500 a.c.)
A palavra “cálculo” tem sua origem no termo latino cálculos que a milhares
de anos servia para denominar pequenas pedras que eram usadas para contar
deslizando-se por sulcos cavados no chão. Essa espécie de Ábaco foi descoberta
em recentes escavações arqueológicas.
A partir do momento que o homem pré-histórico trocou seus hábitos
nômades por aldeias e tribos fixas, desenvolvendo a lavoura, tornou-se necessário
um método para a contagem do tempo, delimitando as épocas de plantio e colheita.
O ábaco foi inventado na China por volta de 2000 a.c. e foi o primeiro
artefato de cálculo que usava a posição dos elementos. Os romanos também
usavam o ábaco. O deles consistia de bolinhas de mármore que deslizavam numa
placa de bronze cheia de sulcos.
Isso gerou alguns termos matemáticos: em latim "Calx" significa mármore,
assim "Calculus" era uma bolinha do ábaco, e fazer cálculos aritméticos era
"Calculare". Em suma os tempos antigos eram realmente a era dos Calculadores, e
embora os povos antigos dispusessem de meios para escrever números, os cálculos
eram raramente escritos.
A partir desse elemento de cálculo, outros similares apareceram em diversos
lugares do mundo, sendo chamados de Ábaco. O mais antigo data de
aproximadamente 3500 a.C., no Vale entre os rios Tigre e Eufrates. Por volta do ano
2600a.C. apareceu o Ábaco chinês que evoluiu rapidamente e foi chamado em sua
forma final de Suan-Pan, de modo semelhante apareceu no Japão, o Soroban.
11
O Ábaco constituiu, portanto o primeiro dispositivo manual de cálculo, que
servia para representar números no sistema decimal e realizar operações com eles.
O Ábaco consiste numa moldura dividida em 2 partes; possui uma vareta vertical
para cada dígito, sendo que cada vareta tem em sua parte inferior 5 anéis que em
repouso ficam para baixo, e na parte superior 2 anéis que em repouso ficam para
cima. Cada unidade acrescentada a um dos dígitos do numero é representada pelo
movimento para cima de um dos anéis da parte inferior da vareta. Quando os 5
estão na parte de cima devem ser movidos para baixo. O mesmo deve ser feito com
os mesmo anéis na parte superior da mesma vareta, se os dois anéis da parte
superior estão para baixo, devem ser movidos para cima acrescentando-se uma
unidade a vareta seguinte, à esquerda dessa vareta. O maior número que pode ser
calculado depende do número de varetas.
Ábaco.
1.1.3 bastões de napier (1610 - 1614)
Passaram-se séculos sem que qualquer invenção ficasse registrada até que
fossem criados tais bastões. Eram tabelas móveis de multiplicação e divisão feitas
de marfim. O responsável foi um nobre escocês chamado John Napier, inventor
também dos logaritmos.
Apesar de dispositivos semelhantes aos bastões terem sido usados desde o
final do século XVI, eles só apareceram documentados a partir de 1614. Um
conjunto completo de bastões de Napier consiste em 9 peças: uma para cada dígito
de 1 a 9. Cada uma destas hastes é essencialmente uma coluna de uma tabela de
multiplicação. Para obter o produto, os dígitos de cada diagonal são somados da
direita para a esquerda.
12
1.1.4 réguas de cálculo (1621)
As tabelas de Napier influenciaram diretamente a invenção da régua de
cálculo, concretizada pelo matemático inglês William Oughtred com uma forma
circular considerada como um dos primeiros dispositivos analógicos de computação.
A Régua de Cálculo e as calculadoras mecânicas foram largamente utilizadas até
1970, quando surgiram as calculadoras eletrônicas.
1.1.5 Os anos de 1600
1612 - John Napier fez o primeiro uso impresso do ponto de fração decimal,
inventa os logaritmos e várias máquinas para multiplicação, dentre elas inventou os
"Ossos de Napier", que eram simplesmente tabelas de multiplicações gravadas em
bastões.
1622 - William Oughtred criou a régua de cálculo, baseada nos logaritmos de
Napier. E veio a ser a primeira calculadora para engenheiros dos séculos 19 e 20.
1623 - William Schickard descreveu uma máquina que combinou o conceito
dos "Ossos de Napier" com uma máquina de somar simples que permitia ao usuário
completar a multiplicação de números com mais de um dígito. Porém não foi achada
nenhuma cópia original da máquina de Schickard e assim o crédito para a primeira
máquina de somar automática é freqüentemente dado a Blaise Pascal.
1644 - Blaise Pascal criou uma máquina de calcular (freqüentemente
chamada "Pascaline") baseada em pequenos discos onde os números eram
representados por posições denteadas. Fazia apenas adições e subtrações,
podendo, indiretamente, fazer multiplicações e divisões por meio de operações
sucessivas.
13
1694 - Gottfried Wilhelm von Leibnitz inventou a Roda de Leibnitz capaz de
multiplicar e dividir, utilizava dois contadores: um para efetuar a adição e outro para
determinar o número de operações.
1.1.6 Os anos de 1800
1801- Na França, Joseph-Marie Jacquard criou um tear mecânico com uma
leitora automática de cartões perfurados. Uma das primeiras máquinas
programáveis.
1822 - Charles Babbage apresentou em Londres o projeto de um
mecanismo feito de madeira e latão, que poderia ter alterado o rumo da história se
tivesse sido construído efetivamente.
Babbage concebeu a idéia de um dispositivo mecânico, chamado "Máquina
de Diferenças" que baseava-se no princípio de discos giratórios, na idéia básica do
cálculo de tabelas e era capaz de executar uma série de cálculos.
1833 - Charles Babbage projetou a "Máquina Analítica" que tinha os
componentes básicos de um computador moderno, e lhe rendeu o título de "Pai do
Computador". A teoria fundamental da automatização completa do processo de
cálculo é devida a C.
14
Babbage, graças a descrição de um dispositivo analítico que, em princípio,
representava uma calculadora capaz de ser programável para realizar funções
diferentes, armazenar e imprimir os resultados.
Não chegou a ser construída na época. A "Máquina Analítica" poderia seguir
conjuntos mutáveis de instruções e, portanto, servir a diferentes funções - mais tarde
isso será chamado de software... Ele percebeu que para criar estas instruções
precisaria de um tipo inteiramente novo de linguagem e a imaginou como números,
flechas e outros símbolos. Ela seria para Babbage "programar" a Máquina Analítica,
com uma longa série de instruções condicionais, que lhe permitiriam modificar suas
ações em resposta a diferentes situações.
1842 - Ada Augusta, Lady Lovelace, filha do poeta Lorde Byron, era
matemática amadora entusiasta. Ada tornou-se a primeira "Programadora",
escrevendo séries de instruções para a Máquina Analítica. Ada inventou a Sub-
Rotina: uma seqüência de instruções que pode ser usada várias
vezes em muitos contextos. Ela descobriu o valor dos "loops":
deveria haver uma instrução que retornasse a leitora de cartão a
um cartão específico, de modo que a seqüência pudesse ter sua
execução repetida. E sonhava com o salto condicional: a leitora
de cartão saltaria para outro cartão "se" alguma condição fosse
satisfeita.
1888 - William S. Burroughs patenteou uma máquina de calcular bastante
prática (Máquina Burroughs); em 1890 foi apresentada sua primeira máquina com
teclado. O sucesso comercial levou à fundação de uma empresa com seu nome.
15
1890 - Herman Hollerith ganhou a concorrência para o desenvolvimento de
um equipamento de processamento de dados para auxiliar o censo americano de
1890 e criou o Tabulador, que tinha um sistema de cartões perfurados e uma
máquina classificadora.
Foi Herman Hollerith, que concebeu a idéia de processar dados a partir de
cartões perfurados (o problema a resolver era a computação de dados do censo dos
Estados Unidos).
Com esta solução, Hollerith conseguiu que o tempo de processamento dos
dados do censo baixasse de 8 para 3 anos. A tecnologia de cartões perfurados foi
adotada rapidamente por diversos países da Europa, difundindo a utilização das
máquinas Hollerith a nível mundial e por bastante tempo.
Dez anos mais tarde, Hollerith fundou uma companhia, a Tabulating Machine
Company.
Em 1924, esta firma mudou de nome, tornando-se a International Business
Machines Corporation, hoje mais conhecida como IBM. No início, as vendas da IBM
eram baseadas na linha de equipamentos de escritório e, em particular, máquinas
tabulares. Com isso a empresa orientou suas atividades para o mercado externo,
abrindo sua primeira filial fora dos Estados Unidos, no Canadá em 1917.
1.2 DO TRANSISTOR AO MICROPROCESSADOR
Em 1968 Robert Noyce deixou a Fairchild para fundar sua própria empresa
destinada a projetar circuitos integrados, em associação com um colega na Fairchild,
Gordon Moore, batizando a sua pequena empresa de Intel Corporation. A Intel era
inovativa no sentido de que não fabricava, no início, transistores ou circuitos
16
integrados, mas simplesmente projetava-os para serem fabricados por outras
empresas. Nesse sentido, foi a primeira design house de circuitos integrados.
Paralelamente, em 1969 Frederico Faggin na Fairchild desenvolveu o transistor
metal-óxido-semicondutor com terminal de gate isolado, chamado MOSFET. A Intel
logo viu que o MOSFET facilitava o projeto de circuitos integrados e resolveu adota-
lo em seus projetos.
Um dos primeiros trabalhos da Intel foi uma encomenda de um fabricante
japonês de calculadoras eletromecânicas chamado ETI Busicom, que desejava
fabricar uma calculadora eletrônica de mesa. Para isso, listou-se um conjunto de 12
circuitos integrados que teriam que ser projetados. No entanto um dos engenheiros
de projetos da Intel, Marcian Edward ("Ted") Hoff propôs uma estratégia inteiramente
diferente: Hoff argumentou que o custo de fabricação de 12 circuitos integrados
diferentes seria muito elevado e tornaria inviável o preço final da calculadora
Busicom. Em contrapartida, sugeriu que fossem projetados quatro circuitos
integrados: um deles seria uma memória de acesso aleatório (RAM), outro uma
memória de conteúdo fixo (ROM), o terceiro uma unidade de lógica e aritmética e o
quarto um registrador de deslocamento (shift register) para atuar como interface de
entrada e saída.
O conjunto todo operaria de acordo com as instruções gravadas na ROM,
podendo-se dessa forma executar instruções complexas dividindo-as em uma
seqüência de instruções mais simples. A idéia foi apresentada à ETI Busicom que
aceitou que a Intel tocasse em frente o projeto, pelo que pagaria ao seu final a
quantia de US$ 60 mil. Noyce e Moore contrataram Faggin, que ainda trabalhava na
17
Fairchild, para ajudar no projeto da Busicom e o projeto da Intel foi finalizado em
cerca de um ano. Em 1971 começou a produção dos circuitos Intel 4001 (2k ROM),
4002 (320-bit RAM), 4003 (10-bit I/O shift-register) e 4004, uma unidade de
processamento de 4 bits, para a Busicom. A calculadora era extremamente
poderosa e versátil para a época e, apesar de cada unidade custar mais de US$ 2
mil, vendeu cerca de 100 mil unidades, com grande sucesso comercial.
A Intel soube perceber que o circuito 4004 era uma atraente novidade, pois
era um circuito que podia ser usado em várias funções diferentes de acordo com as
instruções que estivessem gravadas na ROM. Na verdade o 4004 era um autêntico
computador, que tinha mais capacidade de cálculo que o famoso computador ENIAC
de 1946, que ocupava um salão de enormes dimensões.
Havia, no entanto uma questão legal no aspecto que a Intel havia sido
contratada pela Busicom e dessa forma o projeto do 4004 não lhe pertencia
realmente. Examinando a documentação do contrato, verificou-se que existia uma
brecha legal que permitiria a Intel vender circuitos 4004 para outras finalidades que
não fossem calculadoras eletrônicas.
O primeiro microprocessador: Intel 4004.
18
Consultada sobre o assunto a Busicom concordou em devolver à Intel os
direitos autorais sobre o 4004 sob a condição de receber os circuitos integrados por
um custo reduzido e a garantia da Intel que o novo circuito integrado não seria
usado para construir calculadoras. Dessa forma a empresa japonesa deixou escapar
de suas mãos um produto revolucionário.
A Intel cunhou então em 1970 o termo "microprocessador" para seu novo
produto e começou a comercializar o 4004, que se tornou assim o carro-chefe de
uma extraordinária linha de produtos, com enormes implicações econômicas e
sociais.
Até a chegada em cena dos microprocessadores, os computadores eram
máquinas destinadas primariamente para processamento de dados e cálculos
científicos. Seu tamanho variava desde o equivalente a um refrigerador pequeno até
mainframes que ocupavam uma sala de grandes dimensões. Os
microprocessadores permitiram não só a redução do tamanho dos computadores
19
mas também o emprego de computadores em outras atividades, tais como o
controle de um torno mecânico ou o movimento de um robô industrial. Gordon
Moore, que fundou a Intel junto com Robert Noyce, verificou que a complexidade
dos circuitos integrados e a capacidade das memórias eletrônicas crescia a cada
ano e elaborou uma "lei" que leva seu nome e permanece válida até hoje, publicada
pela primeira vez num artigo que ele escreveu para revista Electronics de 19 de abril
de 1965.
Nessa época Moore ainda trabalhava na Fairchild e escreveu o artigo a
convite da diretoria da revista, que comemorava na ocasião 35 anos. No artigo,
Moore previu que quando a revista comemorasse seu 45o aniversário (ou seja, em
1975) seria possível colocar 65000 transistores em um único circuito integrado. De
fato, em 1975 Moore, já como diretor da INTEL, compareceu ao International
Electron Devices Meeting do IEEE e mostrou uma memória recém-lançada na
ocasião, com cerca de 64000 transistores. Suas previsões ficaram então conhecidas
como lei de Moore, que estabelece que o número de componentes por circuito
integrado dobra a cada dezoito meses, ou quadruplica a cada três anos. Em forma
matemática tem-se:
(Componentes por chip) = 2(ano-1975)/1,5
O que torna o microprocessador interessante é justamente sua capacidade
de ser programável. Por exemplo, o 4004 da Intel chamou a atenção dos cientistas
da NASA, que o utilizaram na espaçonave Jupiter 10. A Intel, no entanto, viu que
havia demanda por um microprocessador mais potente. Como resultado, em 1972 a
Intel lançou seu novo microprocessador de 8 bits, projetado por Faggin, que para
mostrar sua evolução em relação ao 4004 foi batizado de 8008. O 8008 tinha alguns
problemas de interfaceamento com as memórias e em 1974 a Intel lançou o 8080,
ligeiramente melhor que o 8008.
Les Salomon, editor da revista norte-americana Popular Electronics,
considerou que havia suficiente interesse do público pelo 8080 para lançar alguns
artigos descrevendo o produto.
Salomon achou então que poderia colocar-se a frente de revistas
concorrentes publicando a descrição de um kit de microcomputador que pudesse ser
montado pelos seus leitores. Buscou o auxílio do seu amigo Edward (Ed) Roberts,
que havia sido seu colega na Força Aérea e possuía uma empresa chamada MITS
20
(Micro Instrumentation Telemetry Systems), que fabricava calculadoras eletrônicas.
Os negócios da MITS estavam indo muito mal desde que a Texas Instruments
apresentou sua linha de calculadoras em 1972, que eram muito mais poderosas que
as da MITS e custavam metade do preço. Junto com Salomon, Roberts construiu
então um microcomputador usando o microprocessador Intel 8080. A filha de
Salomon, que era fã do seriado Jornada nas
Estrelas, batizou o microcomputador de Altair, que era o nome de um dos
planetas visitados pela espaçonave Enterprise.
A montagem do primeiro Altair foi terminada no final de 1974 e Roberts
despachou o microcomputador para o escritório da Popular Electronics, para que
Salonom escrevesse o artigo e fizesse as fotos para a revista. Misteriosamente o
microcomputador extraviou-se e jamais chegou as mãos de Salomon, que estava
planejando publicar o artigo no exemplar de Janeiro de 1975. Sem tempo hábil para
montar um segundo protótipo, Roberts levou uma caixa vazia, somente com o painel
do Altair instalado, para um fotógrafo e despachou as fotos para Salomon. Assim, o
Altair que apareceu na capa da revista Popular Electronics de Janeiro de 1975 nada
mais é que uma caixa vazia e Salomon teve que escrever o artigo baseando-se
somente nas informações de Roberts.
Imediatamente após a publicação do artigo na Popular Electronics a MITS foi
inundada com uma avalanche de pedidos. O Altair era vendido por US$ 395, na
forma de um kit semi-pronto, com a montagem final a cargo do comprador. Roberts
havia pensado em vender no máximo 400 unidades do Altair e só no primeiro mês
tinha em mãos mais de 800 encomendas; sua pequena empresa não estava
preparada para tal demanda e os pedidos demoravam meses para serem atendidos.
Havia também problemas de produção e era relativamente comum que o
microcomputador simplesmente não funcionasse depois de montado.
21
Felizmente o público que comprava os primeiros kits estava acostumado às
montagens eletrônicas e logo surgiram outros artigos na Popular Electronics
descrevendo extensivamente causas de defeitos mais comuns e suas soluções.
O Altair era um microcomputador bastante primitivo pelos padrões atuais.
Não tinha monitor ou teclado e a programação era efetuada simplesmente ligando e
desligando os interruptores do painel. Os resultados também eram mostrados
somente com um conjunto de LEDs no painel. Diversos entusiastas fizeram
adaptações de teclados e de leitoras de fitas de papel perfurado nos Altair, para
facilitar sua programação.
Entre eles, dois estudantes da Califórnia chamados Paul Allen e Bill Gates
conseguiram adaptar a linguagem de programação BASIC para uso nos Altair.
Roberts ficou bastante impressionado com o trabalho dos dois e contratou Paul Allen
como Diretor de Software da pequena MITS em 1975. Mais tarde, no mesmo ano,
Bill Gates, então com 19 anos, também foi contratado pela MITS como programador,
em tempo parcial.
Em 1975 surge o primeiro computador pessoal do mundo chamado de Mits
Altair 8800. O Altair era baseado no 8080 da Intel. Ele inspirou pessoas como Steve
Jobs - futuro fundador da Apple - e Bill Gates - futuro fundador da Microsoft - que
chegou a trabalhar para o Altair.
22
Fundada por Bill Gates e Paul Allen, nasce em 1975, aquela que é a maior
empresa de softwares de todos os tempos, na cidade de Albuquerque, no Novo
México (EUA).
Atual sede da Microsoft em Seattle - Washington
A Apple foi fundada em 1976, por Steve Jobs e Steve Wozniak, depois que o
projeto do microcomputador Apple I foi recusado pela Atari e pela HP (Hewlett-
Packard). Ele usava um microprocessador que operava a apenas 1MHz, vinha com
4KB de memória e saídas para teclado, terminal de vídeo e para uma unidade de
fita. Na verdade, a Apple foi a primeira empresa a lançar um microcomputador nos
moldes que conhecemos hoje, seguida logo depois pela IBM.
Ao final de 1976 a MITS estava em sérias dificuldades. Além dos pedidos
dos Altair continuarem se acumulando, o microcomputador começava a ser
procurado por um público que não estava acostumado a montagens eletrônicas.
Assim, quando os Altair apresentavam seus problemas crônicos de funcionamento a
MITS recebia milhares de reclamações. Allen e Gates acabaram saindo da MITS no
final de 1976 para fundarem sua própria empresa, a Microsoft. Também outras
empresas, tendo em vista o sucesso do Altair, lançaram microcomputadores mais
"amigáveis", como os fabricados pela Commodore e Tandy. Apesar de serem mais
caros que o Altair, esses microcomputadores vinham com teclado e dispositivos de
memória, podendo ser conectados a um televisor doméstico para servir de monitor.
Roberts acabou vendendo a MITS no final de 1977 e, decepcionado com a
eletrônica, resolveu estudar medicina e tornou-se anos mais tarde um médico
pediatra. Cerca de 50 mil Altair foram vendidos em pouco mais de 2 anos.
23
1.3 E TUDO COMEÇOU NUMA GARAGEM...
Algumas empresas de microinformática tais como a Apple surgiram em
garagens de jovens aventureiros e geniais com alguns poucos dólares no bolso.
Apple Computer (empresa)
A Apple foi fundada em 1976, por Steve Jobs e Steve Wozniak, depois que o
projeto do microcomputador Apple I foi recusado pela Atari e pela HP (Hewlett-
Packard). Ele usava um microprocessador que operava a apenas 1MHz, vinha com
4KB de memória e saídas para teclado, terminal de vídeo e para uma unidade de
fita. Na verdade, a Apple foi a primeira empresa a lançar um microcomputador nos
moldes que conhecemos hoje, seguida logo depois pela IBM.
Em 1977 foi lançado o Apple II que já era bem mais parecido com um
microcomputador atual. O Apple II tornou-se um sucesso no seu lançamento pelas
suas características: circuito impresso em sua placa-mãe, fonte de alimentação,
teclado e cartuchos para jogos.
24
A Apple havia lançado o Apple III poucos meses antes do IBM PC. Os dois
equipamentos bateram de frente, pois disputavam o mesmo mercado e o Apple III
acabou levando a pior.
IBM PC - a arquitetura aberta
Em 1981 foi lançado pela IBM (International Business Machines) o
microcomputador IBM Personal Computer (PC), que tinha uma arquitetura aberta de
hardware, ou seja, permitia a utilização de componentes de diversos fabricantes.
Desse modo, a IBM permitiu - mesmo que involuntariamente - que outras empresas
(Compaq) fabricassem clones do IBM PC. Daí é que surgiu a expressão “compatível
com IBM PC”.
25
MS-DOS - o sistema de comandos da Microsoft
A IBM fabricava máquinas de datilografia e computadores de grande porte. A
partir de 1980 resolve investir no mercado de microcomputadores embalado pelo
sucesso da Apple. Aí é que entra a Microsoft, empresa pequena e desconhecida na
época, negocia com a IBM para que o seu sistema chamado MS-DOS (Microsoft
Disk Operation System) seja instalado em microcomputadores IBM PC. A IBM
aceita. Podemos dizer que sem a IBM não existiria a Microsoft. Originalmente o MS-
DOS não foi criado pela Microsoft. Foi desenvolvido com base num sistema
operacional mais simples, chamado Q-DOS, comprado pela Microsoft da Seattle
Computers.
MS-DOS em um micro IBM PC (1981)
26
Xerox Palo Alto Research Center - a criação da interface gráfica
Tudo começou nos anos 1970, quando o Centro de Pesquisa da Xerox, em
Palo Alto, Califórnia, começou a investigar e desenvolver a interface gráfica -
também chamada tela gráfica - para sistemas de computador (mouse, ícones,
janelas e menus suspensos). O Xerox PARC tinha entre seus pesquisadores
verdadeiros gênios e pioneiros da computação.
Foi o berço de muitas inovações, como a rede local, a impressora a laser
etc. Steve Jobs, visita o Xerox PARC, tira todas as suas dúvidas, e logo depois, a
Apple surge com o Lisa. Bill Gates visita a Apple, e em seguida, a Microsoft lança o
seu Windows. Casualidades e coincidências, não? A verdade é que a Apple e a
Microsoft ganharam muito dinheiro com a criação do Xerox Palo Alto.
Xerox Alto Computer: Uma máquina revolucionária
Apple Lisa - pioneirismo da Apple
Em 1983 a Apple apareceu com uma grande novidade, o Lisa. Primeiro
microcomputador comercializado a utilizar um sistema com interface gráfica, era
muito caro, por isso novamente não fez muito sucesso, mas o projeto serviu de base
para o Macintosh.
27
Apple Lisa (1983)
Macintosh
Em 1984 foi lançado o Macintosh, microcomputador da Apple que foi
considerado revolucionário na época e adorado por uma geração.
Macintosh (1984)
O Macintosh utilizava o sistema operacional MacOS 1.0 com interface
gráfica.
28
MacOS 1.0 (1984)
Microsoft Windows
Em 1985 foi lançado aquele que seria o carro chefe da Microsoft: o
Windows. O Windows 1.0 rodava sobre o MS-DOS, por isso, não era considerado
um sistema operacional de fato, e podia executar tanto aplicativos para Windows
quanto os programas para MS-DOS.
Windows 1.0 (1985): Uma espécie de transição entre o DOS e a interface gráfica
MS-Windows 2.0
29
O Windows começou a fazer algum sucesso na versão 2.1, quando os PCs
com microprocessador Intel 80286 (6 - 20MHz) com 1MB ou mais de memória já
eram comuns.
Windows 2.0 (1987)
MS-Windows 3.0
Em 1990, a partir da versão 3.0, o Windows finalmente começa a apresentar
aprimoramentos na interface gráfica. Outro avanço significativo foi a utilização pelo
Windows de um recurso chamado “memória virtual” (utilização do disco rígido para
implementação da memória do computador). Só foi possível o uso da memória
virtual graças as novas tecnologias do microprocessador Intel 80386 (que foi o
grande marco dos processadores para micros PC).
30
Windows 3.0 (1990)
MS-Windows 95
O Windows 95 apresenta uma grande mudança na interface e na sua
arquitetura em relação aos seus antecessores. A Microsoft estava trabalhando junto
com a IBM no desenvolvimento de sistemas e outros programas, mas em 1990,
depois de um desentendimento entre ambas as empresas, cada uma ficou com uma
parte dos projetos. A IBM lança o Sistema OS/2 e a Microsoft apresenta o Windows
95. A verdade é que apesar do OS/2 da IBM ser tecnicamente muito superior ao
Windows 95, foi o sistema da Microsoft quem levou a melhor.
Windows 95 (1995)
31
MacOS - também apresenta importantes mudanças
O MacOS X foi provavelmente a versão do MacOS mais aguardada da
história. Trouxe recursos como a multitarefa preemptiva (significa que o sistema se
tornou mais estável) e a interface Aqua.
Interface Aqua (2001)
MacOS X e o Windows Hoje: a evolução dos dois sistemas
A Microsoft lança agora em 2005 o projeto de codinome Longhorn (atual
Windows Vista). A Microsoft promete mais estabilidade, segurança e inovações no
design. Junto com o Windows Vista virá o Internet Explorer 7. Também trará a
primeira implementação do Microsoft Palladium, uma tecnologia que visa combater a
pirataria. O Palladium permitirá detectar a presença de softwares piratas, além de
músicas, filmes e outros conteúdos baixados ilegalmente.
32
Windows Vista (2006) - o sistema da Microsoft atinge a maturidade
Em 2005, a Apple anuncia para os usuários de micros Macintosh o seu novo
sistema operacional MacOS X versão 10.4 - também chamado de Tiger. O
lançamento, em 2006, disponível em diversos países, inclusive no Brasil.
MacOS X 10.4 - o Tiger (2006)
33
É claro que, além da evolução da tela gráfica, estes sistemas também
tiveram avanços na sua arquitetura interna, no modo como gerenciam a memória
etc. A partir do MacOS X, por exemplo, a Apple usou o FreeBSD (Unix livre) para
construir a base do seu sistema e completou a obra com a interface Aqua.
No caso do Windows, podemos citar alguns avanços do sistema que não
existiam nas primeiras versões, são eles: multitarefa preemptiva,
multiprocessamento, plug-and-play, sistema de arquivos NTFS, dual boot, melhor
suporte para redes de computadores, etc.
Entendendo melhor:
1. Multitarefa preemptiva: as tarefas executadas pelo sistema operacional
são priorizadas sobre as de qualquer outro aplicativo. Na prática, se algum aplicativo
travar ou tentar invadir uma área de memória não designada para ele, simplesmente
será fechado, permitindo que todos os demais aplicativos continuem trabalhando
sem problemas.
2. Multiprocessamento: o sistema é capaz de trabalhar com mais de um
microprocessador.
3. Plug-and-play: o sistema é capaz de reconhecer e configurar
automaticamente qualquer periférico ou placa novos no micro, reduzindo o trabalho
do usuário.
4. Sistema de arquivos NTFS: maior confiabilidade e segurança dos dados.
5. Dual boot: possibilita a inicialização de dois ou mais sistemas
operacionais, no mesmo computador.
O UNIX e o Linux
O UNIX (1969) foi desenvolvido na Bell Laboratories/AT&T. Hoje, há um
número significativo de novas versões UNIX (foto abaixo) que podem ser
executadas em qualquer plataforma de hardware, desde PCs até
supercomputadores. O Linux foi baseado no sistema UNIX.
34
O Linux (1991) foi escrito por pessoas que acreditam na filosofia do
“software livre”. É considerado um forte concorrente do Windows. Existem no mundo
inúmeras distribuições Linux. Algumas das principais são Red Hat, Conectiva (foto
abaixo) e Mandrake. O Linux é o mesmo, porém, cada distribuição vem com um
conjunto diferente de aplicativos.
35
Steve Wozniak
Muitos dão crédito a Steve Jobs, mas fazendo justiça, o verdadeiro gênio por
trás da Apple foi Steve Wozniak. Formidável engenheiro, um verdadeiro hacker, de
espírito espontâneo, foi quem montou o hardware dos microcomputadores Apple I e
II. O sucesso do Apple II foi medido quando a Apple abriu seu capital no mercado,
em 1980, as vendas totalizavam US$ 117 milhões.
Tanto Jobs quanto Wozniak são tidos como ícones de uma geração,
pioneiros da microinformática.
Steve Jobs
Após ter se desentendido com os executivos da Apple, Steve Jobs retorna
em 1997 para a empresa e volta a mostrar seu gênio criativo. Apresenta ao mundo o
iMac com seu design inovador e o iBook. E se não bastasse lançou os aclamados
iPod e iTunes. Além do seu trabalho na Apple, a sua vontade de inovar levou Jobs a
impulsionar a Pixar Animation Studios, a empresa que abriu novos horizontes no
mundo da animação com o sucesso de Toy Story, o primeiro longa metragem
completamente gerado por computador.
36
Microsoft x Apple - porque a Microsoft levou a melhor
Os microcomputadores da Apple tinham arquitetura de hardware fechada,
seus programas eram exclusivos e principalmente eram micros muito caros. Já o
Windows poderia ser instalado em qualquer microcomputador compatível com o IBM
PC - essa dobradinha PC mais Windows tem um custo relativamente barato em
relação à linha Apple - e qualquer um poderia desenvolver aplicativos para o
Windows. Flexibilidade e preços mais acessíveis foram os fatores que levaram a
Microsoft a ganhar a maior fatia do mercado.
A queda da Big Blue (IBM)
Primeiro erro. Bill Gates negocia com a IBM o aluguel do MS-DOS, o
presidente da IBM concorda e diz a Gates que: "o lucro estava no hardware e não no
software". O lance é que a IBM não comprou os direitos do sistema, e perdeu uma
grande oportunidade. Hoje sabemos que o hardware representa por volta de 30% do
mercado da informática e os 70% restantes são representados pelo software.
Segundo erro. Depois que o microprocessador Intel 80386 foi lançado a
diretoria da IBM demorou muito para chegar à um acordo e desenvolver um sistema
baseado no 386, dando tempo para a Compaq sair na frente. Este foi um verdadeiro
marco pois, de repente, as companhias perceberam que não eram mais obrigadas a
seguir a IBM. A partir daí, a IBM começou a gradualmente perder a liderança do
mercado, tornando-se apenas mais um entre inúmeros fabricantes de micros PC.
O impacto do Intel 80386 para os microprocessadores atuais
O microprocessador Intel 386 foi lançado em outubro de 1985. O 386 trouxe
vários recursos novos. Trabalha com um barramento de 32 bits (barramento são
"caminhos" impressos na placa principal do micro que fazem a comunicação entre
microprocessador, memória, disco rígido etc.) que significa ganho na velocidade.
Em nome da compatibilidade com programas antigos, o 386 (como todos os
processadores atuais) pode operar em "modo real", ou seja, o processador simula o
antigo microprocessador Intel 8086. Mas incorporou também o "modo protegido". O
modo protegido traz recursos que permitiram a existência dos aplicativos e jogos
que temos atualmente: memória virtual, multitarefa, proteção de memória (o
processador isola a área de memória ocupada por cada aplicativo), etc.
37
A importância da Apple e da Microsoft para a revolução do computador
pessoal Foram a Microsoft e principalmente a Apple que realizaram a revolução do
computador pessoal. Antes do microcomputador tínhamos o supercomputador
(mainframe) e o minicomputador que eram ferramentas restritas as Universidades e
as grandes corporações.
Somente os mestres e doutores, técnicos e especialistas tinham acesso a
essas máquinas. O mérito da Apple e da Microsoft consiste no fato de que as duas
empresas tornaram o computador uma máquina acessível ao público comum.
Supercomputador
Uma curiosidade: o supercomputador mais
poderoso pelo menos até 2001 é o IBM ASCI White
(foto à esquerda acima). Ele possui nada menos que 8.192 processadores IBM
Power 3. Tem 6 terabytes (trilhões de bytes) de memória RAM e um total de 160
terabytes de armazenamento em disco. Um supercomputador é um sistema
gigantesco de dezenas de milhões de dólares, pode ocupar uma área equivalente à
de duas quadras de basquete.
1.4 GERAÇÃO DE COMPUTADORES
As máquinas de primeira geração (1930-1958)
Já no século XX, um grande número de projetos foram implementados,
baseados na utilização de relés e válvulas eletrônicas (Fig. abaixo) para a realização
38
de cálculos automaticamente, eram os computadores de primeira geração. Relés
são eletroímãs cuja função é abrir ou fechar contatos elétricos com o intuito de
interromper ou estabelecer circuitos. Válvula é um dispositivo que conduz a corrente
elétrica num só sentido.
Relé. Válvula.
Uma das grandes vantagens das máquinas a relé sobre as máquinas de
calcular mecânicas era, sem dúvida, a maior velocidade de processamento
(milésimos de segundos). Ainda, um outro aspecto positivo era a possibilidade de
funcionamento contínuo, apresentando poucos erros de cálculo e pequeno tempo de
manutenção.
Os computadores da primeira geração são todos baseados em tecnologias
de válvulas eletrônicas. Normalmente quebravam após não muitas horas de uso.
Tinham dispositivos de entrada/saída primitivos e calculavam com uma velocidade
de milissegundos (milésimos de segundo). Os cartões perfurados foram o principal
meio usado para armazenar os arquivos de dados e para ingressá-los ao
computador.
A grande utilidade dessas máquinas era no processamento de dados. No
entanto tinham uma série de desvantagens como: custo elevado, relativa lentidão,
pouca confiabilidade, quilômetros de fios (ocupando verdadeiros edifícios), grande
quantidade de energia consumida e necessitavam de grandes instalações de ar
condicionado para dissipar o calor gerado por um grande número de válvulas (cerca
de 20 mil). A seguir serão apresentados alguns destes computadores.
39
Válvula.
MARK I
O Mark I foi criado entre 1937 e 1944, durante a II Guerra Mundial. Uma
calculadora eletromecânica muito grande, idealizada por H. Aiken na Universidade
de Harvard, foi considerado o primeiro projeto de computador.
Mark I.
40
Utilizava muitas válvulas, as operações internas eram controladas por relés
e os cálculos eram realizados mecanicamente. Integrava conceitos de computadores
digitais e analógicos, pois tinha sistema eletrônico e mecânico na mesma máquina.
Media 2,5 m de altura e 18 m de comprimento. Com o apoio da IBM e da Marinha
dos Estados Unidos, Howard Aiken, o pesquisador que desenvolveu Mark I,
construiu outras versões deste computador (Mark II a Mark IV).
ABC (Atanasoff Berry Computer)
Criado em 1939. Foi o primeiro a usar válvulas para circuitos lógicos e o
primeiro a ter memória para armazenar dados, princípio no qual se baseiam os
computadores digitais.
Atanasoff levou 4 princípios em consideração em seu projeto de
computador:
• Usar eletricidade e eletrônica como meio;
• Recorrer à lógica binária para as operações;
• Usar um condensador para memória que pudesse ser regenerado para
evitar intervalos;
• Calcular por ação lógica direta, não por via convencional de numeração.
ENIAC (Electronic Numeric Integrator and Calculator)
Criado entre 1943 e 1946. Foi considerado o primeiro grande computador
digital.
Não usava um programa de armazenamento interno. Os programas eram
introduzidos por meio de cabos, o que fazia sua preparação para cálculos demorar
semanas. Ocupava 170m2, pesava 30 toneladas, funcionava com 18 mil válvulas e
10 mil capacitores, além de milhares de resistores a relé, consumindo uma potência
de 150 Kwatts. Como tinha vários componentes discretos, não funcionava por
muitos minutos seguidos sem que um deles quebrasse. Chega a ser, em algumas
operações, mil vezes mais rápido que o MARK I.
A entrada de dados no ENIAC era baseada na tecnologia de cartões
perfurados e os programas eram modificados através de reconfigurações no circuito.
Apesar das dúvidas com relação à sua confiabilidade, o ENIAC permaneceu
operacional por mais de 10 anos.
41
Outra contribuição importante desta época foi o conceito de programa
armazenado, introduzida por John Von Neuman. Von Neuman tinha sido consultor
no projeto ENIAC e conhecia os problemas da programação destas máquinas. Os
programas para os computadores da época eram feitos através de modificações nos
circuitos, o correspondia a um trabalho de dias para um programa relativamente
simples. A proposta de Von Neuman foi inspirada na tecnologia de entrada de dados
utilizada na época, fazendo com que os programas fossem introduzidos através de
cartões perfurados como se fazia com os dados.
John Von Neuman assim desenvolveu a lógica dos circuitos, os conceitos de
programa e operações com números binários. Estes conceitos, adotados nos
computadores atuais, revolucionou o conceito de programação de computadores da
época, tornando muito mais flexíveis e versáteis.
ENIAC.
Computadores de segunda geração (1955-1965)
Com a invenção do transistor em 1948, o mundo dos computadores é
tomado de assalto por uma onda de novos projetos que dá origem, na década de 60
a empresas hoje mundialmente conhecidas no que diz respeito à fabricação destas
máquinas - DEC e IBM.
Com a segunda geração apareceram as memórias com anéis
ferromagnéticos. As fitas magnéticas foram a forma dominante de armazenamento
42
secundário: permitiam capacidade muito maior de armazenamento e o ingresso mais
rápido de dados que as fitas perfuradas.
Transistor.
Também nesse período houve avanços no que se refere às unidades de
memória principal, como por exemplo, a substituição do sistema de tubos de raios
catódicos pelo de núcleos magnéticos, utilizado até hoje nos “chips” de memória
RAM. Os dispositivos de memória auxiliar introduzidos na primeira geração
continuam a ser utilizados.
Esses computadores, além de menores e mais baratos, consumiam menos
energia, possuíam maior confiabilidade, eram mais rápidos (a velocidade passou
para milionésimos de segundos) e eliminavam quase que por completo o problema
do desprendimento de calor, característico da geração anterior.
Exemplos de computadores dessa geração são o IBM 1401 e o Honeywell
800. O IBM 1401 apareceu na década de 60 e com ele a IBM assumiu uma posição
dominante na industria de computadores.
A Digital Equipment Corporation tinha então uma posição proeminente no
setor com sua linha PDP. O primeiro minicomputador foi o PDP-1, criado em 1959 e
instalado em 1961. O primeiro produzido comercialmente foi o PDP-5.
Um dos computadores mais comercializados nesta época foi o IBM 7090,
que eram comercializados a um custo de três milhões de dólares. Já no início dos
anos 60, a IBM passou a produzir os computadores da linha IBM 7040, que eram
menos poderosos que seus predecessores, mas de custo bastante inferior.
43
Computadores de terceira geração (1965-1980)
Essa geração é marcada pela substituição dos transistores pela tecnologia
dos circuitos integrados (transistores e outros componentes eletrônicos
miniaturizados e montados numa única pastilha de silício - o chip). Entrou no
mercado em 1961 pela Fairchild Semiconductor e pela Texas Instruments,
localizadas no Vale do Silício na região de Palo Alto e Stanford, na Califórnia.
A tecnologia dos circuitos integrados, que permitiu a substituição de dezenas
de transistores numa única peça de silício, permitiu o surgimento de computadores
de menores dimensões, mais rápidos e menos caros. Com esses circuitos
integrados o tempo passou a ser medido em nanossegundos (bilionésimos de
segundos).
A tecnologia utilizada na época era a de pequena escala de integração (SSI
–Small Scale of Integration) com a qual ao redor de mil transistores podiam-se
integrar no circuito de uma pastilha. Com isso os computadores eram menores, mais
confiáveis, com maior velocidade de operação e um custo bem mais baixo do que as
máquinas das gerações anteriores. Também eram usados discos magnéticos para
armazenamento, o que permitiu o acesso direto à arquivos muito grandes.
O exemplo típico dessa geração foi o IBM 360, série que introduziu o
conceito de família de computadores compatíveis, facilitando a migração dos
sistemas quando é necessário mudar para um computador mais potente. Esta
estratégia permitiu que a IBM se posicionasse, já neste período, como líder do
mercado de computadores. Essa família era composta por seis modelos básicos e
várias opções de expansão que realizava mais de 2 milhões de adições por segundo
e cerca de 500 mil multiplicações.
Outra novidade introduzida por esta classe de computadores foi o conceito
de multiprogramação, na qual diversos programas poderiam estar residentes na
memória da máquina. No caso em que um programa entrasse em espera para uma
operação de entrada/saída de dados, a unidade central passava a executar a parte
de um outro programa.
Computadores de quarta geração (1980 - ...)
Durante a década de 70, com a tecnologia da alta escala de integração (LSI
– Large Scale of Integration) pôde-se combinar até 65 mil componentes em uma só
44
pastilha de silício (chip). Os anos 80, com o grande desenvolvimento da tecnologia
de circuitos integrados, o número de transistores podendo ser integrados numa
pastilha de silício atingiu a faixa dos milhares e, logo em seguida, dos milhões. Foi
assim que surgiram os novos computadores, ainda menores, mais velozes e mais
poderosos que aqueles da geração anterior.
Na segunda metade da década de 90, houve a passagem da LSI para a
VLSI (Very Large Scale of Integration - muito alta escala de integração). As
máquinas de todas as gerações têm como característica comum a existência de
uma única CPU para executar o processamento. Porém, mais recentemente, já
existem computadores funcionando com mais de uma CPU. A velocidade dos
computadores passou a atingir os trilionésimos de segundos - quase a velocidade da
luz.
Desde o início da década de 80 os preços haviam caído de tal maneira que
já começava a ser possível a uma pessoa ter o seu próprio computador - começava
então a era da informática pessoal. Os computadores pessoais passaram então a
ser utilizados de uma maneira relativamente distinta dos grandes computadores de
então.
Esta geração caracteriza-se, portanto, pela crescente miniaturização e
refinamento dos circuitos integrados. Nesta última geração surgiu o
microcomputador, graças ao desenvolvimento de um novo circuito integrado: o
microprocessador. O primeiro destes microprocessadores, o 8080, foi produzido pela
Intel Corporation. A partir disto, o microcomputador teve uma grande evolução,
gerando grandes transformações nos mais diversos ramos de atividades (das
operações com cartão de crédito ao projeto de automóveis).
No início dessa geração nasceu a Intel, que começou a desenvolver o
primeiro microprocessador, o Intel 4004 de 4 bits, um circuito integrado com 2250
transistores, equivalente ao ENIAC, apresentado na Fig. a seguir.
Intel 4004
45
Em 1981, a IBM entrou no mercado de micros, introduzindo o PC, um
microcomputador com tecnologia de 16 bits (Intel 8088) que em pouco tempo se
tornou um padrão.
Os principais modelos de PC são:
PC: possui cinco slots, dos quais dois são ocupados na configuração mínima
- um para o controlador de disco flexível e o outro para a placa de vídeo e
impressora, um PC tem a seguinte configuração típica - 256 a 640 K de memória
RAM na placa principal, duas unidades de disco flexível de 360 K, controlador de
vídeo gráfico, monitor monocromático e interface serial ou paralela para a
impressora. Seu clock era de 4,77 MHz.
PX-XT: possui oito slots, sendo dois ou três ocupados na configuração inicial
– placa controladora de vídeo mais uma ou duas placas para controlar discos
(flexível e winchester). A configuração típica de um XT é 512 a 768 K de memória
RAM na placa principal, um drive de 360 K, um winchester de 10, 20 ou 30 Mb,
placa controladora de vídeo gráfica, monitor monocromático e interface paralela ou
serial. Seu clock era de 8,10 at´e 12 MHz.
PC-XT 286: modelo intermediário entro o PC-XT e o PC-AT ou, como era
chamado, um AT simplificado, uma vez que usa o microprocessador do AT o Intel
80286.
Esse era três vezes mais rápido que o XT e podia executar várias tarefas ao
mesmo tempo. É um PC-XT com o 80286.
PC-AT: usa o microprocessador da Intel 80286 de 32 bits e possui maior
capacidade de processamento, com memória principal de até 4Mbytes. Sua
configuração inicial típica é: 1Mbyte de RAM, um drive de 5,25 polegadas de alta
capacidade, winchester de 20 ou 30Mbytes com alta velocidade de acesso, interface
paralela e serial RS-232, controlador de vídeo e monitor monocromático. Sua
velocidade de processamento alcançava entre 16 e 20 Mhz. A grande importância
do AT está na maior capacidade do 80286, que resulta em um desempenho duas a
três vezes maior que os XT.
46
PC-386: É um PC-AT com o microprocessador da Intel, o 80386. Com isso
adquiriram grande velocidade de processamento e era capaz da multitarefa em 32
bits. O 80386 foi o grande marco da popularização da computação pessoal.
PC 486: utiliza o microprocessador Intel 80486, com um co-processador
aritmético embutido e mais de 1,2 milhão de transistores encolhidos em um chip.
Em 1993 chegou ao mercado o Pentium, cuja versão Pentium III possui
cerca de nove milhões de transistores, possibilitando. O Pentium trouxe um novo
fôlego às chamadas estações de trabalho (microcomputadores poderosos usados
em tarefas pesadas, como computação gráfica e aplicações científicas). Uma das
novidades dele é que possibilita a simulação de dois processadores, ou seja, um
princípio de paralelização antes possível apenas em supercomputadores e que
agora está ao alcance dos usuários de microcomputadores.
47
2 ARQUITETURA E ORGANIZAÇÃO DE COMPUTADORES
Processamento de Dados
Série de operações que se aplica a um conjunto de dados (entrada) para
obter outro conjunto de dados ou resultados (saída).
Ex.:
Ω dar baixa, no talão de cheques, de um cheque emitido;
Ω procurar um número de telefone na lista telefônica e anotá-lo em
uma caderneta;
Ω somar valores de compras no supermercado;
Ω classificar várias contas e pagá-las em ordem de data de
vencimento.
Elementos Básicos:
a) Dados iniciais - as informações iniciais são aquelas que estão sujeitas
a certas transformações;
b) Transformações - são as modificações efetuadas no conteúdo ou na
forma dos dados iniciais;
Resultados finais - o produto dos dados iniciais após as transformações.
Tipos de Processamento
a) Manual - é aquele feito manualmente, sem a utilização da máquina.
Ex.: dar baixa, no talão de cheques, de um cheque emitido.
b) Semi-automático - é quando operações são feitas por máquinas, mas
exigem a intervenção humana.
Ex.: rotinas de contabilidade que usam máquinas junto com processamento
manual.
c) Automático - é quando todo o processamento é feito por máquinas.
48
Ex.: executar uma tarefa valendo-se exclusivamente de um computador.
Para resolver determinados problemas, sobretudo de cálculo, o homem
inventou máquinas chamadas COMPUTADORES que, uma vez programados,
efetuam o PROCESSAMENTO DE DADOS com muita rapidez e segurança,
fornecendo os resultados desejados.
Processamento eletrônico de dados
É o processamento de dados com a utilização do computador. Diz-se
eletrônico porque os computadores atuais são formados por componentes
eletrônicos.
COMPUTADOR
PROCESSAMENTO ELETRÔNICO DE DADOS
lê dados
processa dados
fornece resultados
Vantagens do computador
• processa grande volume de dados com rapidez;
• trata grandes quantidades de informação com segurança;
• não cansa - uma vez programado é capaz de processar 24 horas por
dia;
• realiza cálculos com exatidão;
49
• oferece grande disponibilidade de acesso às informações nele
armazenadas;
• pode ser programado.
Desvantagens do computador
• não é criativo;
• não trabalha bem com a ambigüidade;
• as linguagens de programação dos computadores não corrigem os
erros lógicos dos programas;
• alto custo (embora decrescente);
• obsolescência.
Informática
(INFORmação autoMÁTICA)
Ciência que abrange todas as atividades relacionadas com o processamento
automático de informações, inclusive o relacionamento entre serviços, equipamentos
e profissionais envolvidos no processamento eletrônico de dados.
Dado
É a informação que será trabalhada durante o processamento.
Ex.: no Vestibular: nome, identidade, opções.
Instrução
É uma operação elementar que o computador tem a capacidade de
processar. A instrução trabalha com os dados. São as ordens executadas pelo
computador.
Cada computador tem o seu repertório de instruções. As instruções comuns
em quase todos os computadores são:
• instruções para entrada e saída (E/S) de dados;
• instrução de movimentação de dados (transferência);
50
• instruções aritméticas;
• instrução de comparação;
• instrução de controle de seqüência.
Programa
É o roteiro que orienta o computador, mostrando-lhe a seqüência de
operações necessárias para executar uma determinada tarefa.
Um programa é uma seqüência de instruções que dirigem a UCP na
execução de alguma tarefa.
Diz-se que um programa é composto por uma série de comandos ou
instruções.
Hardware e software
Um sistema de computação compreende dois elementos básicos:
• hardware: conjunto de componentes mecânicos, elétricos e
eletrônicos com os quais são construídos os computadores e equipamentos
periféricos;
• software: conjunto de programas, procedimentos e documentação que
permitem usufruir da capacidade de processamento fornecida pelo hardware.
2.1 ORGANIZAÇÃO FUNCIONAL DE UM COMPUTADOR
O computador é formado por um grupo de unidades ou equipamentos
conectados entre si (ver Figura a seguir). Cada unidade desempenha funções
específicas no processamento:
• Sistema Central:
• Unidade Central de Processamento (UCP)
(ou Central Processing Unity (CPU))
• Unidade de Controle
• Unidade Aritmética e Lógica
• Clock
51
• Memória Principal
• Interfaces
• Unidades de Entrada e Saída (E/S)
UCP
UNIDADEARITMÉTICA E LOGICA
CLOCK
MEMORIA
MICROPROCESSADOR
PRINCIPAL
SISTEMA CENTRAL
Barramento
INTERFACE
UNIDADE DE CONTROLE
Barramento
Unidades de Entrada e Saída (E/S)
INTERFACE
PERIFERICO PERIFERICO
... ...
Organização Funcional de um Computador
2.2 UCP / MICROPROCESSSADOR
A primeira característica a considerar num computador é sua unidade central
de processamento, que poderá fornecer uma série de indicações sobre o
equipamento. A UCP ou CPU (Central Processing Unit), também pode ser chamada
de processador ou microprocessador, os quatro termos são equivalentes. Tudo o
que acontece num computador provém da UCP, que gerência todos os recursos
disponíveis no sistema. Seu funcionamento é coordenado pelos programas, que
indicam o que deve ser feito e quando. Basicamente, a UCP executa cálculos muito
52
simples como somas e comparações entre números, mas com uma característica
muito especial: uma velocidade extremamente elevada.
A função das UCPs é sempre a mesma. O que as diferenciam é sua
estrutura interna e, o mais importante, o fato de cada uma ter seu conjunto de
instruções próprio. Ou seja, um programa escrito para uma UCP dificilmente poderá
ser executado diretamente em outra - esse é um dos principais motivos da
incompatibilidade entre os computadores.
A UCP trabalha diretamente com a memória principal. O conteúdo da
memória principal é uma combinação de informações e instruções. As instruções
que o processador central pode executar diretamente estão na linguagem de
máquina da UCP.
O processamento é feito pela Unidade Central de Processamento utilizando
o ciclo busca-execução regulado pelo clock (relógio). A seqüência desse ciclo é:
Ω Buscar (cópia) instrução na memória principal;
Ω Executar aquela instrução;
Ω Buscar a instrução seguinte;
Ω Executar a instrução seguinte;
Ω E assim por diante (milhões de vezes por segundo).
Ω As instruções em linguagem de máquina são muito primitivas.
Por exemplo:
Ω Ler (copiar) conteúdo de um endereço de memória no
registrador do processador central;
Ω Comparar duas informações;
Ω Adicionar, subtrair dois números;
Ω Escrever palavra na memória ou dispositivo de saída.
Estas etapas compõem o que se denomina ciclo de instrução. Este ciclo se
repete indefinidamente até que o sistema seja desligado, ou ocorra algum tipo de
erro, ou seja encontrada uma instrução de parada.
As atividades realizadas pela UCP podem ser divididas em duas grandes
categorias funcionais (Monteiro (1995)):
53
Ω Função processamento: Se encarrega de realizar as atividades
relacionadas com a efetiva execução de uma operação, ou seja,
processar. O dispositivo principal desta área de atividades de uma
UCP é chamado de UAL - Unidade de Aritmética e Lógica. Os demais
componentes relacionados com a função processamento são os
registradores, que servem para armazenar dados a serem usados
pela UAL. A interligação entre estes componentes é efetuada pelo
barramento interno da UCP.
Ω Função Controle: É exercida pelos componentes da UCP que se
encarregam das atividades de busca, interpretação e controle da
execução das instruções, bem como do controle da ação dos demais
componentes do sistema de computação.
A área de controle é projetada para entender o que fazer, como fazer e
comandar quem vai fazer no momento adequado. Os dispositivos básicos que
devem fazer parte daquela área funcional são: unidade de controle, decodificador,
registrador de instrução, contador de instrução, relógio ou "clock" e os registradores
de endereço de memória e de dados da memória.
2.2.1 Unidade de Aritmética e Lógica – UAL
A UAL é o dispositivo da UCP que executa realmente as operações
matemáticas com os dados.
A UAL é um aglomerado de circuitos lógicos e componentes eletrônicos
simples que, integrados, realizam as operações já mencionadas. Ela pode ser uma
parte pequena da pastilha do processador, usada em pequenos sistemas, ou pode
compreender um considerável conjunto de componentes lógicos de alta velocidade.
A despeito da grande variação de velocidade, tamanho e complexidade, as
operações aritméticas e lógicas realizadas por uma UAL seguem sempre os
mesmos princípios fundamentais.
2.2.2 Registradores
54
Para que um dado possa ser transferido para a UAL, é necessário que ele
permaneça, mesmo que por um breve instante, armazenado em um registrador.
Além disso, o resultado de uma operação aritmética ou lógica realizada na UAL deve
ser armazenado temporariamente, de modo que possa ser utilizado mais adiante ou
apenas para ser, em seguida, transferido para a memória.
Para entender a estes propósitos, a UCP é fabricada com uma certa
quantidade de registradores, destinados ao armazenamento de dados. Servem,
pois, de memória auxiliar da UAL. Há sistemas nos quais um desses registradores,
denominados acumulador, além de armazenar dados, serve de elemento de ligação
da UAL com os restantes dispositivos da UCP.
2.2.3 Unidade de Controle
É o dispositivo mais complexo da UCP. Além de possuir a lógica necessária
para realizar a movimentação de dados e instruções de e para a UCP, através dos
sinais de controle que emite em instantes de tempo programados, esse dispositivo
controla a ação da UAL. Os sinais de controle emitidos pela UC ocorrem em vários
instantes durante o período de realização de um ciclo de instrução e, de modo geral,
todos possuem uma duração fixa e igual, originada em um gerador de sinais
usualmente conhecido como relógio.
Ao contrário de circuitos integrados mais comuns, cuja função é limitada pelo
hardware, a unidade de controle é mais flexível. Ela recebe instruções da unidade
de E/S, as converte em um formato que pode ser entendido pela unidade de
aritmética e lógica, e controla qual etapa do programa está sendo executado.
2.2.4 Relógio
É o dispositivo gerador de pulsos cuja duração é chamada de ciclo. A
quantidade de vezes em que este pulso básico se repete em um segundo define a
unidade de medida do relógio, denominada freqüência, a qual também usamos para
definir velocidade na UCP.
A unidade de medida usual para a freqüência dos relógios de UCP é o Hertz
(Hz), que significa 1 ciclo por segundo. Como se trata de freqüências elevadas,
55
abreviam-se os valores usando-se milhões de Hertz, ou de ciclos por segundo
(MegaHertz ou simplesmente, MHz). Assim, por exemplo, se um determinado
processador funciona como seu relógio oscilando 25 milhões de vezes por segundo,
sua freqüência de operação é de 25 MHz. E como a duração de um ciclo, seu
período, é o inverso da freqüência, então cada ciclo, neste exemplo, será igual ao
inverso de 25.000.000 ou 1/25.000.000=0,00000004 ou 40 nanossegundos.
2.2.5 Registrador de Instrução (RI)
É o registrador que tem a função específica de armazenar a instrução a ser
executada pela UCP. Ao se iniciar um ciclo de instrução, a UC emite o sinal de
controle que acarretará a realização de um ciclo de leitura para buscar a instrução
na memória, e que, via barramento de dados e RDM, será armazenada no RI.
2.2.6 Contador de Instrução
É o registrador cuja função específica é armazenar o endereço da próxima
instrução a ser 0executada. Tão logo a instrução que vai ser executada seja
buscada (lida) da memória para a UCP, o sistema providencia a modificação do
conteúdo do CI de modo que ele passe a armazenar o endereço da próxima
instrução na seqüência. Por isso, é comum definir a função do CI como sendo a de
"armazenar o endereço da próxima instrução", que é o que realmente ele faz durante
a maior parte da realização de um ciclo de instrução.
2.2.7 Decodificador de Instrução
É um dispositivo utilizado para identificar as operações a serem realizadas,
que estão correlacionadas à instrução em execução. Em outras palavras, cada
instrução é uma ordem para que a UCP realize uma determinada operação. Como
são muitas instruções, é necessário que cada uma possua uma identificação própria
e única. A unidade de controle está, por sua vez, preparada para sinalizar
adequadamente aos diversos dispositivos da UCP, conforme ela tenha identificado a
instrução a ser executada.
56
O decodificador recebe na entrada um conjunto de bits previamente
escolhido e específico para identificar uma instrução de máquina e possui 2N
saídas, sendo N a quantidade de algarismos binários do valor de entrada.
2.2.8 Registrador de Dados de Mem. - RDM e Registrador de Endereços de
Mem. - REM
São os registradores utilizados pela UCP e memória para comunicação e
transferência de informações. Em geral o RDM possui um tamanho igual ao da
palavra do barramento de dados, enquanto o REM possui um tamanho igual ao dos
endereços da memória.
Termos utilizados para definir alguns conceitos sobre
microprocessadores
Palavra- Quantidade de bits que é tratada em cada ciclo do processador.
Não confundir com BYTE, que é de 8 bits para todos da tabela. Fisicamente,
corresponde à quantidade de "fios" da via de dados do processador.
Via de E/S - Quantidade bits acessados a cada ciclo de interação com um
dispositivo de E/S (entrada/saída). Via de regra, é igual a uma palavra, mas existem
casos em que é igual a ½ palavra, como é o do 8088, e outros que é igual ao dobro
do palavra para determinadas operações como num Pentium. Fisicamente,
corresponde a quantidade de "fios" da via de E/S do computador.
A unidade de E/S liga o microprocessador aos outros circuitos do
computador, transmitindo informações de programa e de dados para os
registradores da unidade de controle e da unidade de aritmética e lógica. A unidade
de E/S faz uma correspondência entre os níveis de sinal e a sincronização dos
circuitos internos de estado sólido do microprocessador com os outros componentes
contidos no PC. Por exemplo, os circuitos internos de um microprocessador são
projetados para serem econômicos com a eletricidade, de modo a operar mais
rápido e gerar menos calor. Esses delicados circuitos internos não são capazes de
lidar com as correntes mais altas necessárias para ligação com componentes
57
externos. Consequentemente, cada sinal que sai do microprocessador passa por um
buffer de sinal da unidade de I/O, que eleva sua capacidade de lidar com correntes.
A unidade de E/S pode ter apenas alguns poucos buffers ou pode envolver
muitas funções complexas. Nos microprocessadores Intel usados mais
recentemente em PCs com grande capacidade de processamento, a unidade de E/S
inclui o cache de memória e a lógica de duplicação de clock para adequar a alta
velocidade operacional do microprocessador a memória externa mais lenta.
Via de endereços- Quantidade de bits que podem ser enviados para
representar um endereço de uma posição na memória. Fisicamente, corresponde ao
número de "fios" da via de endereços.
Memória RAM - É conseqüência direta da via de endereço. A memória RAM
máxima é igual a 2 elevado ao número de bits (fios) da via de endereço. Note que
entre o 68020 e o 486 há estruturas com as três características de 32 bits, palavra,
entrada/saída e endereçamento.
Clock - Velocidade dos ciclos por segundo que regulam o funcionamento da
UCP. Computadores trabalham de acordo com um padrão de tempo, com o qual
podem gerenciar as transmissões de informações entre os vários dispositivos do
sistema, uma vez que as informações são convertidas em sinais elétricos. Sem um
padrão de tempo seria difícil diferente uma informação de outra. Esse padrão de
tempo é indicado pela freqüência do clock em MHz - Milhões de ciclos por segundo.
Os microprocessadores até o 486 realizavam uma operação básica por ciclo; No
Pentium já podem ser até 2 e no PowerPC MPC601 até 3. O clock só é uma
indicação precisa da capacidade de processamento quando se compara UCPs
iguais ou semelhantes.
MIPS - Milhões de instruções por segundo. Até o início da década era a
unidade mais utilizada para indicar capacidade do processamento da UCP. Apesar
de criticada, ainda é usada para sistemas. Para os de maior porte, a unidade passou
a ser o Mega-flops. A tendência é utilizar outros índices mais complexos.
A capacidade de processamento é função direta do conjunto dessas
características: Palavra, barramento (via ou bus), memória, velocidade do clock,
58
capacidade (MIPS ou outro índice), e também de outros fatores como arquitetura do
microprocessador, seu conjunto de instruções básica, arquitetura do Sistema e, em
especial, como esse conjunto se comporta em cada tipo de aplicação.
É comum durante a vida de um modelo de microprocessador que a sua
velocidade seja aumentada com novos modelos; Um exemplo é o 8086, cujos
primeiros modelos operam com um clock de 4,77 MHz e alguns anos depois vários
fabricantes já o utilizavam com um clock de 8 MHz e depois de 10 MHz. A
velocidade do microprocessador começa com o valor recomendado que é, na
realidade, o valor mínimo garantido, pela estrutura de projeto do Chip. Com o
passar do tempo, novos modelos aumentam esse valor; O 486 tem modelos de 16,
25, 33, 40, 50 e 66 MHz.
2.3 CATEGORIAS DE MICROPROCESSADORES:
8086
Lançado pela Intel em 1978, o 8086 tinha um desempenho dez vezes melhor
que seu antecessor o 8080. Seus registradores tinham a largura de 16 bits, o
barramento de dados passou de 8 para 16 bits e o barramento de endereços se
tornou maior com 20 bits de largura, permitindo assim que fosse controlado mais de
1 milhão de bytes de memória. A memória passou a ser tratada de maneira diferente
pois esse processador tratava a mesma como se fosse dividida em até 16
segmentos contendo 64 kilobytes cada, e não permitia que nenhuma estrutura de
dados ultrapassasse a barreira entre os segmentos.
8088
O 8088 surgiu da necessidade em se criar um processador com
características parecidas com as do 8086 mas que tivesse um custo menor. Dessa
forma, a Intel colocou no mercado um chip que só se diferenciava do 8086 pelo fato
de Ter um barramento de dados de 8 bits. Em virtude de sua concepção menos
avançada e do baixo custo de produção o 8088 foi escolhido pela IBM, para o
projeto de seu computador pessoal, pois, além de possuir o projeto interno de 16 bits
também pertencia à mesma linhagem do 8080.
59
80286
Comparado com seu antecessor imediato (o 8086), o 80286 apresentava
diversas características particularmente adequadas aos computadores pessoais.
Seu bus de dados possui 16 bits reais, o mesmo acontecendo com os registradores
internos. E ainda foi projetado para trabalhar com maior velocidade, inicialmente 6
MHz, logo ampliados par 8 e, em seguida para 10. Com o tempo, versões deste
microprocessador com velocidades de 12,5, 16 e até 20 MHz foram introduzidas
pela Intel.
Um dos aspectos mais importantes acabou sendo a maior capacidade de
memória do 80286. Ao invés de 20 linhas de endereçamento, o 80286 possuía 24.
As quatro linhas adicionais aumentam a quantidade máxima de memória que o chip
é capaz de endereçar em 15 megabytes, elevando o total para 16 megabytes.
O 80286 também permitia o uso da memória virtual. Que ao contrário do que
se pensa, não se compõe de chips de memória. Ao contrário, as informações ficam
armazenadas em outro meio de memória de massa, podendo ser transferidas para a
memória física sempre que forem necessárias. Em conseqüência disso, o 80286 é
capaz de controlar até 1 gigabyte (1024 Megabytes) de memória total, 16 megabytes
físicos, e 1008 megabytes virtuais (Rosch (1993)).
Para manter a compatibilidade com os chips mais antigos, os engenheiros
da Intel dotaram o 80286 de dois modos operacionais. O Modo Real reproduzia
quase que exatamente o esquema de operação do 8086. A cópia foi tão perfeita que
o modo real herdou todas as limitações do 8086, inclusive a barreira de 1 megabyte
de memória. Essa restrição era obrigatória para que o 80286 identificasse os
endereços de memória da mesma maneira que o 8086.
Para tirar partido dos maiores recursos do tratamento de memória da
arquitetura 286, foi criado o Modo Protegido. Embora não fosse compatível com os
programas existentes para o 8086, o modo protegido permitia o uso de todos os 16
megabytes de memória real, além de 1 gigabyte de memória virtual, por qualquer
programa que fosse escrito especificamente para utilizar esses recursos. No
entanto, embora permitisse o uso de mais memória, ele continuava operando com
segmentos de memória de 64 kilobytes.
60
A utilização da palavra "protegido" no nome do modo sugere que ele provê
alguma proteção. Isso é correto, pois é possível inicializar as tabelas de segmentos
de tal maneira que quando o 80286 é utilizado para um sistema de
multiprogramação, cada processo pode ser impedido de acessar segmentos
pertencentes a outro processo.
A tabela abaixo, exibe algumas diferenças entre os processadores 8086,
8088 e 80286:
Proce
ssador
Largura
Registradores (bits)
Barrame
nto (bits)
Endereça
mento (bits)
8086 16 16 20
8088 16 8 20
80286 16 16 24
Diferenças entre 8086, 8088, 8286
80386
A grande evolução nos micros PC se deu na introdução do processador
80386, com ele os fabricantes de processadores, como a Intel tiveram base para
seus projetos futuros. No entanto, hoje todos os processadores disponíveis no
mercado possuem o funcionamento compatível com o processador 386 [TOR98].
Três características, inovações técnicas, formaram a base para o projeto do
processador 386. A primeira delas é que há tantas instruções para ir do modo
protegido quanto para voltar ao modo real; a segunda delas é a criação do modo
virtual 8086, programas escritos no modo real pudessem ser utilizados diretamente
dentro do modo protegido; e por sua vez a terceira característica que se baseia na
manipulação de dados a 32 bits o dobro da plataforma anterior. Além disso, estando
no modo protegido, o 80386 consegue acessar até 4 GB de memória (RAM) muito
mais que qualquer micro necessita. Isto ocorreu em meados dos anos 80, mas
somente por volta de 1990 tornaram-se comuns nos PCs que utilizavam este
microprocessador.
61
Microprocessador 80386. O da esquerda produzido pela AMD e o da direita, pela Intel.
Vamos descrever alguns recursos importantes do modo protegido do
80386 segundo [TOR98]:
Memória Virtual: com essa maneira de gerenciar, podemos simular um
computador com mais memória RAM do que ele possui. Ou seja, é uma técnica que
se baseia no ato de conseguir um arquivo do disco rígido de tamanho qualquer para
utilizar como uma memória extra, chamado arquivo de troca (swap file).
Proteção de Memória: como o processador acessa muita a memória,
podemos carregar diversos programas simultaneamente. Através da proteção da
memória, o processador é capaz de isolar cada programa em uma área de memória
bem definida, de modo que um programa não invada a área de memória que esteja
sendo utilizada por outro programa.
Multitarefa: graças à proteção de memória, o processador é capaz de saber
exatamente onde se encontra cada programa carregado na memória. Dessa forma,
ele pode executar automaticamente uma instrução de cada programa, parecendo
que os programas estão sendo executados simultaneamente.
Modo Virtual 8086: o modo protegido é, a rigor, incompatível com o modo
real. Como poderíamos executar programas de modo real em modo protegido?
Através do modo virtual 8086, o processador pode trabalhar como se fosse vários
processadores 8086 com 1 MB de memória (ou seja, um XT) simultaneamente. isso
significa que você pode ter, ao mesmo tempo, um ou mais programas de modo real
rodando dentro do modo protegido simultaneamente, cada programa achando que
está trabalhando em um processador 8086 “puro” e completamente “limpo”.
O encaixe o processador 80386SX tem um packaging inteiramente diferente
do 80286, e os dois chips não se encaixam no mesmo soquete. Com isso, alguns
62
PCs utilizaram uma placa adaptadora com circuitos auxiliares de multiplexação para
poder fazer com que o 80386SX se encaixe no soquete de um 80286.
Além da Intel, vários outros fabricantes produziram microprocessadores
386SX e 386DX. O principal deles foi a AMD. Foram lançadas versões de 16, 20, 25,
33 e 40 MHz.
“A velocidade desses processadores se originou-se de um funcionamento de
16 MHz, embora a primeira possibilidade tenha sido solenemente esnobada pelos
projetistas de computadores, para as quais a velocidade nunca é suficiente. Logo
após, uma versão de 20 MHz foi colocada no mercado. Em 1988, o limite chegou
aos 25 MHz, e logo depois passou para 33 MHz. Atualmente, algumas empresas
produzem chips que operam a 40 a 50 MHz.” [ROS93]
A Intel lançou o 80386SX como irmão menor do 80386. Internamente, o
80386SX é praticamente idêntico as 80386, com registradores de 32 bits reais e
todos os mesmos modos operacionais. Apenas uma diferença significativa separam
o 80386 do 80386SX. Em vez de interfacear com um bus de memória de 32 bits, o
80386SX foi projetado para um bus de 16 bits. Seus registradores de 32 bits têm
que ser preenchidos e duas etapas a partir de um canal de I/O de 16 bits. Com isso,
o 386SX é mais barato para o fabricante, embora no mercado daquela época o seu
preço não era tão baixo.
Sempre que citarmos o processador 80386, estamos nos referindo ao
modelo 80386DX que o seu sufixo significa “double word” (32 bits), ao contrário do
modelo anterior SX representando “single word” (16 bits)
Processador 80386SX, um 80386 de baixo custo.
80486
O processador 80486 foi o sucessor para aplicações mais “pesadas”, sendo
possível encontra-lo nos PCs no ano de 1991. Com uma versão inicial que operava
com um clock de 25 MHz. Dessa maneira, a Intel criou o 486 que na realidade
63
supera muito o desempenho de um 80386DX-25 em duas vezes, apesar de ter
apenas seis instruções a mais, mas para que esse desempenho fosse justificado, o
processador foi incorporado com circuitos em seu interior como:
Ω Coprocessador matemático;
Ω Memória cache interna de 8 KB.
Estando integrados diretamente dentro do microprocessador, esses
componentes fizeram com que o desempenho geral do PC subisse muito - um
circuito externo é mais lento, pois os dados demoram a ir e vir na placa de circuito
impresso.
“O cache de memória, a partir do 80486 passou a possuir dois caches de
memória; um dentro do processador, chamado cache de memória interno de 8 KB; e
um na placa-mãe do micro, chamado de cache de memória externo que hoje varia
na ordem de 256 KB e 512 KB.” [TOR98]
Microprocessador 80486
O processador mais barato da família é o 80486SX, disponíveis nas versões
de 25 e 33 MHz seguindo a mesma linha que seu processador antecessor. Este
microprocessador é uma versão de custo mais acessível, sendo assim, não era
dotado do coprocessador matemático interno. Para não haver confusão e manter a
padronização, foram usados os mesmos diferenciadores, “DX” para a versão
“standard” e “SX” para a versão “econômica”, que não tinha coprocessador
matemático interno. Portanto, quando citamos a nomenclatura “80486” estamos nos
referindo ao 80486DX trabalhando a 32 bits. Um usuário interessado em acrescentar
um coprocessador matemático ao 486SX poderia perfeitamente fazê-lo. Bastava
adquirir um 487SX, que para todos os efeitos, era o “coprocessador aritmético” do
486SX. As placas de CPU baseadas no 486SX em geral possuíam um soquete
64
pronto para a instalação deste chip. Entretanto, este tipo de instalação não era nada
vantajosa do ponto de vista financeiro. Era mais barato adquirir uma placa de CPU
equipada com o 486DX. O 486SX tanto foi considerado um erro, que os
concorrentes da Intel (AMD e Cyrix) não lançaram microprocessadores equivalentes.
Surgiram o:
80486DX-50 ou 80486DX2; que se estabeleceu pelo aumento da freqüência
de operação em que o processador é capaz de trabalhar, ou seja, 50 MHz
processador resultante da multiplicação do clock, que trabalha internamente com o
dobro da freqüência de operação da placa-mãe, ou seja, ele multiplica a freqüência
de operação da placa-mãe por 2. Acarretando problemas com as suscetíveis
interferências eletromagnéticas. Logo depois, a Intel lançou o 486DX2-66. Campeão
de velocidade de sua época, este microprocessador foi o mais vendido durante
1994. Este aumento de vendas ocorreu quando os preços caíam em virtude do
lançamento de microprocessadores equivalentes pela AMD e Cyrix. Veja os
processadores da época:
Ω Intel: 486DX2-50 e 486DX2-66;
Ω AMD: Am486DX2-50, Am486DX2-66 e Am486DX2-80;
Ω Cyrix: Cx486DX2-50, Cx486DX2-66 e Cx486DX2-80.
80486DX4; é um processador que trabalha com multiplicação do clock por 3.
Assim, um 80486DX4-75 trabalha, externamente, com 25 MHz e, internamente, com
75 MHz; o 80486DX4-100 trabalha, externamente, com 33 MHz e internamente, com
99 MHz. Sendo este mais rápido que os concorrentes por possuir 16 KB de memória
interna. Pouco depois da Intel, a AMD e a Cyrix também lançaram seus
microprocessadores 486DX4. São o Am486DX4 e o Cx486DX4. A AMD criou
versões de 100 e 120 MHz. A Cyrix lançou apenas o modelo 100 MHz.
“A Intel lançou também uma série paralela, a “SL”, que permite o
gerenciamento avançado de consumo elétrico alimentado por 5V, exceto o 486DX4
que é alimentado por 3V.” [TOR98]
65
O AMD Am 5x86
5x86 da AMD – um “486DX5”
Esse processador é na verdade, um “486DX5”, um 486 com quadruplicação
de clock. Tem cache de memória interno de 16 KB e é alimentado por 3,3 V.
Cyrix Cx 5x86
5x86 da Cyrix – um 486DX4 “turbinado”
Esse processador é uma versão do processador 6x86 para placas-mãe 486
e por esse motivo, consegue ser mais rápido que o 486DX4, ainda que utilize o
mesmo esquema de multiplicação de clock desse processador (triplicação de clock).
Tem um cache de memória interno de 16 KB e é alimentado por 3,5 V. Esse
processador é um 486DX4 “turbinado”.
PENTIUM
Pentium (Chipset P54c)
Também chamada de Pentium Classic, o Pentium é o primeiro
microprocessador considerado de 5ª geração. Fabricado pela Intel, foi lançado em
1993, nas versões de 60 e 66 MHz.
66
Os microprocessadores Pentium contêm mais de três milhões de
transistores e já incluem co-processador matemático e memória cache. Operava
com 5 volts, e apresentava muito aquecimento, mas com melhorias no projeto, a
Intel permitiu a operação com 3,5 volts, resultando num aquecimento bem menor.
Novas versões foram lançadas como a de 75, 90, 100, 120, 133, 155, 166 e 200
MHz. O Pentium é um microprocessador de 32 bits, mas com várias características
de 64 bits. Por exemplo: o seu barramento de dados, que dá acesso a memória é
feito a 64 bits por vez, o que significa uma maior velocidade, ele transporta
simultaneamente dois dados de 32 bits. Ao inverso do 486 que era de 32 bits por
vez. A freqüência de operação da placa mãe é a seguinte:
Processador Freqüência de Operação
Placa-mãe
Pentium 75 MHz 50 MHz
Pentium 60, 90, 120,155 MHz 60 MHz
Pentium 60, 100, 133, 166 e
200 MHz
66 MHz
Freqüência da Placa Mãe
A memória cache interna do Pentium(L1) é de 16 KB, sendo dividida em
duas, uma de 8 KB para armazenamento de dados e outra de 8 KB para instruções.
A arquitetura é superescalar em dupla canalização, ou seja o Pentium
funciona internamente como se fosse dois processadores 486, trabalhando em
paralelo. Dessa forma, ele é capaz de processar (2)duas instruções
simultaneamente. Os processadores Pentium pode trabalhar em placas-mãe com
mais de um processador diretamente, utilizando como conexão o soquete 7.
Pentium Pró (P6)
O Pentium Pro foi criado para ser o sucessor do Pentium, sendo
considerado como sexta geração.
Inicialmente foi lançado nas versões 150, 180 e 200 MHz. Opera com 32 bits
e utiliza memória de 64 bits, da mesma forma como ocorre com o Pentium. Seu
projeto foi otimizado para realizar processamento de 32 bits, sendo neste tipo de
67
aplicação mais rápido que o Pentium comum, só que ao realizar processamento de
16 bits perde para o Pentium comum.
O Pentium Pro possui uma memória cache secundária dentro do próprio
processador. Com isso, aumenta-se o desempenho do processador, ou seja, a
freqüência usada será a mesma de operação interna do processador.
A arquitetura do Pentium Pro é superescalar em tripla canalização, é capaz
de executar (3)três instruções simultaneamente.
O núcleo do Pentium Pro é RISC, só que para ele ser compatível com
programas existentes, foi adicionado um decodificador CISC na sua entrada. Dessa
forma, ele aceita programa CISC, porém os processa em seu núcleo RISC. O
Processador do Pentium Pro pode ser utilizado em placas-mãe com dois ou quatro
processadores.
Para seu melhor desempenho é usado quantidades elevadas de memória,
fazendo que seu uso fosse direcionado para servidores, ao invés de computadores
domésticos ou de escritórios.
A conexão utilizada pelo processador é chamada de soquete 8. Esse
soquete é bem maior que o soquete 7 utilizado no Pentium Clássico(Pentium
Comum).
Pentium MMX (P55c)
Ω Versões: 166 MMX, 200 MMX, 233 MMX MHz;
Visando aumentar o desempenho de programas que fazem processamento
de gráficos, imagens e sons, a Intel adicionou ao microprocessador Pentium, 57
novas instruções específicas para a execução rápida deste tipo de processamento,
elas são chamadas de instruções MMX (MMX=Multimedia Extensions). Uma única
instrução MMX realiza o processamento equivalente ao de várias instruções
comuns. Essas instruções realizam cálculos que aparecem nos processamentos de
sons e imagens.
As instruções MMX não aumenta a velocidade de execução dos programas,
mas possibilita que os fabricante de software criem novos programas, aproveitando
este recurso para que o processamento de áudio e vídeo fique mais rápido.
68
Segundo testes (INFO/Fev/97), o ganho de velocidade nessas operações pode
chegar a 400%.
O Pentium MMX possui uma memória cache interna de 32 KB e trabalha
com níveis duplos de voltagem: externamente a 3,3 volts enquanto o núcleo do
processador opera a 2,8 volts. A conexão é feita através do Soquete 7, ou seja,
possui o mesmo conjunto de sinais digitais que o Pentium comum.
A freqüência de operação na placa mãe é de 66 MHz.
Pentium II (i440Bx)
Sucessor do Pentium MMX, com velocidades de 300, 333, 350, 400 MHz.
Possui barramento de 100 MHz, e é encapsulado em um envólucro(cartucho) que
engloba o processador e a cache externa(L2), este envólucro metálico facilita a
dissipação do calor.
A memória cache primária(L1) continua sendo 32 KB igual ao Pentium MMX,
sendo que a memória secundária(L2) não está mais dentro do processador e sim no
próprio cartucho, ao lado do processador.
O Pentium II permite o multiprocessamento de dois processadores. Sua
conexão na placa-mãe é feita através do seu conector próprio, chamado de slot 1.
CELERON
Celeron 233, 266, 300, 330 MHz
A Intel lançou em abril/98, uma versão especial do Pentium II, chamada de
Celeron. Este processador pode ser instalado nas mesmas placas de CPU
projetadas para o Pentium II. Nas suas primeiras versões, operava com clock
externo de 233 MHz, e clock interno de 66 MHz, e não possuía memória cache
secundária(cache de nível 2). Com isto o processador tinha o preço baixo em
relação aos concorrentes. O encapsulamento usado em todos os processadores
Celeron e do tipo SEPP (Single Edge Processor Package), um novo mecanismo
para dissipação do calor, similar ao SEC (Single Edge Contact) só que vem sem o
invólucro(cartucho). Sua conexão é feita através do soquete 7.
Hoje já encontramos o microprocessador Celeron de 300 e 330 MHz que
são dotados de 128 KB de memória cache secundária(L2) .
69
O Celeron pode ser considerado um Pentium II Light. O chipset (conjunto de
chips que complementam o processador 440EX) criado para ele, é uma versão
simplificada dos modelos Pentium II. Sua principal limitação está na capacidade para
expansão, micros com esse processador podem ter apenas três conectores PCI e
dois conectores para memória. Em compensação, o processador Celeron suporta
vídeo AGP, memória do tipo SDRAM e discos UltraATA.
Pentium III (440Bx)
Projetado para a Internet, o processador Pentium III vem com clock de 450 e
500 MHz, e com 70 novas instruções que habilita aplicativos de processamento
avançados de imagens, 3D, áudio e vídeo, e reconhecimento de voz. Seu
barramento é de 100 MHz, com memória cache secundária de 512 KB.
(Obs.: PCs baseados no novo processador Pentium III estarão disponíveis a
partir deste mês).
AMD
AMD X5 - conhecido como AMD 5x86 com velocidade de 133 MHz, foi
projetado para competir com o Pentium de 60 e 66 MHz, e possuía um desempenho
similar ao de um Pentium 75.
AMD K5 - de 133 MHz foi o primeiro microprocessador compatível com o
Pentium lançado pela AMD. Apesar de veloz, inteiramente compatível com o
Pentium e bem mais barato, demorou muito a chegar ao mercado. A Intel já tinha
lançado o Pentium 200 MMX.
AMD K6 - este chip é o mais recente da família AMD, muito mais rápido que
o K5, vem com instruções MMX, mais barato e mais rápido que um Pentium MMX do
mesmo clock..
2.4 ARQUITETURA CISC X RISC
CISC x RISC
70
O conceito dos processadores RISC é utilizar um conjunto reduzido de
instruções de linguagem de máquina (computador com conjunto de instruções
reduzido) em contraste com os processadores CISC (computador com conjunto de
instruções complexo).
Os primeiros processadores projetados tinham um grande problema que era
a produção de software que pudessem rodar nestas máquinas. Era necessário que
o programador tivesse conhecimentos profundos sobre o processador que ele ia
desenvolver, pois ele tinha que escrever programas em linguagem de máquina
pura.
Visto essa dificuldade, os projetistas de hardware desenvolveram uma nova
técnica, chamada microprogramação (instruções). Microprogramação nada mais é
do que criar novas funções que são adicionadas diretamente no hardware,
facilitando assim o trabalho do programador.
Novas instruções foram criadas, como por exemplo para tratar de comandos
case e multiplicações. Conforme eram percebido novas necessidades, os
projetistas criavam novas instruções e o adicionavam ao processador. Foi-se então
sobrecarregando os processador com inúmeras instruções, tornando-o complexo,
surgindo assim o termo CISC.
A adição de novos microcódigos acaba tornando o processador mais lento.
Então os projetistas criavam um modo de aumentar a velocidade do processador
para compensar a lentidão resultante dos microcódigos. Mas, está chegando o dia
onde não é mais possível aumentar a velocidade dos processadores sem aumentar
o tamanho físico.
Um das formas para solucionar problemas era utilizar microcódigos. Havia
um outro modo de solucionar esses problemas: a criação de software que pudessem
substituir esses microcódigos. Mas, para que isso fosse colocado em prática era
necessário a redução da diferença de velocidade entre a memória principal e a CPU,
o que tornava inutilizável essa segunda opção.
Em exames feitos em programas que rodam em processadores CISC, foi
descoberto que 85 % do programa consiste em apenas três instruções:
assinalamentos, comandos if e chamadas de procedimentos. Conclui-se então que
é desnecessário a adição de microprogramas que quase ou nunca são utilizados.
Porém, com o tempo, houve um aumento significativo da velocidade das
memórias, possibilitando assim a utilização de software em substituição dos
71
microprogramas. Mas existe uma curiosidade, antes da invenção dos
microprogramas todos os processadores eram processadores RISC, com instruções
simples executadas diretamente no hardware. Depois que a microprogramação
tomou conta, os computadores se tornaram mais complexos e menos eficientes.
Agora a indústria está voltando às suas raízes, e construindo máquinas rápidas e
simples novamente.
A descoberta crítica que tornou as máquinas RISC viáveis foi o que é
bastante interessante, uma avanço de software, e não de hardware. Foi o
aprimoramento da tecnologia de otimização de compilação que tornou possível gerar
microcódigos pelo menos tão bom quanto, se não for melhor, que o microcódigo
manuscrito.
Mas, como tudo na vida tem problemas, os processadores RISC também
tem as suas desvantagens. Uma delas é na execução de uma multiplicação, em
processadores RISC é necessário sintetizar uma série de formas, dependendo dos
operandos. Outra desvantagem é, que sem ajuda de hardware especial, máquinas
RISC não são boas para cálculos em ponto flutuante.
A primeira máquina RISC moderna foi o minicomputador 801 construído pela
IBM, começando em 1975, Entretanto, a IBM não publicou nada a seu respeito até
1982. Em 1980, um grupo em Berkeley, liderado por David Patterson e Carlo
Séquin, começou a projetar pastilhas RISC VLSI. Eles criaram o termo RISC e
batizaram sua pastilha de CPU de RISC I, seguida de perto pela RISC II. Um pouco
mais tarde, em 1981, do outro lado da baía de São Francisco, em Stanfor, John
Hennessy projetou e fabricou uma pastilha RISC um pouco diferente, que ele
chamou de MIPS.
Esta três máquinas RISC são comparadas a três máquinas CISC na Tabela.
Cada uma delas levou diretamente a importantes produtos comerciais. O 801 foi o
ancestral do IBM PC/RT, o RISC I foi a inspiração do projeto SPARC da Sun
Microsystems, e a pastilha MIPS de Stanford levou à formação da MIPS Computer
Systems.
72
CISC RISC
Modelo IBM
370/168
V
AX
11/780
Xerox
Dorado
IBM 801 Berkeley
RISC I
Stanford
MIPS
Ano em que
ficou pronto
1973 1978 1978 1980 1981 1983
Instruções 208 303 270 120 3 55
Tamanho do
Microcódigo
54K 61
K
17K 0 0 0
Tamanho da
Instrução
2-6 2-
57
1-3 4 4 4
Modelo de
Execução
Reg-reg
Reg-mem
Mem-mem
Reg-reg
Reg-mem
Mem-
mem
Pilha Reg-reg Reg-reg Reg-reg
Tabela: Comparação entre três máquinas CISC típicas com as três primeiras máquinas
RISC. Os tamanhos de instrução e de microcódigo estão bytes
2.4.1 Princípios técnicos de máquinas RISC
Vamos primeiro apresentar uma breve descrição da filosofia básica de
projeto RISC. Projetar uma máquina RISC tem cinco passos básicos:
Analisar as aplicações para encontrar as operações-chave;
Projetar uma via de dados que seja ótima para as operações-chave;
Projetar instruções que executem as operações-chaves utilizando a via de
dados;
Adicionar novas instruções somente se elas não diminuírem a velocidade da
máquina;
Repetir este processo para outros recursos.
O coração de qualquer computador é a sua via de dados, que contém os
registradores, a ALU e os barramentos que os conectam. Este circuito deve ser
73
otimizado para a linguagem ou aplicações em questão. O tempo requerido para
buscar os operandos a partir de seus registradores, executá-los através da ALU e
armazenar o resultado de volta em um registrador, chamado de tempo de ciclo da
via de dados, deve ser o mais curto possível.
O próximo passo é projetar as instruções de máquina que façam bom uso da
via de dados. Apenas algumas instruções e modos de endereçamento são
tipicamente são tipicamente necessários. Instruções adicionais devem apenas ser
adicionadas se elas forem freqüentemente utilizadas e não reduzirem o desempenho
das mais importantes. A Regra de Ouro número 1 diz:
Sacrifique tudo para reduzir o tempo de ciclo da via de dados
Sempre que se resolver adicionar uma nova instrução ao processador, ela
deve ser examinada sob esta luz: como ela afeta o tempo de ciclo da via de dados?
Se ela aumentar o tempo de ciclo, provavelmente não vale a pena tê-la.
Finalmente, o mesmo processo deve ser repetido para todos os outros
recursos dentro da CPU, tais como memória cache, gerenciamento de memória,
co-processadores de ponto flutuante, e assim por diante.
Máquinas RISC podem diferir de suas concorrente CISC de oito formas
críticas, como listado na Tabela.
RISC CISC
1Instruções simples levando 1 ciclo Instruções complexas levando
múltiplos ciclos
2Apenas LOADs/STOREs referenciam
a memória
Qualquer Instrução pode referenciar a
memória
3 Altamente pipelined Não tem pipeline, ou tem pouco
4Instruções executadas pelo hardware Instruções executadas pelo
microprograma
5 Instruções com formato fixo Instruções de vários formatos
6 Poucas instruções e modos Muitas instruções e modos
7 A complexidade está no
compilador
A complexidade está no
microprograma
74
8 Múltiplos conjuntos de
registradores
Conjunto único de
registradores
Tabela - Características das máquinas RISC e CISC
2.4.2 Uma Instrução por Ciclo da Via de Dados
Em certo sentido, nome Reduced Instruction Set Computer, não é um bom
nome. Enquanto é verdade que a maioria das máquinas RISC têm relativamente
poucas instruções, a característica única mais importante que as distingue das
máquinas CISC é que as instruções RISC são completadas em um único ciclo da via
de dados.
Uma conseqüência do princípio de que toda instrução RISC deve gastar um
ciclo é que qualquer operação que não possa ser completada em um ciclo não pode
ser incluída no conjunto de instruções Assim, muitas máquinas RISC não possuem
instruções para multiplicação ou divisão. Na prática, a maioria das multiplicações
são formadas por pequenas constantes conhecidas em tempo de compilação, de
modo que elas podem ser simuladas por seqüências de somas e deslocamentos.
Instruções de ponto flutuante são executadas por um co-processador.
2.5 INSTALANDO UM CPU AMD (SEGUNDO PROCEDIMENTO TÉCNICO)
A instalação inadequada do processador AMD Athlon™ ou AMD Duron™
pode influenciar negativamente seu funcionamento e anular a cobertura da garantia.
NÃO instale o processador se tiver sido danificado!
Tenha Cuidado com a Eletricidade Estática
Os processadores AMD Athlon e AMD Duron e todas as placas-mãe de
computador contêm componentes eletrônicos sensíveis que podem ser danificados
com facilidade pela eletricidade estática. Recomendamos que você deixe o
processador e a placa-mãe em sua embalagem original até que esteja preparado
para instalá-los. O instalador deve tocar somente nas bordas do processador e
nunca em seus pinos.
75
Nunca toque em um processador sem usar uma pulseira antiestática
aterrada em funcionamento. Recomendamos que a desembalagem e instalação
sejam realizadas sobre um carpete antiestático aterrado. Tanto a pulseira quanto o
carpete antiestáticos devem estar aterrados no mesmo ponto.
Após a remoção do processador de sua embalagem, coloque-o diretamente
sobre o carpete antiestático.
2.5.1 Procedimento de Instalação
Você deve seguir os procedimentos passo a passo relacionados nas páginas
a seguir para instalar com sucesso os processadores AMD Athlon e AMD Duron na
placa-mãe de um sistema de computador pessoal. Qualquer variação desse
procedimento poderá resultar em uma falha de processador.
Você pode instalar o processador na placa-mãe tanto antes quanto depois
da instalação dela no chassi do sistema. Geralmente, é mais fácil instalar o
processador na placa-mãe antes da instalação do conjunto todo no gabinete.
Normalmente, é melhor instalar o processador e o dissipador de calor antes
da instalação de quaisquer pentes de memória.
É recomendável que você faça um encaixe experimental do dissipador de
calor no soquete do processador para verificar se o cabo de alimentação da
ventoinha pode alcançar com facilidade um conector designado.
76
Cuidado: Nunca instale o processador se o dissipador de calor não estiver
encaixado de maneira adequada e firme. HAVERÁ FALHA TÉRMICA SE A MEDIDA
DE PRECAUÇÃO NÃO FOR SEGUIDA – O PROCESSADOR SERÁ DANIFICADO
PERMANENTEMENTE.
Observação: Neste manual, o processador AMD Athlon ou AMD Duron é
instalado no Socket A da placa-mãe antes da instalação do conjunto
placa-mãe/processador no chassi do sistema. Normalmente, esse é o melhor
método de instalação do processador e do dissipador de calor.
1. A Figura a seguir mostra o soquete do processador em uma placa-mãe.
Observe que a alavanca de liberação na lateral do soquete está voltada para baixo.
Essa posição é usada para travar o processador no lugar correto. Antes da
instalação do processador, em primeiro lugar é necessário levantar um pouco essa
alavanca pelas laterais a fim de destravá-la e, depois, suspendê-la completamente
(até que fique praticamente em ângulo reto).
Soquete do Processador com a Alavanca Voltada para Baixo.
2. A Figura abaixo mostra a alavanca de liberação levantada
completamente. A alavanca deve estar em uma posição totalmente levantada antes
que o processador possa ser instalado.
Observação: Neste manual, a frase “parte superior do soquete” refere-se à
extremidade do soquete com a inscrição “Socket 462”.
77
Soquete do Processador com a Alavanca Levantada.
3. A Figura a seguir mostra a parte inferior (lado dos pinos) do processador.
Observe o ângulo existente na disposição dos pinos nos dois cantos superiores da
figura e a inexistência de pinos em nenhum desses cantos. Observe também que
não há posições para pinos nos cantos superiores do soquete (próximo à região com
a inscrição “Socket 462”). O processador deve ser posicionado de modo que os
padrões de pinos de soquete e processador coincidam. Quando posicionado
adequadamente, o canto com ângulo de 45° do processador ficará próximo à
articulação de liberação.
Parte Inferior do Processador que Mostra as Chaves de Pinos de Canto.
4. A próxima Figura mostra o processador sendo encaixado no soquete.
Observe que o canto localizado próximo à articulação da alavanca de liberação tem
78
ângulo de 45°. Essa é a constatação de que o processador foi instalado
adequadamente.
Não deve ser necessária muita força para se instalar o processador. Este é
um soquete com força de encaixe zero (geralmente conhecido como soquete ZIF).
Se o processador não for encaixado no soquete, verifique o alinhamento dos pinos e
certifique-se de que a alavanca de liberação esteja levantada completamente. Se a
instalação do processador exigir um pouco mais de força, isso significará que
alguma coisa está errada. (Verifique os pinos e a posição da alavanca.)
Colocando o Processador no Soquete.
5. A Figura a seguir mostra o processador instalado e a alavanca de
liberação abaixada para travar o processador no lugar correto. Com o processador
agora instalado de maneira apropriada, o conjunto dissipador de calor/ventoinha
pode ser encaixado.
AVISO: Não inicialize o processador sem que o dissipador de calor esteja
encaixado de maneira adequada e firme. O PROCESSADOR SOFRERÁ FALHA
TÉRMICA E O RESULTADO SERÃO DANOS PERMANENTES!
Observe as proteções de borracha em cada canto do processador. Essas
proteções são necessárias para garantir a instalação adequada do dissipador de
calor. Elas nunca devem ser removidas. Deve haver quatro proteções. Se estiver
faltando uma proteção, devolva o processador ao seu fornecedor. Não o utilize –
pode haver danos ao módulo.
Observe também as orelhas no soquete. Nas etapas posteriores, as orelhas
centrais serão usadas para a instalação do dissipador de calor.
79
Processador Instalado e Avalanca Abaixada.
6. A próxima Figura dá uma amostra dos conjuntos típicos de dissipador de
calor comumente usados em processadores AMD encaixados em soquete. Observe
que os conjuntos variam em tamanho, densidade das palhetas de refrigeração e
design da presilha. O dissipador de calor apropriado a ser usado será determinado
pela:
• Lista de soluções térmicas aprovadas no Web site da AMD.
• Disponibilidade da solução térmica aprovada na sua localidade.
Conecte-se ao Web site www.amd.com para obter uma listagem de
dissipadores de calor/ ventoinhas testados recomendados pela AMD. Use somente
um conjunto dissipador de calor/ventoinha testado e recomendado pela AMD para o
modelo e a velocidade do seu processador AMD. O dissipador de calor adequado é
essencial.
Observe os dois tipos diferentes de presilhas de retenção do dissipador de
calor indicados na Figura. A presilha com um pequeno gancho é projetada para ser
instalada com a extremidade aberta de uma chave de porca (semelhante a uma
chave de fenda com um soquete encaixado).
A presilha com a extremidade de abertura de encaixe é projetada para ser
empurrada com uma chave de fenda inserida na abertura de encaixe.
80
Cuidado: Ao encaixar a presilha do dissipador de calor com qualquer uma
das ferramentas de instalação, tenha extremo cuidado para pressioná-la para baixo.
Se a ferramenta escorregar para fora da presilha, a placa-mãe do sistema poderá
ser danificada.
Típicos Dissipadores de Calor Adequados para Uso com Processadores AMD Socket A.
7. A Figura a seguir mostra a parte inferior de um dissipador de calor com
rebaixo. A parte com rebaixo encaixa-se na parte superior do soquete, onde a
inscrição “Socket 462” está moldada no plástico. Quando o dissipador de calor é
instalado corretamente, a base do dissipador de calor não toca em nenhuma parte
do soquete.
Cuidado: O processador sofrerá superaquecimento e falhará se o dissipador
de calor não for instalado de modo que fique acomodado em posição paralela à
parte superior do processador ou se o dissipador de calor tocar em qualquer parte
do soquete. Isso poderá resultar em danos permanentes ao processador.
81
Parte Inferior do Dissipador de Calor com Superfície de Base com Rebaixo.
8. A próxima Figura mostra a parte inferior do dissipador de calor menor da
página anterior. Esse dissipador de calor tem uma base lisa e seu encaixe no
processador é determinado pela presilha de retenção assimétrica usada para
prender o dissipador de calor ao processador.
Parte Inferior do Dissipador de Calor Pequeno com Superfície de Base Lisa.
9. A Figura a seguir mostra o método apropriado para remoção da película
plástica do composto condutor térmico de mudança de fase.
Observação: O composto térmico de mudança de fase é muito importante
para que o dissipador de calor seja eficiente e tenha ótimo desempenho. O
82
composto deve ser aplicado de maneira uniforme à superfície do dissipador de calor,
de modo que (basicamente) se derreta e preencha todos os interstícios
microscópicos nas superfícies do processador e do dissipador de calor com um
material condutor térmico.
Cuidado: Se você nunca instalou um dissipador de calor com esse tipo de
material térmico de mudança de fase, sugerimos que você não remova essa película
até que tenha treinado a instalação do dissipador de calor e a montagem das
presilhas no soquete. Talvez sejam necessárias algumas tentativas até que você se
familiarize com o procedimento. Se estiver interessado em acostumar-se com o
processo, ignore a etapa de remoção da película por enquanto e prossiga com a
repetição das etapas de 10 a 19.
Observe na Figura a seguir que é necessário puxar a película rapidamente
em ângulo reto em relação à base. Um rápido movimento de suspensão é o melhor
método para remoção dessa película. Esteja ciente de que:
• Após a remoção da película, é necessário instalar imediatamente o
dissipador de calor.
• O composto térmico não deve entrar em contato com nenhum material
estranho.
Cuidado: Não remova o dissipador de calor do processador após sua
instalação permanente.
O material adesivo térmico de mudança de fase não pode ser reaproveitado.
Remova a película plástica completamente do dissipador de calor durante a
instalação para evitar o superaquecimento do processador ou danos a ele
decorrentes da alimentação de força. Preste muita atenção aos procedimentos
descritos neste documento para não deixar passar despercebida uma etapa
fundamental.
83
Puxe a Película do Material Térmico com um Movimento Rápido.
10. A próxima Figura mostra a maneira ERRADA de instalar o dissipador de
calor. Não incline nem empurre o dissipador de calor contra o processador porque
esse procedimento aumenta os riscos de rachadura do módulo do processador. Em
vez disso, instale cuidadosamente o dissipador de calor com sua parte inferior
praticamente em posição paralela à superfície superior do processador.
Quando é instalado de maneira adequada, o dissipador de calor se acomoda
sobre as quatro proteções de borracha. O dissipador de calor entrará em contato
com o módulo do processador somente quando a presilha de retenção estiver
totalmente instalada.
Cuidado: Nunca empurre o dissipador de calor para baixo. Esse
procedimento pode provocar danos irreparáveis ao módulo do processador. Toda a
força deve ser aplicada somente na presilha.
84
MANEIRA ERRADA de Instalar um Dissipador de Calor do Processador AMD Socket A.
11. A Figura a seguir mostra uma vista lateral do dissipador de calor com a
presilha de retenção na parte inferior do dissipador de calor. Certifique-se de que a
presilha de retenção esteja nessa posição antes de tentar instalá-lo. Observe que a
presilha não é simétrica. A extremidade maior sempre é encaixada na parte superior
do soquete (a extremidade com a inscrição “Socket 462”), enquanto a extremidade
menor é encaixada na parte inferior do soquete. Não importa qual dissipador de
calor seja usado, a presilha sempre deve ser instalada da mesma maneira.
Para obter melhores resultados, sempre instale o processador e seu
dissipador de calor antes da instalação de quaisquer pentes de memória.
Observe também a maneira como o dissipador de calor se acomoda sobre
as proteções de borracha. Essas proteções são importantes para a instalação
apropriada do dissipador de calor porque impedem que este provoque solavancos
ou rachaduras no módulo do processador.
AS PROTEÇÕES SÃO ESSENCIAIS. NÃO AS REMOVA!
85
Vista Lateral do Dissipador de Calor e da Presilha em um Processador AMD Socket A.
12. A próxima Figura mostra a primeira etapa na instalação do dissipador de
calor. O dissipador de calor deve ser acomodado no processador com a extremidade
menor da presilha encaixada na orelha central na parte inferior do soquete. O
dissipador deve ser encaixado nessa orelha somente com a pressão dos dedos.
Observação: A parte inferior do dissipador de calor fica em posição quase
paralela à parte superior do processador. Esse é o único método adequado para
instalação do dissipador de calor.
Cuidado: Nunca empurre o dissipador de calor para baixo. Esse
procedimento pode provocar danos irreparáveis ao módulo do processador. Toda a
força deve ser aplicada somente na presilha.
86
Método Adequado para Instalação do Dissipador de Calor no Processador.
13. A Figura a seguir mostra uma vista lateral do dissipador de calor com a
presilha instalada na orelha central na parte inferior do soquete. Observe como o
dissipador de calor fica acomodado sobre as proteções de borracha e não sobre o
processador. Quando a presilha de retenção é instalada completamente, as
proteções de borracha são comprimidas e o dissipador de calor toca na superfície do
módulo do processador.
Observação: A Figura ilustra a extremidade da presilha que passa por cima
da parte superior do soquete (a parte do soquete com a inscrição “Socket 462”) e é
maior que a outra extremidade. A presilha tem forma assimétrica para permitir que o
ponto de pressão atue diretamente sobre o módulo do processador. Embora
aparentemente na foto a presilha esteja muito distante para um lado, quando o outro
lado é instalado, o ponto de contato da presilha é centralizado no módulo do
processador.
87
Dissipador de Calor Parcialmente Instalado e Acomodado sobre as Proteções de Borracha.
14. A próxima Figura mostra a MANEIRA ERRADA de posicionar o
dissipador de calor. Observe como a região inferior da parte com rebaixo do
dissipador de calor de alumínio fica acomodada na extremidade com ressalto do
soquete e não na parte com rebaixo do módulo do processador.
Se o dissipador de calor não estiver em contato com toda a superfície do
módulo do processador, o dissipador de calor não estará operante. Isso provocará
SUPERAQUECIMENTO E FALHA DO PROCESSADOR! Certifique-se sempre de
que a superfície do dissipador de calor não esteja em contato com nenhuma parte
do soquete.
Esse problema pode ser causado pela instalação inadequada da presilha de
retenção. Sempre instale a presilha somente nas orelhas centrais. As orelhas
externas não têm nenhuma função por enquanto. O rebaixo no dissipador de calor
deve ser instalado de modo que não fique acomodado na parte do soquete com a
inscrição “Socket 462”.
Cuidado: Não reutilize o dissipador de calor se este foi instalado
inadequadamente. Após o composto térmico de mudança de fase entrar em contato
com a superfície do processador, o dissipador de calor deverá ser substituído, uma
vez que o material de mudança de fase não pode ser reutilizado.
88
Certifique-se de que o Dissipador de Calor Seja Acomodado Adequadamente sobre o Processador!
15. A Figura a seguir mostra a presilha do dissipador de calor sendo
instalada na orelha central naparte superior do soquete do processador. Para
instalar essa presilha, empurre firmemente apenas na extremidade da presilha. A
instalação da presilha normalmente exige uma pressão de 82760 a 165520 N/m2.
Observação: a utilização de uma chave de fenda com cabo bem grande e
uma lâmina pequena fará com que a carga seja distribuída por uma área maior das
mãos do instalador. O uso da ferramenta apropriada facilitará a execução desse
procedimento. Chaves de fenda como essa normalmente estão disponíveis nas
melhores casas de ferragens.
A Figura mostra a presilha do dissipador de calor sendo empurrada para
baixo com uma chave de fenda inserida na abertura de encaixe na extremidade da
presilha. O procedimento básico é a aplicação de força para baixo na presilha.
Empurrando a Presilha do Dissipador de Calor para Baixo.
89
16. A Figura abaixo mostra a presilha sendo empurrada para fora da orelha.
Empurre para baixo com um leve movimento para fora, de modo que a presilha
passe por fora da orelha no soquete.
Empurrando a Presilha para Fora da Orelha do Soquete.
17. A próxima Figura mostra a presilha sendo travada firmemente na orelha
central. Mantenha a presilha no mesmo nível da orelha e aplique uma leve pressão
para dentro, de modo que a presilha seja encaixada na orelha central na
extremidade superior do soquete.
Travando a Presilha na Orelha do Soquete.
18. A Figura a seguir mostra uma das etapas de instalação usando uma
chave de porca em vez da chave de fenda. Todas as etapas e operações são
idênticas, com exceção da escolha da ferramenta usada. Sempre instale o
processador antes de instalar os pentes de memória.
90
Instalação da Presilha com uma Chave de Porca.
19. Não importa qual ferramenta seja usada, a presilha deve estar alinhada
com as orelhas centrais do soquete para que seja encaixada. A Figura a seguir
mostra a presilha alinhada com a orelha. Esse alinhamento é essencial para que a
presilha seja travada. Em caso contrário, a presilha poderá ficar fixada no lugar
correto em apenas uma orelha e, por fim, poderá se soltar.
Cuidado: Certifique-se de que a presilha tenha sido suspendida acima da
orelha, de modo que esteja completamente encaixada e não apenas acomodada na
borda da orelha central do soquete. A instalação inadequada poderá provocar o
rompimento da orelha do soquete.
Observação: Inspecione o soquete e a presilha a partir das vistas lateral (de
perfil) e superior (de cima) para verificar a execução da instalação apropriada.
Se esta for uma operação de encaixe de teste, para remover o dissipador de
calor, simplesmente empurre a presilha para baixo que ela se soltará da orelha
(normalmente). Se não se soltar, use a ferramenta de inserção e inverta o
procedimento de instalação.
91
Certifique-se de que a Presilha Esteja Alinhada com a Orelha.
20. Após a instalação do dissipador de calor, a etapa seguinte é conectar a
ventoinha. A próxima Figura mostra o fio da ventoinha do dissipador de calor sendo
ligado ao conector da placa-mãe com a inscrição “CPU FAN”. Esse conector tem
uma chave para que o cabo de força somente possa ser instalado de um único
modo. Se não houver um conector com a inscrição “CPU FAN” na placa-mãe, leia o
respectivo manual para saber onde a ventoinha deve ser conectada.
Na Figura, observe também o modo como o excesso de fios está reunido de
maneira organizada e longe do fluxo de ar exigido pela ventoinha. Se o fluxo de ar
for bloqueado, a ventoinha não funcionará de maneira adequada.
Observação: Nunca permita que o cabo de força entre em contato com as
pás da ventoinha nem que o cabo bloqueie o fluxo de ar à ventoinha. Deve haver
pelo menos cerca de 2,5 cm de folga acima da ventoinha para garantir um bom fluxo
de ar.
92
Ligando o Cabo de Força da Ventoinha no Conector da Placa-mãe.
Se os fios forem muito curtos ou se estiverem excessivamente esticados,
geralmente a ventoinha pode ser reposicionada para permitir menor tensão nesses
fios. Se você estiver executando um encaixe de teste do dissipador de calor ao
processador, remova o dissipador de calor e execute as etapas a seguir. Se a
película protetora no dissipador de calor tiver sido removida e este tiver sido
instalado no processador, siga cuidadosamente as instruções a seguir com o
processador ainda encaixado na placa-mãe.
a. Faça uma marca na parte superior do alojamento da ventoinha, de modo
que não seja reinstalado do lado errado.
b. Solte e remova os parafusos que prendem a ventoinha.
c. Faça um encaixe experimental da ventoinha em uma orientação mais
adequada.
d. Verifique se o novo encaixe solucionará o problema.
e. Aperte os parafusos e verifique se as pás da ventoinha giram livremente
apenas com a pressão dos dedos.
f. Após a verificação de que tudo pode ser montado de maneira apropriada,
reinstale o dissipador de calor e continue.
21. Agora o dissipador de calor e a ventoinha estão completamente
instalados. A Figura abaixo mostra a instalação.
93
Com o Dissipador de Calor Instalado, é Possível Verificar Novamente a Instalação.
Antes de inicializar o sistema, certifique-se de verificar os seguintes itens:
• Se a superfície do dissipador de calor não está em contato com nenhuma
parte do soquete.
• Se a película protetora do material térmico foi realmente removida.
• Se a extremidade maior da presilha está encaixada adequadamente na
parte superior do soquete.
• Se a presilha de retenção do dissipador de calor está acomodada
completamente em ambas as orelhas centrais do soquete.
• Se a ventoinha do dissipador de calor está ligada ao conector adequado.
Quando o sistema for inicializado pela primeira vez, verifique se a ventoinha
do dissipador de calor está girando a uma velocidade relativamente rápida. É muito
fácil ter apertado excessivamente os parafusos no momento da instalação, o que
provoca o emperramento do alojamento da ventoinha. Se a ventoinha não estiver
girando de maneira adequada, certifique-se de que todos os parafusos estejam
apertados corretamente.
2.6 MEMÓRIAS
94
Apesar das diferenças existentes na implementação de cada um dos tipos
de memória, um certo conjunto de princípios básicos de operação permanece o
mesmo para todos os sistemas de memória.
Cada sistema requer um conjunto de tipos diferentes de entrada e saída
para realizar as seguintes funções:
Ω Selecionar o endereço que está sendo acessado para uma
operação de leitura ou escrita.
Ω Selecionar a operação a ser realizada, leitura ou escrita.
Ω Fornecer os dados de entrada para a operação de escrita.
Ω Manter estáveis as informações de saída da memória
resultantes de uma operação de leitura, durante um tempo
determinado.
Ω Habilitar ( ou desabilitar ) a memória, de forma a fazê-la ( ou não
) responder ao endereço na entrada e ao comando de leitura/escrita.
2.6.1 MEMÓRIAS DE LEITURA – ROM
As ROMs são usadas para guardar instruções e dados que não vão mudar
durante o processo de operação do sistema.
Uma vez que as ROMs são não-voláteis, os dados nela armazenados não
se perdem quando o equipamento é desligado.
Uma das principais aplicações da ROM é no armazenamento de alguns
programas do sistema operacional dos microcomputadores, e também para
armazenar informações em equipamentos controlados por microprocessadores,
como caixas registradoras eletrônicas, sistemas de segurança industrial e diversos
aparelhos eletrodomésticos.
Para alguns tipos de ROM, os dados que estão armazenados foram
gravados durante o processo de fabricação da memória. Para outros tipos, os dados
são gravados eletricamente.
95
O processo de gravação de dados é chamado de programação, ou queima,
da ROM. Algumas podem apagar e regravar seus dados quantas vezes forem
necessárias.
TIPOS DE MEMÓRIAS DE LEITURA - ROM
ROM PROGRAMADA POR MÁSCARA - MROM
Este tipo tem suas posições de memória escritas ( programadas ) pelo
fabricante de acordo com as especificações do cliente. Um negativo fotográfico,
denominado máscara, é usado para especificar as conexões elétricas do chip. Uma
máscara diferente é requerida para cada conjunto de informações a ser armazenado
na ROM. Em razão de tais máscaras serem caras, este tipo de ROM só será viável
sob ponto de vista econômico, se for produzido um número muito grande de ROMs
com a mesma máscara.
A maior desvantagem destas ROMs é o fato de elas não poderem ser
apagadas e reprogramadas, quando uma mudança qualquer no projeto do
dispositivo exigir modificações nos dados armazenados. Neste caso, a ROM com os
dados antigos não pode ser reaproveitada, devendo ser substituída por uma outra
com os novos dados gravados.
ROMs PROGRAMÁVEIS - PROMs
Para aplicações mais modestas em termos de quantidades de chips a ser
produzidos, a indústria desenvolveu as PROMs a fusível, programáveis pelo usuário,
isto é, elas não são programadas durante o processo de fabricação, e sim pelo
usuário, de acordo com suas necessidades. Porém, uma vez programada, a PROM
torna-se uma MROM, ou seja, não pode ser apagada e novamente programada.
O processo de programação de uma PROM com a conseqüente verificação
dos dados gravados pode ser muito tedioso e demorado, se realizado manualmente.
Existe no mercado um sem-número de dispositivos programadores de PROMs que
permitem a entrada da programação por teclado, para então realizar a queima dos
fusíveis e verificação dos dados gravados, sem a intervenção do usuário.
96
ROM PROGRAMÁVEL APAGÁVEL - EPROM
Uma EPROM pode ser programada pelo usuário, podendo, além disso, ser
apagada e reprogramada quantas vezes forem necessárias. Uma vez programada, a
EPROM comporta-se como memória não-volátil que reterá os dados nela
armazenados indefinidamente.
Uma vez que uma célula da EPROM tenha sido programada, é possível
apagá-la expondo à radiação ultravioleta, aplicada através da janela do chip. Tal
processo de apagamento requer uma exposição de 15 a 30 minutos aos raios
ultravioletas. Infelizmente não há como apagar células selecionadas. A luz
ultravioleta apaga todas as células ao mesmo tempo, de forma que, após a
exposição, a EPROM estará novamente armazenando apenas 1s. Uma vez
apagada, a EPROM pode ser reprogramada.
As EPROMs estão disponíveis numa faixa bem ampla de capacidade e
tempos de acesso. Dispositivos com capacidade de 128K x 8 com tempo de 45 ns
são muito comuns.
ROM PROGRAMÁVEL APAGÁVEL ELETRICAMENTE - EEPROM
A EEPROM foi desenvolvida no início dos anos 80, e apresentada ao
mercado como um aperfeiçoamento da idéia da PROM.
A maior vantagem da EEPROM sobre a EPROM é a possibilidade de
apagamento e reprogramação de palavras individuais, em vez da memória toda.
Além disso, uma EEPROM pode ser totalmente apagada em 10 ms, no próprio
circuito, contra mais ou menos 30 minutos para uma EPROM que deve ser retirada
do circuito para submeter-se à ação da luz ultravioleta.
Uma EEPROM também pode ser programada bem mais rapidamente do que
uma EPROM, requerendo um pulso de programação de 10 ms para cada palavra,
em contraste com o de 50 ms necessário a se programar uma palavra da EPROM.
APLICAÇÕES DAS ROMs
FIRMWARE ( MICROPROGRAMA )
Programas que não estão sujeitos a mudança.
97
Sistemas Operacionais, Interpretadores de linguagem, etc.
MEMÓRIA DE PARTIDA FRIA ( BOOTSTRAP )
Programa que leva o processador a inicializar o sistema, fazendo com
que a parte residente do sistema operacional seja transferida da memória de massa
para a memória interna.
TABELAS DE DADOS
Exemplos: funções trigonométricas e de conversão de código.
CONVERSORES DE DADOS
Recebem um dado expresso em determinado tipo de código, e
produzem uma saída expressa em outro tipo de código.
Por exemplo, quando o microprocessador está dando saída a dados
em binário puro, e precisamos converter tais dados para BCD de forma a excitar
corretamente um display de 7 segmentos.
GERADORES DE CARACTERES
Armazena os códigos do padrão de pontos de cada caracter em um
endereço que corresponde ao código ASCII do caracter em questão.
Por exemplo: Endereço 1000001 ( 41H ) corresponde a letra “A”.
2.6.2 MEMÓRIAS DE ACESSO RANDÔMICO - RAM
O termo RAM é usado para designar uma memória de acesso randômico, ou
seja, uma memória com igual facilidade de acesso a todos os endereços, no qual o
tempo de acesso a qualquer um deles é constante.
As RAMs são usadas em computadores para armazenamento temporário de
programas e dados.
A grande desvantagem reside no fato delas serem voláteis. algumas RAMs
CMOS têm a capacidade de operar em standby, consumindo muito pouca energia
quando não estão sendo acessadas. além disso, algumas podem ser alimentadas
98
por baterias, mantendo seus dados armazenados na ocorrência de eventuais
interrupções de energia.
RAM ESTÁTICA (SRAM)
São aquelas que só podem manter a informação armazenada enquanto a
alimentação estiver aplicada ao chip.
As células de memória das RAMs estáticas são formadas por flip-flops que
estarão em certo estado ( 1 ou 0 ), por tempo indeterminado.
Estão disponíveis nas tecnologias bipolar e mos.
bipolar: maior velocidade, maior área de integração.
MOS : maior capacidade de armazenamento e menor consumo
de potência.
alto custo.
difícil integração ( pouca capacidade em muito espaço ).
TECNOLOGIAS
À medida que o tempo passa, mesmo as memórias estáticas estão ficando
lentas para as frequências de operação utilizadas no barramento local do
microcomputador.
A solução foi o desenvolvimento de novas tecnologias de memória estática:
ASYNCHRONOUS SRAM
Esse é o tipo tradicional de memória estática, utilizada a partir do 80386.
embora seja rápida, em frequências de operação acima de 33Mhz, necessita utilizar
wait states.
Tem um tempo de acesso típico de 20 a 12 ns.
SYNCHRONOUS BURST SRAM
99
Esse é o melhor tipo de memória estática para micros que utilizem até
66Mhz como frequência de operação do barramento local, pois não é preciso utilizar
wait states.
Tem um tempo de acesso típico de 12 a 8,5ns.
PIPELINED BURST SRAM
Esse novo tipo consegue trabalhar com barramentos de até 133Mhz sem a
necessidade de wait states. Tem um tempo de acesso típico de 8 a 4,5ns.
RAM DINÂMICA ( DRAM )
São fabricadas usando a tecnologia MOS.
Apresentam :
Ω alta capacidade de armazenamento.
Ω baixo consumo de energia.
Ω velocidade de operação moderada.
Ω armazenam 1s e 0s como carga de microcapacitores mos.
Ω baixo custo.
Ω desvantagem:
Ω necessitam de recarga periódica das células de memória
Ω operação de refresh de cada célula a cada 2~10 ms.
Sempre que uma operação de leitura for realizada em determinada célula da
dram, todas as células desta mesma linha sofrerão refresh.
Mesmo não podendo baixar o tempo de acesso da memória dinâmica
( sobretudo por causa da necessidade de ciclos de refresh ), os fabricantes
conseguiram desenvolver diversas novas tecnologias de construção de circuitos de
memória RAM.
Embora tenha o mesmo tempo de acesso, circuitos com tecnologias de
construção diferentes podem apresentar velocidades diferentes.
100
Para entendermos as novas tecnologias de construção de memórias
dinâmicas e as suas vantagens, devemos ir um pouco mais a fundo no
funcionamento das memórias dinâmicas.
As novas tecnologias são alterações na estrutura básica do funcionamento
da memória, que fazem com elas gastem um número menor de wait states.
Podemos citar:
Ω Memória Fast Page Mode ( FPM )
Ω Memória Extended Data Out ( EDO )
Ω Memória Burst Extended Data Out ( BEDO )
Ω Memória Synchronous Dynamic RAM ( SDRAM )
Ω Memória Double Data Rate SDRAM ( SDRAM-II )
RAM NÃO-VOLÁTIL ( NVRAM )
Ω contém uma matriz de RAM estática e uma matriz EEPROM no
mesmo chip.
Ω cada célula da RAM estática tem uma correspondente na
EEPROM, e a informação pode ser transferida entre células
correspondentes em ambas as direções.
Ω elas atuam na ocorrência de falta de energia, ou quando o
computador for desligado. a operação de transferência é realizada em
paralelo e gasta alguns poucos milissegundos.
Ω a NVRAM tem a vantagem de não precisar de bateria.
Ω não estão disponíveis em versões de grande capacidade de
armazenamento. neste caso, usa-se RAMs CMOS com bateria.
2.7 BARRAMENTO
101
O sistema Local Bus é, na realidade, a mesma placa de sistema, tipo
upgradable, contendo um slot especial conhecido como o próprio nome de local bus,
que se interliga diretamente como o microprocessador.
Um barramento, ou bus, nada mais é do que um caminho comum pelo qual
os dados trafegam dentro do computador. Este caminho é usado para comunicações
e pode ser estabelecido entre dois ou mais elementos do computador.
Um PC tem muitos tipos de barramentos, que incluem:
Barramento do processador: é o barramento que o chipset usa para
enviar/receber informações do processador. O chipset são os chips de suporte
adjacentes contidos na placa mãe.
Barramento de Cache: usado pelos Pentium Pro e Pentium III, é um
barramento dedicado para acessar o sistema cache. Ele é algumas vezes chamado
de barramento backside. Processadores convencionais que usam placas mãe de
quinta geração tem uma cache conectada ao barramento de memória padrão.
Barramento de memória: é um barramento que conecta o sub-sistema de
memória ao chipset e ao processador. Em alguns sistemas o barramento do
processador e o barramento de memória são basicamente a mesma coisa.
Barramento local de E/S (Entrada/Saída). É usado para conectar
periféricos de alto desempenho à memória, chipset e processador. Por exemplo,
placas de vídeo, interface de redes de alta velocidade geralmente usam um
barramento deste tipo. Os dois tipos barramentos locais de E/S mais comuns são o
VESA Local Bus (VLB) e o Peripheral Component Interconnect Bus (PCI).
Barramento padrão de E/S: conecta os três barramentos acima ao antigo
barramento padrão de E/S, usado para periféricos lentos (modems, placas de som
regulares, interfaces de rede de baixa velocidade) e também para compatibilidade
com dispositivos antigos. O principal barramento padrão de E/S é o Industry
Standard Architecture (ISA) bus. Nos PCs, o barramento ISA (antigo padrão) está
sendo substituído por barramentos mais rápidos, como PCI. Geralmente, quando se
ouve sobre o barramento de E/S, praticamente falamos de slots de expansão.
Alguns novos PCs usam um “barramento” adicional projetado para
comunicação de grafismos apenas. A palavra “barramento” foi colocada entre aspas
pois esta tecnologia não se trata de um barramento, ela é um porto: o Accelerated
Graphics Port (AGP). A diferença entre um porto e um barramento é que o
102
barramento é geralmente projetado para vários dispositivos compartilhando um meio
de comunicação, enquanto um porto é apenas entre dois dispositivos.
Todos os barramentos tem duas partes: um barramento de endereçamento e
um barramento de dados. O barramento de dados transfere o dado em si (por
exemplo, o valor de memória) e o barramento de endereço transfere a informação
de onde o dado se encontra.
2.7.1 Barramento do processador
O barramento do processador é o caminho de comunicação entre a CPU e o
chipset. Este barramento é usado para transferir dados entre a CPU e o barramento
principal do sistema ().
Pelo motivo de que o barramento do processador serve para conseguir
informações para e da CPU à velocidade mais rápida possível, este barramento
opera de forma muito mais rápida que qualquer outro tipo de barramento no
computador. Não existem congestionamentos neste barramento. Este barramento
consiste em circuitos elétricos de dados, endereçamento e controle. No processador
80486, o barramento consiste em 32 linhas de endereçamento, 32 linhas de dados e
algumas linhas para controle. No Pentium, são 32 linhas de endereçamento, 64
linhas de dados e as linhas de controle.
Funcionamento o barramento do processador
2.7.2 Barramento de Cache
Barramento de cache, ou backside, é um barramento que conecta o
processador a chache externa (L2). Tipicamente um barramento de cache trabalha
numa taxa mais rápida que o barramento do sistema. Por exemplo, um Pentium Pro
atualmente consiste de dois chips, um contém a CPU e a cache interna (primária), e
103
o segundo contém a cache secundária (externa). O barramento que liga estes dois
chips tem mesma taxa da CPU.
2.7.3 Barramento da memória
O barramento da memória é usado para transferir informação entre a CPU e
a memória principal do sistema (a memória RAM). Estes barramento é uma parte do
barramento do processador, ou na maioria dos casos é implementado
separadamente por um chipset dedicado que é responsável pela transferência de
informação entre o barramento do processador e o barramento da memória ().
Devido aos limites da capacidade do chips de DRAM, a informação que
trafega no barramento da memória é mais lenta que a informação do barramento do
processador.
Vale lembrar que a largura do barramento da memória é a mesma que do
barramento do processador. Igualmente, num processador Pentium ou Pentium Pro,
que possui um barramento de 64 bit, cada banco de memória que é usado deverá
ter 64 bits preenchidos. Nas placas-mãe atuais possuem um suporte a pentes de
memória do tipo DIMM, que são de 64 bits. Assim, somente um pente é necessário
para o funcionamento do computador.
Funcionamento do barramento da memória
104
2.7.4 Barramento de E/S
Desde a criação do PC, muitos barramento de E/S tem sido desenvolvidos,
pela simples razão de CPUs mais rápidas, maiores demandas de software e maiores
requisitos de vídeo. Para cada avanço obtido nos computadores, requer-se um
barramento que atenda às exigências do hardware. Mesmo assim, necessita-se que
seja padronizado diante do mercado a nível mundial, sem grandes custos aos
usuários (esta também é uma das razões em que os barramento de E/S não
puderam evoluir mais do que se esperava). Até foram criados barramento de E/S
mais rápidos do que o mercado exige, mas não foram colocados com sucesso no
mercado justamente pelos custos gerados na atualização de hardware por parte dos
usuários).
De qualquer forma, pode-se encontrar estes barramento de E/S na
arquitetura do computadores de hoje: ISA, MCA, EISA, VESA Local Bus, PCI Local
Bus.
2.7.5 Barramento ISA
Este barramento foi introduzido no PC original em 1981 como um
barramento de 8 bits e mais tarde foi expandido para 16 bits com o PC/AT em 1984,
chamando-se arquitetura padrão da indústria. O padrão ISA é ainda é utilizado em
arquiteturas menos recentes, mas este tipo de barramento é geralmente substituído
pelo PCI. Mas o padrão ISA ainda é rápido o bastante para muitos periféricos que
usamos hoje, como uma placa fax/modem ou uma placa de som.
Existem duas versões do barramento ISA:
O barramento ISA de 8 bits surgiu com o XT e opera a 4,77MHz. Esta
arquitetura de barramento foi usada inicialmente nos primeiros PCs e é
desnecessária nos sistemas atuais. O slot ISA de 8 bits é um conector com 62
contatos, possuindo eletronicamente 8 linhas de dados e 20 linhas de
endereçamento, habilitando ao slot manusear 1MB de memória
Slosts ISA
Os slots servem para encaixar placas de expansão, como por exemplo,
placas de vídeo, placas de som, placas de interface de rede, placas fax/modem, etc.
Os slots ISA (Industry Standard Architecture) estão obsoletos, e já não são mais
105
encontrados nas placas de CPU de fabricação recente. Entretanto você ainda vai
encontrá-los em placas de CPU produzidas até 1999, e em várias produzidas e
comercializadas no ano 2000. Até em 2001 ainda podemos encontrar alguns
modelos de placas com esses slots. Até aproximadamente o final de 1993, as placas
de CPU apresentavam exclusivamente slots ISA. A partir de então passaram a ser
usados barramentos mais avançados, como o VESA Local Bus (1994-1995) e o PCI
(1995 em diante). No início de 1998, a Intel lançou um novo barramento, ainda mais
veloz, chamado AGP, próprio para a conexão de placas de vídeo de alta velocidade.
O barramento ISA é realmente pré-histórico, se comparado com os padrões
atuais de alta velocidade oferecidos pelo PCI e pelo AGP. Opera com apenas 16
bits, e clock de 8 MHz. Isto tornaria possível transferir dados a no máximo 16 MB/s,
porém na prática esta taxa é de apenas 8 MB/s, pois em cada transferência, é usado
um ciclo adicional (Wait State) para permitir o funcionamento de placas de expansão
lentas. Os circuitos das placas de expansão atuais são mais velozes, mas para
manter compatibilidade com o padrão ISA original (1980), este ciclo adicional precisa
ser mantido, e a taxa de transferência máxima fica mesmo limitada em 8 MB/s.
Slots ISA.
Apesar de baixa, esta taxa de transferência é bastante adequada para
diversos tipos de placas de expansão. Por exemplo, placas fax/modem foram das
últimas a usar os slots ISA. Um modem super veloz, de 56k bps, receberia no
máximo cerca de 7 kB de dados por segundo. Ao operar no modo full duplex
(recepção e transmissão simultâneas), a taxa de transmissão é de no máximo
106
33.600 bps, o que representa cerca de 4 kB/s adicionais, resultando em um tráfego
pouco superior a 11 kB/s. Como vemos, os 8 MB/s permitidos pelo barramento ISA
são mais que suficientes para este tipo de aplicação. Da mesma forma, uma placa
de som operando com a melhor qualidade sonora possível (44 kHz, 16 bits, estéreo),
geraria um tráfego de cerca de 170 kB/s, confortavelmente acomodado pelo
barramento ISA. Por esta razão, as placas de som e placas fax/modem foram as
últimas a adotar o padrão PCI. Hoje são raríssimas as placas de som e modem que
usam o barramento ISA.
2.7.6 Barramento PCI
Em 1992, a Intel lançou outro padrão de barramento, desejando os mesmos
ideais que a VESA queria. Sabendo-se da fraqueza do ISA e EISA, foi criado um
grupo chamado PCI Special Interest Group.
O barramento PCI reprojetou o barramento de E/S tradicional de um PC,
inserindo outro barramento entre a CPU e o barramento nativo por meio de pontes
(Bridges). Ao invés de ligar o barramento diretamente ao barramento do
processador, este novo barramento tem um conjunto de controladores que foi
desenvolvido para estender o barramento. Dessa forma, o barramento PCI desvia o
barramento padrão de E/S, usando o barramento do sistema para aumentar a
velocidade de clock do barramento e tira uma vantagem total do caminho de dados
da CPU. Na verdade, o barramento PCI só entrou no mercado na metade de 1993.
107
Slots PCI
Os slots PCI (Peripheral Component Interconnect, criados em 1994) são os
mais comuns nas placas de CPU modernas. A maioria das placas de expansão
adota este padrão. Todas as modernas placas de CPU Pentium e superiores (e até
algumas placas de 486 e 586) possuem slots PCI. Esses slots operam com 32 bits
(ou seja possuem um barramento de dados com 32 bits), e transferem dados com a
freqüência de até 33 MHz. Isto significa que podem transferir até 132 MB/s.
Slots PCI.
2.7.7 barramento pc-card (pcmcia)
108
Este barramento é destinado aos computadores portáteis (notebooks e
laptops), desenvolvido pela PCMCIA, com um conjunto de mais de 300 fabricantes,
onde se estabeleceu os padrões para os cartões adaptadores e de expansão para
notebooks e laptops.
Um cartão PCMCIA usa de 68 conectores, sendo ainda mais caro que o ISA.
Apesar dos padrões, a indústria flexibilizou demais a arquitetura, de forma que
alguns cartões podem não ser compatíveis com algum equipamento ou outro. Os
cartões também possuem o recurso de ser Plug and Play, e durante os anos,
surgiram quatro tipos padrões de slots PCMCIA:
slot agp
O AGP é um barramento relativamente novo, feito sob medida para as
placas de vídeo mais modernas. O AGP foi criado com base nas especificações do
PCI 2.1 e opera ao dobro da velocidade do PCI, ou seja, 66 MHz, permitindo
transferências de dados a 266 MB/s, contra apenas 133 MB/s permitidos pelo
barramento PCI.
Além da velocidade, o AGP permite que uma placa de vídeo possa acessar
diretamente a memória RAM para armazenar texturas. Este é um recurso muito
utilizado em placas 3D, onde a placa usa a memória RAM para armazenar as
texturas que são aplicadas sobre os polígonos que compõem a imagem
tridimensional. Apesar de, usando-se o barramento PCI, também ser possível utilizar
a memória para armazenar as texturas, neste caso os dados teriam que passar pelo
processador, degradando o desempenho geral da máquina. Originalmente o AGP foi
concebido para equipar placas para Pentium II e III, porém, muitos fabricantes
passaram a usá-lo também em placas soquete 7 e slot A.
Visando obter maior taxa de transferência entre a placa de CPU e a placa de
vídeo (obtendo assim gráficos com movimentos mais rápidos), a Intel desenvolveu
um novo barramento, próprio para comunicação com placas de vídeo especiais.
Trata-se do AGP (Accelerated Graphics Port).
109
Slot AGP.
Note que o slot AGP não é uma exclusividade dos processadores modernos,
e nem do padrão ATX. Sua presença está vinculada ao suporte fornecido pelo
chipset. A maioria dos chipsets produzidos a partir de 1998 dão suporte ao
barramento AGP. Isto não quer dizer que todas as placas produzidas com esses
chipsets possuem slot AGP. As placas com vídeo onboard, em geral, possuem os
circuitos de vídeo embutidos e ligados internamente ao barramento AGP, mas
normalmente essas placas não possuem um slot AGP. Assim o usuário não pode
instalar uma nova placa de vídeo, precisa ficar limitado a usar o vídeo onboard, ou
então usar uma placa de vídeo PCI. Por outro lado, todas as placas de CPU de
fabricação recente que não têm vídeo onboard, possuem um slot AGP.
slot amr
Este tipo de slot (AMR = Audio Modem Riser) é encontrado em várias placas
de CPU de fabricação recente. Serve para a instalação de placas AMR, que são
placas de baixo custo, com circuitos de som e modem. Apesar de muitas placas de
CPU possuírem slot AMR, são poucas as placas de expansão AMR disponíveis no
mercado.
110
Slot AMR.
conectores das interfaces
Até aproximadamente 1995, os PCs usavam uma placa conhecida como
IDEPLUS, na qual estavam localizadas diversas interfaces: Interface para drives de
disquete, interface para disco rígido, interfaces seriais, interfaces paralelas e
interface para joystick. A partir de então, essas interfaces (com exceção da de
joystick, que pode ser encontrada nas placas de som) passaram a ser incluídas na
placa de CPU. Deixou de ser necessário usar placas IDEPLUS.
A figura a seguir mostra dois conectores relativos às interfaces IDE. Em
cada uma dessas interfaces podemos conectar dois dispositivos IDE. Os dispositivos
IDE mais comuns são o disco rígido e o drive de CD-ROM, mas existem inúmeros
outros, como unidades de fita, ZIP Drive, gravadores de CD, etc.
Conectores das interfaces IDE.
Na figura abaixo vemos outros conectores presentes na placa de CPU. O
conector da interface paralela permite a conexão com a impressora, além de outros
111
dispositivos paralelos, como o ZIP Drive paralelo e alguns modelos de scanner. Até
poucos anos atrás, as portas paralelas operavam no modo SPP (Standard Parallel
Port), podendo transferir no máximo 150 kB/s. As interfaces paralelas modernas
podem operar ainda no modo bidirecional, EPP (Enhanced Paralles Port) e ECP
(Enhanced Capabilities Port). Esses dois modos permitem obter taxas de até 2
MB/s. O modo bidirecional transfere dados na mesma velocidade do SPP, porém
permite, tanto transmitir como receber dados. O modo SPP também permite receber
dados, mas com uma taxa de transferência bem menor, pois neste tipo de trans-
ferência, recebe apenas 4 bits de cada vez, ao invés de 8.
Também as interfaces seriais modernas são mais avançadas que as antigas.
No passado, essa interfaces podiam transmitir e receber dados a velocidades de
9.600 bps (bits por segundo). As interfaces modernas operam com até 115.200 bps.
Conector para drives de disquetes, porta paralela, COM1 e COM2. 1) Paralela 2) Seriais
3) Drives de disquete.
2.7.8 usb
A interface USB transfere 1.5MB/s apenas sobre uma conexão de 4 fios.
Este bus suporta acima de 127 dispositivos e usa a topologia em estrela usada nos
HUBs. E para periféricos mais lentos como o teclado e o mouse, a USB usa de um
subcanal mais lento que 1.5MB/s.
A USB também atende às especificações Plug and Play da Intel, inclusive de
poder conectar os dispositivos com a máquina ligada e sem precisar reiniciá-las,
Simplesmente se conecta o dispositivo e a USB irá detectar automaticamente e
alocar os recursos necessários para o seu funcionamento. O suporte a USB será
fornecido com o Windows 95 e mais ainda pelo BIOS.
112
Os periféricos USB incluem modems, telefones, joysticks, teclados,
dispositivos apontadores e câmeras.
Outra característica importante é que os dispositivos USB conectados têm o
fornecimento de energia pelo próprio USB, o que significa que o USB verifica quais
os requisitos de energia requeridos pelos periféricos e avisar se estes excederem.
A figura a seguir mostra os conectores das interfaces USB existentes nas
placas de CPU modernas. A interface USB serve para conectar de forma
padronizada, dispositivos como teclado, mouse, scanner, joystick, etc. O USB existe
desde 1995, mas só a partir de 1999 começaram a se tornar comuns os dispositivos
para este barramento.
Conectores das interfaces USB.
Observe que as placas de CPU padrão ATX permitem a conexão direta nos
diversos conectores existentes na sua parte traseira, correspondentes às interfaces
para teclado, mouse, paralela, seriais e USB. Placas de CPU padrão AT possuem
na parte traseira, apenas um conector para o teclado. Todas as demais interfaces
devem ser ligadas na placa de CPU através de extensões que acompanham a
placa. Mais adiante apresentaremos essas extensões.
Conexões na parte traseira de uma placa ATX.
113
Placas de CPU antigas não possuíam interfaces USB, nem interface para
mouse PS/2. Algumas dessas placas possuíam essas interfaces, mas não tinham os
conectores correspondentes para que pudessem ser usadas. Por que um fabricante
iria colocar interfaces em uma placa mas não forneceria os conectores para que elas
fossem usadas? A razão para esta anomalia é a redução de custo. Os circuitos das
interfaces USB e da interface para mouse PS/2 são gratuitos, já que fazem parte do
chipset. Já os conectores para essas interfaces deveriam ser providenciados pelos
fabricantes de placas de CPU. Como esses dispositivos eram pouco usados, os
fabricantes de placas optavam por não fornece-los. Aos poucos passaram a incluir o
conector para mouse PS/2, logo depois os conectores USB. Atualmente, todas as
placas de CPU padrão ATX possuem conectores USB e conectores para mouse
PS/2.
2.8 PLACAS DE EXPANSÃO
2.8.1 Placa de Vídeo
Esta é uma placa de circuito muito importante. Seu objetivo é apresentar as
imagens que são enviadas ao monitor. Existem placas de vídeo com diferentes
graus de sofisticação. As placas de vídeo modernas são inclusive capazes de gerar
imagens tridimensionais.
Muitos computadores simples não possuem placa de vídeo, e sim, o
chamado "vídeo onbaord". São circuitos localizados na própria placa mãe que
substituem a placa de vídeo. Normalmente o vídeo onboard é menos sofisticado que
as placas de vídeo verdadeiras.
114
Placa de vídeo AGP com cooler.
O cabo de vídeo do monitor possui em sua extremidade, um conector DB-15
macho, que deve ser ligado no conector DB-15 fêmea da placa de vídeo. A figura
abaixo mostra esta conexão.
Conectando o monitor na placa de vídeo.
2.8.2 Placa de Modem
O modem é um aparelho que permite ao computador transmitir e receber
informações para outros computadores, através de uma linha telefônica. Os
primeiros modems eram aparelhos externos, hoje é mais comum encontrar os
modems internos, que são na verdade placas de modem como a da figura abaixo.
São muito usados para permitir o acesso à Internet através de linhas telefônicas.
Também servem para transmitir e receber fax através do computador.
115
Placa de modem PCI
2.8.3 Placa de Rede
É muito útil interligar vários computadores, formando uma rede. Desta forma
os computadores podem trocar dados entre si e compartilhar recursos. Por exemplo,
uma impressora cara pode ser compartilhada entre vários computadores, o que a
torna economicamente viável. Para permitir a formação de redes, os PCs precisam
ter uma placa de rede, como a mostrada ao lado.
Placa de rede PCI.
116
3. A MONTAGEM
Podemos dividir a montagem de PCs em duas partes: a que exige
conhecimentos superficiais e a que exige conhecimentos avançados. Os
conhecimentos superficiais são os mais fáceis, que variam pouco de um computador
para outro. Podemos citar alguns exemplos desses conhecimentos superficiais:
Ω Como encaixar e aparafusar placas.
Ω Como encaixar os conectores.
Ω Como configurar jumpers.
Ω Como fixar um cooler no processador.
Acredite, muitas pessoas que montam computadores consideram que saber
montar um PC é ter esses conhecimentos. É possível montar um PC com segurança
tendo apenas esses conhecimentos quando o processo de montagem é repetitivo.
Na linha de montagem de um grande fabricante de computadores, por exemplo, os
operários têm apenas esses conhecimentos. Por outro lado, quando é preciso
especificar a configuração de um computador em função das aplicações que ele vai
ter, conhecer sobre compatibilidade, ajustes na configuração do sistema operacional
e outras etapas mais complexas, é preciso muito além dos conhecimentos
“mecânicos”.
Um bom montador de PCs não deve ter apenas os conhecimentos
mecânicos, mas sim os conhecimentos mais profundos de software e hardware.
Ainda assim, é preciso dominar bem a parte mecânica. Vamos então ver
detalhadamente como cada uma dessas conexões são realizadas, uma etapa que
precisa ser dominada por quem quer ser um bom montador de PCs.
3.1 FERRAMENTAS
117
As dezenas de parafusos que acompanham o gabinete são de tipos dife-
rentes. Infelizmente a indústria padronizou parafusos diferentes para os diversos
módulos envolvidos na montagem de um PC. Por exemplo, o parafuso usado para
fixar o disco rígido é diferente do usado para fixar o drive de 3½”. Para não perder
tempo durante a montagem do micro, é recomendável identificar antes qual é a
função de cada parafuso. Todos eles são parafusos do tipo PHILIPS, ou seja,
possuem em sua cabeça, uma fenda em forma de “x”. Para apertá-los, devemos
usar uma chave PHILIPS tamanho médio. Aliás, uma boa idéia é adquirir um estojo
de ferramentas para micros. Podemos encontrá-lo em praticamente todas as
revendas de material para informática, e lá estarão algumas ferramentas muito úteis
(figura abaixo).
Algumas ferramentas usadas na montagem de PCs.
Algumas ferramentas deste estojo são indispensáveis. Outras são tão úteis
que por si só justificam a compra do jogo completo. Por exemplo, existe uma pinça
com três pequenas garras, muito boa para segurar parafusos. É a melhor forma de
colocar com facilidade um parafuso em seu lugar antes de apertá-lo. Existem
também chaves próprias para prender parafusos hexagonais, como os que fixam os
conectores das interfaces seriais em gabinetes padrão AT (3/16”).
Chaves de fenda e hexagonais.
118
Em certos casos, os parafusos fornecidos com o gabinete possuem uma
cabeça PHILIPS hexagonal. Isto significa que podem ser manuseados, tanto com
uma chave PHILIPS, como com uma chave hexagonal. Normalmente os estojos de
ferramentas possuem chaves hexagonais de 3/16” e de ¼”, próprias para os
parafusos envolvidos na montagem de um PC. Existe ainda uma pinça ideal para
retirar e colocar jumpers nas placas. Podemos ver essas ferramentas em detalhes
na figura abaixo.
Pinças.
3.2 ACESSÓRIOS DO GABINETE
Todos os gabinetes para PC são acompanhados de uma pequena caixa
onde existem dezenas de pequenas peças usadas para a montagem do
computador. Podemos vê-la na figura 5-4. São vários parafusos, além de diversos
outros acessórios usados principalmente na fixação das placas.
Caixa de acessórios que acompanha os gabinetes.
119
3.3 PARAFUSOS
Separe todos os parafusos que você recebeu junto com o gabinete. Você
poderá observar que são divididos em duas categorias (veja a figura abaixo).
Parafusos de classes 1 e 2. Observe que o de classe 2 é mais “gordinho” e tem menor número de
voltas.
Classe 1: Esses parafusos são usados para os seguintes dispositivos:
Ω Drive de 3½” (*)
Ω Drive de 5 1/4”
Ω Drive de CD-ROM
Ω Placas de expansão (**)
Classe 2: Usados para os seguintes dispositivos:
Ω Disco rígido
Ω Placa de CPU
Ω Tampa traseira do gabinete (**)
OBS(**): As furações para parafusos existentes no drive de disquetes nem
sempre são padronizadas. Você deve, a princípio, tentar usar os parafusos de
classe 1. Se forem muito finos para a furação existente, use parafusos classe 2.
120
OBS(**): As furações para parafusos existentes nos gabinetes nem sempre
são padronizadas. Você deve, a princípio, tentar usar os parafusos de classe 1. Se
forem muito finos para a furação existente, use parafusos classe 2.
Existem ainda parafusos bem diferentes, mostrados na figura a seguir. São
usados para fixar a placa de CPU ao gabinete. Um deles, mostrado na parte direita
da figura a seguir, é um parafuso metálico hexagonal. Deve ser aparafusado em
locais apropriados na chapa do gabinete, e sua rosca poderá ser de Classe 1 ou
Classe 2. Esta despadronização não causa problema, pois sempre serão fornecidos
parafusos compatíveis com os furos existentes no gabinete. Em alguns casos, esses
furos existentes no gabinete já possuem a rosca necessária para a fixação desses
parafusos. Em alguns casos, esses furos não possuem rosca, e são fornecidas
porcas próprias para esta fixação. Após ser colocada a placa de CPU, é introduzido
um outro parafuso (parte esquerda da figura abaixo), juntamente com uma arruela
isolante. Este outro parafuso também poderá ser de Classe 1 ou 2. Convém checar
qual é o tipo de parafuso utilizado antes de dar início à montagem.
Parafusos para fixar a placa de CPU ao gabinete.
Na figura abaixo vemos como fixar a placa de CPU ao gabinete, utilizando
os parafusos mostrados na figura 5-6. Primeiro fixamos ao gabinete, os parafusos
hexagonais (figura anterior, parte direita). Devemos utilizar os furos da chapa do
gabinete que possuem correspondência com os furos da placa de CPU. Depois
colocamos a placa de CPU no gabinete e fazemos a sua fixação, usando os
parafusos apropriados (figura acima, parte esquerda).
121
Fixação da placa de CPU no gabinete através de parafusos hexagonais.
3.4 ESPAÇADORES PLÁSTICOS
A placa de CPU é presa ao gabinete por dois processos: Parafusos metáli-
cos hexagonais (já apresentados na figura anterior) e espaçadores plásticos (figura
abaixo). Esses espaçadores plásticos devem ter inicialmente a sua parte superior
encaixada em furos apropriados na placa de CPU. Sua parte inferior deve ser
encaixada em fendas existentes no gabinete. Podemos observar esses furos na
figura posterior.
Espaçadores plásticos.
122
Furos e fendas na chapa do gabinete, para fixação da placa de CPU.
O encaixe dos espaçadores é um pouco difícil de fazer. Inicialmente de-
vemos checar quais são as fendas existentes no gabinete que estão alinhadas com
furos na placa de CPU. Encaixamos espaçadores plásticos nos furos da placa de
CPU que possuem fendas correspondentes na chapa do gabinete. A seguir
colocamos a placa no seu lugar, de forma que todos os espaçadores plásticos
encaixem simultaneamente nas respectivas fendas. A figura a seguir mostra o
detalhe do encaixe de um espaçador na sua fenda.
Detalhe do encaixe de um espaçador plástico em uma fenda do gabinete.
Após acoplar a placa de CPU, devemos olhar no verso da chapa onde a
placa foi alojada, para verificar se todos os espaçadores encaixaram-se
perfeitamente nas suas fendas. Cada espaçador plástico deve estar alinhado com a
fenda, como indicado em “A” na figura acima. Estando todos alinhados, movemos a
placa de forma que todos os espaçadores fiquem encaixados nas fendas metálicas
como indicado em “B” na figura acima.
123
3.5 FUROS DE FIXAÇÃO DA PLACA DE CPU
Como vimos, a fixação da placa de CPU é feita por espaçadores plásticos e
por parafusos metálicos hexagonais. Devemos, contudo, tomar muito cuidado com o
uso desses parafusos. Inicialmente devemos identificar quais são os furos existentes
na chapa do gabinete, próprios para a recepção desses parafusos. A seguir,
devemos checar quais são os furos da placa de CPU que têm correspondência com
esses furos da chapa do gabinete. Observando atentamente os furos existentes na
placa de CPU, podemos verificar que existem dois tipos, ambos mostrados na figura
abaixo:
Furo normal e furo metalizado.
O furo metalizado pode ser usado para fixação através de parafusos metá-
licos, ou de espaçadores plásticos. O furo normal deve ser usado apenas para
fixação por espaçadores plásticos. Se usarmos um parafuso metálico em um furo
sem metalização, este parafuso poderá arranhar a camada de verniz da placa,
provocando o contato entre as trilhas de circuito impresso, resultando em um curto
circuito que danificará a placa. Normalmente dois parafusos metálicos são
suficientes para garantir uma boa fixação da placa, mas mesmo quando usamos
apenas um parafuso metálico, os espaçadores plásticos ajudarão a garantir uma boa
fixação.
Resta ainda ressaltar que em placas de CPU e gabinetes padrão ATX, a
fixação é feita quase que exclusivamente por diversos parafusos hexagonais
metálicos.
3.6 TAMPA PLÁSTICA FRONTAL
124
Os gabinetes são acompanhados de tampas plásticas para serem usadas
nos locais vagos reservados para a instalação de drives. Por exemplo, um gabinete
pode ter local para a instalação de dois drives de 3½”, mas podemos instalar apenas
um. Neste caso, o outro local deve ser tampado. Da mesma forma, existem locais
para a instalação de dois drives de CD-ROM. Caso não usemos os dois locais,
devemos fechar os que ficaram sem uso com essas tampas plásticas. A figura a
seguir mostra esses dois tipos de tampas. Devem ser introduzidas por pressão, pela
parte frontal do gabinete.
Tampas plásticas frontais.
3.7 TAMPAS TRASEIRAS
Os gabinetes possuem, na sua parte traseira, oito fendas onde se alojam os
conectores traseiros das placas de expansão. Como nem sempre utilizamos todas
essas 8 posições, é conveniente tampar as que não estiverem em uso. Para isto são
usadas tampas metálicas apropriadas, como as mostradas na figura abaixo.
Devemos prender essas tampas usando a princípio parafusos de classe 1. Se não
servirem, usamos parafusos de classe 2.
125
Tampas traseiras
3.8 PAINEL TRASEIRO DO GABINETE ATX
As placas de CPU padrão ATX possuem um painel traseiro, no qual ficam os
conectores de várias das suas interfaces: seriais, paralela, teclado, etc. Os
gabinetes ATX são acompanhados de uma pequena chapa metálica, na qual este
painel se encaixará. A instalação desta chapa é mostrada nas figuras a seguir.
Primeiramente devemos encaixar a chapa pela parte interna do gabinete (figura
abaixo). Depois aparafusamos a chapa ao gabinete. Quando a placa de CPU for
instalada no gabinete, os conectores existentes na sua parte traseira ficarão
encaixados nesta chapa (figura posterior).
Chapa metálica para painel das interfaces de uma placa de CPU ATX. Deve ser encaixada pela parte
interna do gabinete.
A chapa deve ser aparafusada no gabinete, e nela se encaixarão os conectores da placa de CPU.
126
3.9 MONTAGEM DA PLACA DE CPU
Neste ponto a placa de CPU já estará com o processador e o cooler
instalados (exceto no caso do Pentium 4, que deve ser instalado depois que a placa
de CPU já está fixa ao gabinete). As memórias já estão instaladas e os jumpers
estão corretamente configurados.
3.9.1 preparação prévia do gabinete
Você também já preparou o gabinete para receber a placa de CPU. Podem
ter ocorrido diversas situações, dependendo do formato e do tamanho do gabinete:
1. Remoção da bandeja que aloja o disco rígido e o drive de disquetes.
2. Remoção do fundo do gabinete.
3. Remoção da chapa onde a placa de CPU será fixada.
4. Remoção da fonte para abrir caminho para a placa de CPU.
Abrindo caminho para a placa de CPU. O processo a ser usado depende do tipo e do tamanho do
gabinete.
127
Existem gabinetes que são tão espaçosos que não precisam de providências
especiais para a colocação da placa de CPU. É o caso dos gabinetes torre tamanho
grande (full tower ou “torrão”), de alguns gabinetes torre tamanho médio, e alguns
gabinetes horizontais.
O gabinete neste ponto já deverá estar com os parafusos hexagonais
instalados. Alguns gabinetes são acompanhados de parafusos plásticos. Esses
parafusos devem ser fixados no gabinete, e a seguir a placa de CPU é encaixada
sobre os mesmos.
Parafusos metálicos hexagonais e parafusos plásticos.
3.9.2 fixação da placa de cpu
Finalmente fixamos a placa de CPU ao gabinete. Normalmente nos modelos
ATX, basta apoiar a placa sobre os parafusos metálicos hexagonais e se for o caso,
encaixá-la nos parafusos plásticos. Em alguns gabinetes são usados espaçadores
plásticos, que devem ser encaixados na placa de CPU e a seguir introduzidos em
fendas existentes no gabinete. Use a seguir parafusos com arruelas isolantes para
fixar a placa de CPU. Devem ser aparafusados sobre os parafusos metálicos
hexagonais.
128
Espaçadores plásticos devem ser encaixados na placa de CPU e depois introduzidos nas fendas do
gabinete.
Parafusos com arruelas isolantes devem ser fixados sobre os parafusos hexagonais.
3.9.3 colocação do painel dos conectores atx
Placas de CPU ATX possuem na sua traseira, um bloco de conectores.
Esses conectores devem ser adaptados a uma chapa metálica, contendo encaixes
para os mesmos. Em alguns gabinetes, esta chapa metálica é fixa, mas este
procedimento é raro, já que podem existir diferentes configurações de conectores.
Muitos gabinetes são acompanhados de uma, duas e até três chapas com diferentes
furações, visando compatibilidade com as diversas configurações de conectores.
Finalmente, muitas placas de CPU são acompanhadas de uma chapa com a furação
exata para os seus conectores. Este é o tipo mais indicado a ser instalado.
Ao fixar a placa de CPU no gabinete, temos antes que verificar como este
painel será montado. Em alguns casos, o painel deve ser colocado no gabinete pela
sua parte interna, antes de ser instalada a placa de CPU. Em outros casos o painel é
montado e aparafusado pela parte traseira externa do gabinete, o que deve ser feito
depois que a placa de CPU já está montada.
129
chapa metálica que cobrirá os conectores de uma placa ATX pode, dependendo do caso, ser
montada internamente ou externamente.
3.9.4 caminho para fixar os drives
Os drives de disquetes, disco rígido e drive de CD-ROM serão colocados na
etapa seguinte, depois que a placa de CPU já está fixa ao gabinete. Entretanto
existem alguns casos em que os drives precisam ser instalados antes da placa de
CPU. É quando o gabinete é muito compacto e a placa de CPU é muito comprida.
Isto ocorre especificamente em gabinetes torre. A placa de CPU pode obstruir uma
das partes laterais dos drives, tornando impossível aparafusá-los adequadamente.
Muitos montadores de PCs só percebem isso depois que a placa de CPU já está fixa
ao gabinete, e por preguiça, acabam aparafusando os drives apenas de um dos
lados. O procedimento correto é aparafusar os drives de ambos os lados. Portanto,
antes de instalar a placa de CPU no gabinete, verifique se depois que ela estiver fixa
será possível acessar ambas as partes laterais de todos os drives. Se você concluir
que uma das partes laterais vai ficar inacessível, então instale os drives antes da
placa de CPU.
Às vezes a placa de CPU pode obstruir a parte lateral dos drives. Neste caso os drives devem ser
instalados antes da placa de CPU.
130
3.10 POWER SWITCH ATX
Em equipamentos antigos, o botão liga/desliga servia para ativar e desativar
o fornecimento de corrente elétrica. Equipamentos modernos ficam ligados o tempo
todo, e a chave “liga/desliga” serve para colocar e retirar os circuitos do estado de
standby. Isto é válido nos modernos aparelhos de TV, VCR, aparelhos de som, e de
certa forma, para computadores. Uma fonte de alimentação ATX fica ligada o tempo
todo, enquanto estiver conectada à tomada da rede elétrica. A chave liga/desliga em
sistemas ATX serve para dizer a fonte: “passe a operar com plena carga”. A figura
abaixo mostra o botão liga-desliga (power switch) de um gabinete ATX, e também o
conector correspondente. Este pequeno conector está na extremidade de um par de
fios que sai da parte traseira do power switch.
Botão liga-desliga de um gabinete ATX e o seu conector para ligar na placa de CPU.
O conector deve ser ligado em um ponto apropriado da placa de CPU, de
acordo com as instruções do seu manual. Esta conexão está exemplificada na figura
a seguir.
131
Conexão do botão liga-desliga em uma placa de CPU ATX.
3.11 LIGAÇÃO DA FONTE NA PLACA DE CPU ATX
Na figura abaixo vemos a conexão da fonte de alimentação ATX, em uma
placa de CPU ATX. Tanto a placa de CPU como a fonte ATX possuem conectores
de 20 vias para esta ligação. Devido à diferença entre os formatos dos pinos (alguns
são quadrangulares, outros são pentagonais), é impossível fazer esta conexão de
forma invertida. Em ambos os conectores existem travas de plástico. Essas travas
se encaixam quando os conectores são acoplados. Para retirar o conector, é preciso
apertar a trava existente no conector superior.
conectando uma fonte de alimentação em uma placa de CPU ATX. A) Trava no conector da fonte. B)
Trava no conector da placa de CPU C) Para desencaixar os conectores, é preciso pressionar a trava
no ponto indicado
3.12 COOLER
132
As placas de CPU modernas possuem uma conexão de 3 pinos para o
cooler do processador. Este tipo de conexão com 3 pinos possui um controle de
velocidade. Desta forma a placa de CPU pode ligar o ventilador apenas quando a
sua temperatura está muito elevada, ou desliga-lo quando o computador estiver em
estado de espera.
Placas de CPU modernas possuem uma conexão para alimentar o cooler do processador (CPU FAN)
A figura abaixo mostra a conexão para o cooler do processador em uma
placa de CPU. O conector fêmea de 3 vias, que faz parte do ventilador, deve ser
ligado ao conector macho de 3 vias, existente na placa de CPU. Observe que os três
orifícios do conector fêmea são mais próximos de uma das suas faces laterais. Este
formato dificultará o encaixe na posição errada.
Ligando o cooler do processador na placa de CPU.
3.13 INSTALAÇÃO DE MÓDULOS DIMM
É simples o processo de colocação e retirada de um módulo DIMM. Apenas
temos que tomar cuidado para não forçá-lo para os lados, o que poderia danificá-lo.
Também é preciso fazer coincidir as suas duas fendas com as saliências do seu
soquete. A figura a seguir mostra as fendas e saliências.
133
Saliências nos soquetes DIMM encaixam em fendas existentes no módulo.
Instalando um módulo DIMM.
Para encaixar o módulo DIMM, devemos posicioná-lo sobre o soquete, e a
seguir forçá-lo para baixo, como mostra a figura a seguir. Este movimento deve ser
feito com muito cuidado e muita firmeza. Se o encaixe estiver muito difícil
precisaremos aplicar mais força, mas com cuidado para não deixar o módulo
escorregar para as laterais (ou melhor, para frente ou para trás, segundo a
orientação da figura a seguir). Se o módulo for acidentalmente flexionado poderá
quebrar, ou pior ainda, poderá quebrar ou danificar os contatos do seu soquete, o
que provavelmente inutilizaria a placa de CPU. Aqui todo cuidado é pouco. Quando
o encaixe é feito, duas pequenas alças plásticas existentes no soquete são
encaixadas em duas fendas laterais existentes no módulo, como mostra o detalhe à
direita na figura adiante. Essas alças também servem como alavancas,
possibilitando a extração do módulo de forma bem fácil.
A figura adiante mostra a extração de um módulo DIMM pela atuação nas
alças laterais do seu soquete. Basta forçar as alavancas como mostra a figura, e o
134
módulo levantará. Depois disso, terminamos de puxá-lo por cima, mas com cuidado
para não tocar nos seus chips e partes metálicas.
Extraindo um módulo DIMM.
3.14 PAINEL FRONTAL DO GABINETE
Todos os gabinetes possuem um painel frontal com LEDs e chaves, além de
um pequeno alto-falante. Do outro lado desses LEDs e chaves, na parte interna do
gabinete, partem diversos fios com conectores nas suas extremidades. Esses
conectores devem ser ligados na placa de CPU, em pontos descritos no seu manual.
A figura abaixo mostra um trecho do manual de uma placa de CPU, no qual estão
descritas as conexões para o painel. Essas informações são a princípio suficientes
para fazer as conexões com o painel, mas vamos detalhá-las um pouco mais,
tornando-as mais fáceis. É importante notar que você poderá encontrar pequenas
diferenças nessas conexões, ao examinar modelos diferentes de placas de CPU.
O manual da placa de CPU traz as instruções para as conexões com o painel do gabinete.
3.14.1 conexão do alto-falante
135
Todos os gabinetes para PC possuem, na sua parte frontal, um pequeno
alto-falante. Não se trata de um alto-falante ligado nas caixas de som. É um simples
alto-falante, conhecido como PC Speaker. Este alto-falante emite apenas sons
simples, como BEEPS. Mesmo que você passe o tempo todo utilizando as caixas de
som que são acopladas na placa de som, o PC Speaker é muito importante. É
através dele que o computador informa a ocorrência de eventuais falhas de
hardware durante o processo de boot. Quando corre tudo bem, o PC Speaker emite
um simples BEEP antes de dar prosseguimento ao carregamento do sistema
operacional. Quando ocorre algum problema, como por exemplo, uma falha na
memória, são emitidos vários BEEPS com diferentes durações. Normalmente os
manuais das placas de CPU apresentam uma tabela chamada BEEP Error Code,
através da qual, podemos identificar qual é o problema, de acordo com a seqüência
de BEEPS emitidos.
O PC Speaker é ligado a dois fios, na extremidade dos quais poderá existir
um conector de 4 vias, ou dois conectores de 1 via. Na placa de CPU,
encontraremos um pequeno conector de 4 pinos, com a indicação speaker. Quando
tivermos dificuldades para localizar este conector, podemos contar com a ajuda do
manual da placa de CPU, que traz um diagrama que mostra todas as suas
conexões.
Apesar do conector existente na placa de CPU possuir 4 pinos, apenas os
dois extremos são usados. Por isso, caso o PC Speaker possua dois conectores
simples, devemos ligá-los no primeiro e no quarto pino da placa. Esta ligação não
possui polaridade, ou seja, se os fios forem ligados de forma invertida, o PC Speaker
funcionará da mesma forma.
136
Conexão do alto-falante.
3.14.2 conexão do reset
Olhando pela parte interna do painel frontal do gabinete, podemos ver os
dois fios que partem da parte traseira do botão de Reset. Do botão de Reset partem
dois fios, na extremidade dos quais existe um pequeno conector de duas vias. Este
conector não tem polaridade, ou seja, pode ser ligado invertido sem alterar o
funcionamento do botão de Reset. Na placa de CPU você encontrará um conector
de duas vias com a indicação “RESET”, ou “RST”, ou “RESET SW”, ou algo similar,
para realizar esta conexão. Sua ligação está mostrada na figura abaixo.
Conexão do botão RESET.
137
3.14.3 conexão do hard disk led
Todos os gabinetes possuem no seu painel, um LED indicador de acesso ao
disco rígido (HD LED). Este LED é aceso sempre que o disco rígido realizar
operações de leitura e gravação. Normalmente é um LED vermelho, e normalmente
na sua parte posterior estão ligados dois fios, sendo um vermelho em um branco.
Como nem sempre os fabricantes seguem padrões nas cores desses fios, convém
conferir quais são as cores no seu caso. Na extremidade desse par de fios, existe
um conector de duas vias, do mesmo tipo existente no botão de Reset. Na placa de
CPU você encontrará pinos com a indicação HD LED para realizar esta conexão.
Esta conexão poderá ter dois aspectos: um conector de 2 pinos, ou um de 4 pinos,
com o terceiro pino retirado. Se na sua placa a configuração tiver 4 pinos com um
terceiro retirado, ligue o LED entre os dois primeiros, como mostra a figura abaixo.
Conexão do HD LED.
Esta conexão possui polaridade, ou seja, se for realizada de forma invertida,
o LED não acenderá. Felizmente, esta ligação invertida não causa dano algum.
Muitas vezes, o manual indica um dos pinos com o sinal “+”. Este deve corresponder
ao fio vermelho. Se com esta ligação, o LED não funcionar (espere o boot para que
o disco rígido seja acessado), não se preocupe. Desligue o computador e inverta a
polaridade desta ligação, e o LED funcionará.
3.14.4 conexão do power led e keylock
138
Vamos estudar essas duas conexões juntas, pois muitas placas de CPU
apresentam um único conector, com 5 pinos, nos quais são feitas ambas as
conexões. O Power LED, localizado no painel frontal do gabinete, normalmente é de
cor verde. Da sua parte posterior partem dois fios, normalmente um verde e um
branco. Na extremidade deste par de fios, poderá existir um conector de 3 vias (a do
meio não é utilizada), ou dois conectores isolados de 1 via cada um. Neste caso, a
ligação deve ser feita entre os pinos 1 e 3 deste conector.
O Keylock é uma fechadura elétrica existente no painel frontal do gabinete.
Através de uma chave apropriada, também fornecida junto com o gabinete,
podemos abrir ou fechar. Quando colocamos esta chave na posição fechada, a
placa de CPU deixará de receber os caracteres provenientes do teclado. Isto
impede, pelo menos de forma grosseira, que outras pessoas utilizem o computador
na nossa ausência. Na parte traseira desta fechadura, existem dois fios, na
extremidade dos quais existe um pequeno conector de duas vias.
Na placa de CPU encontramos um conector de 5 pinos para a ligação do
Keylock e do Power LED. Esses pinos são numerados de 1 a 5 (consulte o manual
da placa de CPU para checar a ordem desta numeração, ou seja, se o pino 1 é o da
esquerda ou o da direita). Nos pinos 1 e 3 ligamos o Power LED, e nos pinos 4 e 5
ligamos o Keylock. A ligação do Keylock não tem polaridade, mas a do LED tem
(assim como ocorre com qualquer tipo de LED). Se o LED não acender, basta
desligar o computador e inverter a ligação. O Keylock é sempre ligado entre os pinos
4 e 5, e o Power LED é sempre ligado entre os pinos 1 e 3, mas como
mencionamos, o Power LED pode apresentar dois tipos de conector (um triplo ou
dois simples).
139
Conexão do Keylock e Power LED.
Você poderá encontrar algumas placas de CPU, bem como gabinetes, que
não possuem mais o keylock. A razão para esta extinção é simples. Ao inibir o
funcionamento do teclado, o Keylock não está oferecendo uma proteção eficaz para
o computador. Afinal de contas, a maioria dos comandos do Windows e outros
sistemas operacionais modernos podem ser realizados sem o uso do teclado,
apenas com o mouse. Além do mais, existem mecanismos de segurança mais
eficazes, como por exemplo, o uso de uma senha definida no CMOS Setup.
3.15 FIXAÇÃO DO PENTIUM 4
A montagem de computadores equipados com o Pentium 4 possui algumas
diferenças básicas. A fonte de alimentação e o gabinete devem ser adequados.
Gabinetes para Pentium 4 devem possuir 4 furos, nos quais se encaixam 4
parafusos hexagonais que ficam alinhados com o soquete do processador.
140
Fixação adicional em um gabinete ATX para Pentium 4.
As placas de CPU para Pentium 4 também são acompanhadas de duas
peças plásticas (mecanismo de retenção) e dois clips metálicos (clips de retenção),
mostrados na figura abaixo. As duas peças plásticas servem para fixar a placa de
CPU ao gabinete, através dos 4 parafusos mostrados na figura acima. Os clips
devem ser presos nessas peças plásticas e fazem a fixação do cooler sobre o
processador.
Peças para fazer a fixação do Pentium 4 e do seu cooler.
Depois que os 4 parafusos hexagonais estão fixos na chapa do gabinete,
instalamos e aparafusamos a placa de CPU, deixando livres apenas os 4 parafusos
em torno do processador. A seguir instalamos os dois mecanismos de retenção,
como mostra a figura. Ambos devem ser aparafusados.
141
O mecanismo de retenção (as duas peças plásticas mostradas na figura 5-62) deve ser aparafusado
à placa e ao gabinete.
Podemos agora instalar o processador no seu soquete e fixar o cooler
através dos dois clips metálicos, como mostra a figura . É imprescindível o uso de
pasta térmica entre o processador e o cooler.
Fixando o cooler através dos clips de retenção.
As fontes de alimentação para o Pentium 4 também precisam ser
adequadas. Elas devem seguir à nova especificação ATX, chamada ATX 12V. A
principal diferença é a presença de um conector de alimentação adicional com +12
volts e capaz de fornecer alta corrente. O uso deste conector é uma tendência nas
placas de CPU modernas. Até agora, as tensões necessárias aos processadores
modernos (em geral inferiores a 2 volts) eram geradas a partir das tensões de +3,3
volts e +5 volts, disponíveis no conector padrão ATX. Esta geração de voltagem é
feita a partir de conversores DC/DC, que são circuitos que geram uma tensão
contínua, a partir de uma outra tensão contínua de valor diferente. Ocorre que os
conversores DC/DC com entrada de +12 volts são mais eficientes que aqueles que
usam entradas de +3,3V e +5V. A partir de +12 volts é possível operar com maior
142
rendimento e menor aquecimento. Fontes ATX12V possuem ainda um conector
adicional com as voltagens de +3.3V e +5V, fornecendo assim maior corrente para
essas voltagens. Todas as fontes ATX12V possuem este conector auxiliar, mas
existem fontes ATX não “ATX12V” que também possuem este conector auxiliar. Os
três conectores são mostrados na figura abaixo.
Conectores de uma fonte ATX12V.
As placas de CPU para Pentium 4 possuem os três tipos de conexões para
fontes ATX12V, como mostra a figura abaixo.
Os três conectores de alimentação de uma placa de CPU para Pentium 4.
3.16 MONTAGEM DOS DRIVES
Esta etapa não depende do fato do gabinete ser AT ou ATX. As pequenas
diferenças dependem muito mais do fato do gabinete ser horizontal e vertical.
Mesmo considerando gabinetes do mesmo tipo (horizontal e vertical), pequenas
diferenças ainda podem ocorrer, como mostraremos aqui.
143
Gabinetes espaçosos possuem vários locais para a instalação de drives.
Gabinetes muito compactos possuem apenas um local para instalar o disco rígido,
um para o drive de disquetes e um para o drive de CD-ROM. Escolha os locais
corretos, levando em conta a melhor disposição de cabos e a melhor dissipação de
calor. Por exemplo, se você utilizar um gabinete espaçoso, deixe um espaço livre
entre o disco rígido e o drive de disquetes. Isto facilitará a geração do calor gerado
pelo disco rígido. Se o gabinete for muito compacto, provavelmente você não terá
escolha. O aquecimento poderá ser maior que o ideal.
A figura a seguir mostra a parte interna de um gabinete, no qual estão
presentes um drive de CD-ROM, um drive de disquetes de 3½” e um disco rígido.
Todos são fixados ao gabinete através de parafusos laterais. É suficiente utilizar dois
parafusos de cada lado.
Fixação dos drives.
Drives de CD-ROM são fixados ao gabinete através de parafusos classe 1.
144
Drives de disquete de 3½” são fixados ao gabinete através de parafusos classe 1.
Para fixar o disco rígido ao gabinete, usamos parafusos classe 2.
Nos gabinetes torre, o drive de disquetes e o drive de CD-ROM são
introduzidos pela parte frontal, e a seguir aparafusados pelos seus furos laterais. A
figura 5-80 mostra a montagem de um drive de CD-ROM em um gabinete torre.
Lembre-se que o drive de CD-ROM utiliza três cabos: cabo de alimentação, cabo flat
e cabo de áudio. Se quiser pode conectar o cabo flat IDE e o cabo de áudio na parte
traseira do drive de CD-ROM, antes de colocá-lo no gabinete.
Fixando o drive de CD-ROM em um gabinete torre.
A figura abaixo mostra a instalação do drive de disquetes em um gabinete
torre. Assim como ocorre com o drive de CD-ROM, o drive de disquetes deve ser
145
introduzido pela parte frontal e aparafusado por seus furos laterais. Se achar
conveniente pode conectar o cabo flat no drive de disquetes antes de introduzi-lo no
gabinete.
Montando o drive de disquetes.
A figura a seguir mostra a montagem do disco rígido em um gabinete torre.
O disco é introduzido pela parte interna e a seguir aparafusado pelas laterais. Tanto
para o disco rígido como para o drive de disquete e drive de CD-ROM, devemos
utilizar dois parafusos de cada lado para a fixação.
Montando o disco rígido em um gabinete torre.
O processo de montagem em gabinetes torre pode ter pequenas variações.
Em certos gabinetes torre muito compactos, é preciso retirar a bandeja na qual são
montados o drive de disquetes e o drive de CD-ROM, para dar acesso à placa de
CPU. Esses drives podem ser montados na bandeja, e depois de aparafusados,
podemos fixar a bandeja ao gabinete.
146
Fixando o drive de disquetes e o disco rígido na bandeja removível.
O processo de fixação dos drives em um gabiente horizontal também pode
apresentar pequenas variações. Muitas vezes quando fixamos um dos drives,
obstruímos o acesso aos parafusos laterais de fixação para os outros drives. É
preciso portanto, antes de fixar o disco rígido, o drive de CD-ROM e o drive de
disquetes, verificar qual é a melhor ordem para fazê-lo. A figura a seguir mostra a
montagem de um drive de CD-ROM em um gabinete horizontal. Assim como nos
outros casos, usamos dois parafusos de cada lado.
Montando o drive de CD-ROM em um gabinete horizontal.
Na figura abaixo vemos a montagem de um drive de disquetes em um
gabinete horizontal. Note que neste exemplo, quando o drive de disquetes é
instalado, os parafusos laterais do drive de CD-ROM (veja a figura acima) ficam
inacessíveis. Neste caso devemos instalar primeiro o drive de CD-ROM, depois o
drive de disquetes.
147
Montando o drive de disquetes em um gabinete horizontal.
Alguns gabinetes horizontais possuem um local para a instalação do disco
rígido, debaixo da fonte de alimentação. Não é uma boa idéia instalar o disco rígido
neste local, pois há muita interferência eletromagnética da fonte para o disco rígido,
o que pode causar problemas no seu funcionamento. Além disso, o ventilador
existente na fonte pode produzir vibrações mecânicas que afetam o funcionamento
do disco rígido.
Montando o disco rígido sob a fonte de alimentação.
Se o gabinete tiver espaço, dê preferência para montar o disco rígido em
outro local. Muitos gabinetes possuem mais de um lugar para instalar um disco
rígido. Em alguns casos existe um segundo local para instalação de drives de CD-
ROM. Você pode então montar o disco rígido em um adaptador de 3 ½” para 5 1/4"
(figura abaixo) e montá-lo em um local destinado a drives de CD-ROM e outros tipos
de drives de 5 1/4".
148
Disco rígido montado em adaptador para 5 ¼”.
Existem ainda gabinetes que possuem uma bandeja para a montagem do
drive de disquetes e do disco rígido. Monte ambos nesta bandeja (figura 5-88), para
depois fixá-la ao gabinete.
Bandeja para fixar o drive de disquetes e o disco rígido.
3.17 LIGAÇÃO DA FONTE NOS DRIVES E DISCO RÍGIDO
Essas conexões são as mesmas, tanto em fontes AT como em ATX, tanto
em dispositivos novos quanto nos modelos antigos. Você já conhece os conectores
existentes na fonte, próprios para a alimentação dos drives de disquetes, disco
rígido, drive de CD-ROM e demais dispositivos que possam ser chamados de drives.
Na figura abaixo vemos a conexão da fonte no disco rígido. Observe o tipo de
conector da fonte que é usado nesta ligação. Normalmente as fontes possuem três
ou mais desses conectores. Todos eles são idênticos, e você pode ligar qualquer um
deles em qualquer dispositivo que possua este tipo de conector. Devido ao seu
formato pentagonal achatado, este conector não permite ligação errada. Se
tentarmos ligá-lo em uma posição invertida, o encaixe não poderá ser feito.
149
Conectando a fonte de alimentação no disco rígido
Na figura abaixo vemos como ligar a fonte de alimentação em um drive de
disquetes de 3½”. Preste muita atenção nesta conexão, pois se você tentar encaixá-
lo “de cabeça para baixo”, ou então deslocado para o lado, a conexão será feita, e
quando você ligar o computador, o drive queimará.
Conectando a fonte de alimentação em um drive LS-120
Use a figura a seguir como referência para fazer esta ligação corretamente.
Orientação correta da ligação do conector para drives de disquetes de 3½”.
Além de encaixar conectores, existem situações em que você precisará
fazer o inverso, ou seja, desencaixar conectores. A regra geral para desconectar
corretamente, é puxar sempre o conector, e não os fios. Ocorre que determinados
conectores possuem travas que impedem ou dificultam a desconexão. Se você tiver
dificuldade para desconectar, não puxe com muita força, pois você poderá danificar
o conector existente no drive. Use uma chave de fenda para destravar os
conectores, facilitando assim a desconexão. A chave de fenda deve ser introduzida
como mostra a figura abaixo.
150
Às vezes é preciso de uma chave de fenda para desconectar a fonte de um drive de disquetes de
3½”.
A conexão da fonte de alimentação no drive de CD-ROM é similar à já
mostrada para o disco rígido, pois é utilizado o mesmo tipo de conector.
Conectando a fonte de alimentação em um drive de CD-ROM.
3.18 CABOS FLAT
Existe uma regra simples para fazer qualquer conexão de cabo flat:
O fio vermelho do cabo flat deve ser encaixado no pino 1 do conector
Identificar o fio vermelho é muito fácil. Todos os cabos flat possuem o seu fio
número 1 pintado, ou então listrado de vermelho. Resta então saber identificar o
pino 1 de cada tipo de conector.
A figura abaixo mostra a conexão de um cabo flat em um drive de disquetes
de 3½”. Podemos ver no conector, na parte direita, o número 33, que em geral é
facilmente visualizado. Este conector possui 34 pinos, sendo que em uma
extremidade encontramos os pinos 1 e 2, e na outra extremidade encontramos os
pinos 33 e 34. Se sabemos qual é o lado onde está o pino 33, o lado oposto tem o
pino 1, e com ele deve ser alinhado o fio vermelho do cabo flat.
151
Ligando o cabo flat em um drive de disquetes de 3½”.
Não use regras empíricas, como “o fio vermelho fica sempre do lado
esquerdo”, pois existem exceções. A única regra precisa é a que manda ligar o fio
vermelho no pino 1 do conector.
Na figura a seguir vemos a conexão de um cabo flat IDE em um drive de
CD-ROM. Como mostra a figura, o drive possui (em geral) uma numeração
estampada na sua parte traseira, indicando os pinos 1 e 2 em uma extremidade, e
39 e 40 na outra extremidade. Caso você tenha dificuldades para identificar o pino 1,
consulte as indicações em geral impressas na parte traseira do drive, e também
encontradas no seu manual.
Ligando o cabo flat em um drive de CD-ROM.
Na figura abaixo temos a conexão de um cabo flat em um disco rígido IDE.
Observe que o disco rígido não possui indicação do seu pino 1. Entretanto, existem
diversas formas de identificá-lo.
152
Conectando o cabo flat IDE no disco rígido.
Uma forma de descobrir a numeração dos pinos de um conector é
consultando a serigrafia da placa de circuito. A serigrafia nada mais é que as
inscrições existentes nas placas, em geral em tinta branca. Às vezes é preciso
utilizar uma lupa para ler essas inscrições. A figura a seguir mostra a serigrafia
próxima ao seu conector, vemos claramente os números 39/40 em uma extremi-
dade, e 1/2 na outra.
Em geral é possível identificar a posição do pino 1 através da serigrafia.
Nem sempre existe serigrafia, ou inscrições na parte traseira do drive.
Quando isso ocorre, precisamos consultar o manual. A figura 5.98 mostra a parte
traseira de um drive LS-120 (disquetes de 120 MB). Não existem indicações no
drive, mas seu manual mostra claramente a posição do pino 1 do seu conector.
153
O manual do LS-120, e dos demais dispositivos IDE, informa a posição do pino 1.
Existe mais uma forma de localizar o pino 1 em conectores localizados tanto
nas interfaces quanto nos dispositivos IDE. Em geral esses conectores possuem
uma fenda localizada na sua parte central, como mostra a figura 5-99. Quando esta
fenda está orientada para baixo, os pinos 1 e 2 estarão orientados para a esquerda.
A posição da fenda no conector fêmea, quando voltada para baixo, indica que o pino 1 está para a
esquerda
Além de ligar os cabos flat nos diversos tipos de drives citados aqui, é
preciso saber ligá-los também nas suas interfaces, ou seja, nos conectores
apropriados da placa de CPU. Continua sendo válida a regra do fio vermelho, ou
seja, o fio vermelho do cabo flat deve ficar alinhado com o pino 1 do conector.
Precisamos então localizar nos conectores das placas, a posição dos respectivos
pinos 1.
Conectores para drives de disquete e interfaces IDE em uma placa de CPU.
154
Algumas vezes o conector do cabo flat e os conectores existentes na placa
de CPU são feitos de tal forma que a conexão invertida é evitada. Observe os
conectores mostrados na figura acima. Cada um deles possui uma fenda na sua
parte central, como já havíamos mostrado na figura anterior. Certos conectores
usados em cabos flat possuem uma saliência que se encaixa exatamente nesta
fenda. Se tentarmos encaixar o conector ao contrário, a saliência não permitirá a
conexão.
A maioria dos cabos flat possuem uma saliência para evitar o encaixe na posição invertida.
A figura acima mostra um conector de um cabo flat, no qual existe uma
saliência que impede o encaixe invertido. Infelizmente, nem todos os cabos flat
possuem conectores com esta saliência. Desta forma, o usuário precisa realmente
identificar a posição do pino 1, evitando assim o encaixe invertido.
Além de saber identificar a posição do pino 1, é preciso também saber
identificar as interfaces. O conector da interface para drives de disquete é um pouco
mais curto que os conectores das interfaces IDE. Possui apenas 34 pinos. Os
conectores IDE possuem 40 pinos. Portanto, na figura anterior, o conector mais
curto é o da interface para drives de disquetes, e os dois maiores são os das
interfaces IDE. Além disso, é preciso identificar qual das duas interfaces IDE é a
primária, e qual é a secundária. Muitas vezes esta indicação é feita na serigrafia,
como no exemplo da figura abaixo. Ao lado dos conectores, temos as indicações
IDE 1 (primária) e IDE 2 (secundária).
155
É preciso identificar qual das interfaces IDE é a primária e qual é a secundária.
A figura abaixo mostra um cabo flat encaixado corretamente na interface IDE
primária.
Conectando o cabo flat IDE na placa de CPU.
Como vimos, nem sempre o conector do cabo flat possui a saliência que se
encaixa na fenda existente nos conectores da placa de CPU. Quando isso ocorre,
devemos identificar o pino 1 por outros meios. Podemos verificar se o número 1 está
indicado na serigrafia, ou então consultar o diagrama existente no manual da placa
de CPU. Para facilitar ainda mais, apresentamos na figura a seguir, a numeração
dos pinos desses conectores. De acordo com a figura abaixo, quando olhamos
esses conectores com a fenda central voltado para baixo, o pino 1 estará orientado
para a esquerda.
156
Numeração de pinos de conectores IDE e da interface para drives de disquete da placa de CPU.
Em caso de dúvida, consulte o manual da placa de CPU, onde sempre
estarão as indicações necessárias. A figura 5-105 mostra um trecho de um manual,
no qual está descrita a numeração dos pinos das interfaces IDE e da interface para
drives de disquete.
O layout da placa de CPU, existente no seu manual, também facilita o encaixe correto dos cabos.
3.19 JUMPERS DE DISPOSITIVOS IDE
Se você vai instalar um disco rígido IDE, novinho em folha, como o único
dispositivo da interface IDE primária, então não precisa se preocupar com a sua
configuração de jumpers. A configuração de fábrica é adequada para este tipo de
instalação (Master, sem Slave). Já o mesmo não pode ser dito quando você
pretende instalar dois discos rígidos, ou então quando pretende instalar outros
dispositivos IDE, como drives de CD-ROM, drives LS-120 ou ZIP Drive IDE. Nem
sempre a configuração com a qual esses dispositivos saem da fábrica é adequada à
instalação direta, sem que o usuário precise revisar os seus jumpers. Vamos então
apresentar os jumpers dos dispositivos IDE, e como devem ser programados para
cada modo de instalação.
157
Jumpers de um disco rígido.
Um disco rígido IDE pode ter seus jumpers configurados de 3 formas
diferentes:
Master O drive está preparado para operar como Master (Dispositivo principal de uma interface), sem Slave (não há um segundo dispositivo na mesma interface).
Slave O disco rígido é o Slave, ou seja, o segundo dispositivo IDE ligado a uma interface.
Drive is Master, Slave Present
Nesta configuração, o disco rígido é o Master, porém, existe um segundo dispositivo IDE ligado na mesma interface.
As configurações de outros dispositivos IDE (drive de CD-ROM, LS-120, ZIP
Drive IDE, etc) são parecidas, exceto pelo fato de não utilizarem a configuração
Slave Present. Portanto, as configurações válidas para esses dispositivos são:
Máster ou Slave. São fornecidas pequenas tabelas impressas nos próprios
dispositivos indicando a posição dos Jumpers para cada configuração.
158
Exemplo de tabela de configuração de jumpers de um disco rígido.
3.20 JUMPERS EM DRIVES DE CD-ROM
A figura 5-108 mostra os jumpers de um drive de CD-ROM IDE. Observe
que não existe o jumper Slave Present, apenas jumpers que o definem como Master
ou Slave. Existe também a opção Cable Select, comum em vários dispositivos IDE,
mas ainda pouco usada. Muitos drives de CD-ROM são configurados como Slave na
fábrica. É preciso fazer uma revisão nos seus jumpers, programando-os
corretamente. Os drivers juntamente com os jumper as inscrições “CS, SL, MA”. Que
significam repectivamente: “Cable Select”, “Slave”, “Máster”. Os jumpers se
encontram na parte posterior do driver, entre a interface IDE e o conector de áudio.
Jumpers de um drive de CD-ROM IDE.
3.21 MONTAGEM DAS PLACAS DE EXPANSÃO
159
Esta é mais uma etapa que independe do fato do gabinete ser horizontal ou
vertical, AT ou ATX, grande ou pequeno. Em todos os modelos a posição relativa
entre a placa de CPU, as placas de expansão e os pontos de fixação no gabinete
são semelhantes.
As principais placas de expansão que um computador pode ter são:
Ω Placa de vídeo
Ω Placa de som
Ω Placa de interface de rede
Ω Placa fax/modem
Ω Placa controladora SCSI
3.22 ENCAIXANDO UMA PLACA DE EXPANSÃO
É claro que existem placas de CPU com “tudo onboard”, que permitem
montar um PC sem utilizar placas de expansão. Ainda assim casos como este são
minoria. Todo técnico ou montador de PCs deve estar apto a conectar e desconectar
placas de expansão. O encaixe de uma placa de expansão está ilustrado na figura a
seguir. Usamos como exemplo uma placa PCI, mas o mesmo princípio é usado para
placas ISA e AGP. Alinhe a placa sobre o slot e aplique movimentos alternados até
que a placa fique totalmente encaixada. Esses movimentos alternados são ilustrados
na figura a seguir.
160
Encaixando uma placa de expansão em um slot.
1 Coloque a placa apoiada sobre o slot, mas ainda sem forçar.
2 Force a placa para baixo, primeiro em uma extremidade.
3 Force a placa para baixo, na outra extremidade.
4 Repita as etapas 2 e 3, até que aos poucos a placa fique totalmente
encaixada.
Encaixando uma placa de expansão em um slot
Em detalhe a abertura das placas de expansão para fixação ao gabinete
161
Placas de expansão são fixas ao gabinete, a princípio com parafusos classe 1; se forem
inadequados, use os de classe 2.
Neste momento devemos também instalar dispositivos que não são
exatamente placas de expansão, mas também são fixados na parte traseira do
gabinete. Por exemplo, muitas placas de CPU com dispositivos onboard são
acompanhados de conectores auxiliares que dão acesso às suas interfaces. Podem
ser simples conectores, mas em alguns casos são pequenas placas ligadas a um
pequeno cabo flat que deve ser encaixado no ponto apropriado da placa de CPU.
Siga as instruções do manual para fazer esta conexão corretamente.
Conectores auxiliares de interfaces onboard.
No caso das placas de CPU padrão AT, instale ainda os conectores das
interfaces seriais e paralelas. Esses conectores podem ser aparafusados
diretamente ao gabinete, nos pontos onde se fixam placas de expansão, ou então
podem ser desmontados e instalados em fendas existentes na parte traseira do
gabinete.
162
Instale os conectores das interfaces seriais e paralela, se estiver usando uma placa de CPU AT.
3.22.1 distribuição das placas pelos slots
A escolha dos slots a serem usados é um ponto importante. Para placas
AGP, não existe escolha, pois as placas de CPU possuem um único slot AGP. Já os
slots PCI são em maior número. Devemos tentar deixar livre o primeiro slot PCI
localizado ao lado da placa AGP, se isto for possível. As placas 3D modernas
esquentam muito, e deixar uma posição livre ajudará a melhorar a dissipação do
calor gerado por este chip.
3.22.2 feche as fendas sem uso
Utilize as tampas metálicas que acompanham o gabinete para fechar as
fendas traseiras que não estiverem em uso. Se as fendas sem uso ficarem abertas,
o fluxo de ar no interior do gabinete, fundamental para a sua boa refrigeração, será
prejudicado.
163
Use as tampas metálicas para fechar as fendas sem uso no gabinete.
3.23 LIGAÇÕES NA FONTE DE ALIMENTAÇÃO
A fonte de alimentação já foi ligada na placa de CPU. Chegou a hora de ligá-
la também no disco rígido, no drive de disquetes e no drive de CD-ROM. Se estiver
utilizando outros tipos de drives (por exemplo, um gravador de CDs ou um drive de
DVD), ligue-os também na fonte.
Ligando o disco rígido na fonte de alimentação.
164
Ligando o drive de CD-ROM na fonte de alimentação.
Ligando o drive de disquetes na fonte de alimentação.
3.24 CABOS FLAT
Uma vez tendo identificado a interface IDE primária, ligue-a ao disco rígido,
utilizando o cago IDE apropriado. Para o funcionamento nos modos ATA-66 e ATA-
100, deve ser usado o cabo flat IDE de 80 vias. Para operar em ATA-33, o cabo IDE
de 40 fias pode ser usado, mas ele deve ter no máximo 45 centímetros. Se esta
regra não for observada, poderão ocorrer erros de acesso ao disco rígido, e mesmo
ao drive de CD-ROM. O cabo flat IDE do disco rígido deve ser ligado no conector
apropriado do próprio disco, e também na interface IDE primária da placa de CPU.
165
Conectando o disco rígido na sua interface.
A ligação do cabo flat IDE no drive de CD-ROM é feita da mesma forma.
Ligue o cabo flat no drive de CD-ROM e na interface IDE secundária, como mostra a
figura a seguir.
Conectando o drive de CD-ROM na sua interface.
Lembre-se que cada interface IDE pode ser conectada a dois dispositivos.
Quando apenas um dispositivo é usado, devemos utilizar o conector existente na
extremidade do cabo. Se a extremidade de um cabo IDE ficar sem conexão,
poderão ocorrer erros no seu funcionamento. Quando dois dispositivos IDE são
ligados na mesma interface, utilizaremos os dois conectores do cabo. O que definirá
qual deles é o primeiro e qual deles é o segundo (por exemplo, entre dois discos
rígidos, qual será C e qual será D) são os jumpers Master/Slave. A posição de cada
disco no cabo não tem influência sobre a letra ocupada.
166
Conectando o drive de disquetes na sua interface.
A conexão do drive de disquetes deve ser feita da mesma forma como
fizemos para o disco rígido e o drive de CD-ROM. Usamos o cabo flat IDE de 34
vias, próprio para o drive de disquetes. O drive deve ser obrigatoriamente ligado no
conector da extremidade do cabo.
3.25 LIGAR PARA TESTAR
Mais uma vez ligaremos o computador para testá-lo. Desta vez será possível
realizar o boot através de um disquete. Ao ser ligado, aparecerão na tela as
mensagens do BIOS da placa de vídeo e da placa de CPU, com a indicação do
processador, seu clock e a quantidade de memória. Será feito o boot através de um
disquete. Este disquete de boot pode ser gerado com o comando FORMAT A: /S. Se
preferir pode gerar um disquete de inicialização a partir de um computador que já
possua o Windows instalado. Use o Painel de Controle, Adicionar e remover
programas, Disco de inicialização. Será feito o boot do sistema operacional
Windows, no modo MS-DOS. Ainda não será possível acessar o disco rígido, pois
ele precisa ser inicializado, como veremos mais adiante neste capítulo.
167
Tela apresentada ao fazer um boot sem unidade de inicialização
Verifique ainda se todos os LEDs do painel frontal do gabinete estão
funcionando. Se um LED não acender, será preciso inverter a polaridade da sua
ligação na placa de CPU. Antes de inverter a polaridade, desligue o computador
para evitar acidentes. Verifique se o botão RESET está operando corretamente.
168
4. TIPOS DE GABINETE
O gabinete é considerado a estrutura do PC porque é nele que todos os
componentes internos serão instalados e fixados. Portanto, a escolha de um
gabinete adequado aos componentes que serão integrados é de extrema
importância, pois uma escolha inadequada irá prejudicar a instalação e a fixação dos
componentes. Outro fator na utilização de um gabinete inadequado é má
refrigeração, o que aumenta a sua temperatura interna, prejudicando o
funcionamento do PC com constantes “travamentos” do processador, e em alguns
casos, até a sua queima ou de outros componentes.
Modelos de Gabinetes
O mercado disponibiliza os seguintes modelos de gabinete para integração
de PC’s:
Ω Full tower – Torre Grande
Ω Midi tower – Torre Média
Ω Mini tower – Torre Mini
Ω Desktop – Gabinete de mesa
Ω Desktop slim – Gabinete de mesa fino
Os modelos midi e mini tower são normalmente empregados na integração
de PC’s para aplicações profissionais ou domésticas. Para ambientes ao qual a
economia de espaço é fundamental.
Geralmente os gabinetes desktops necessitam que um ventilador interno
adicional seja instalado para compensar o menor espaço interno, o que dificulta sua
refrigeração.
Outra desvantagem dos modelos desktop’s é a falta de espaço para a
instalação de periféricos adicionais.
O modelo full tower é empregado para integração de PC’s servidores, já que
esses disponibilizam espaço suficiente para a integração de vários periféricos
adicionais, motherboard’s com dimensões maiores e, também maior circulação de ar
interno.
169
Do ponto de vista externo, um gabinete ATX é bem parecido com um
gabinete AT.
As diferenças são mínimas. Uma delas é que o velho botão Turbo, como o
Turbo LED, que já haviam caído em desuso há alguns anos, foram definitivamente
eliminados. Também existe diferença na disposição dos conectores na parte traseira
do gabinete, como veremos a seguir.
Alguns Modelos de Gabinetes
Os gabinetes possuem em seu painel frontal diversos LEDs indicadores e
chaves de controle:
Ω Chave para trancar o teclado
Ω Botão TURBO
Ω Botão RESET
Ω Botão ou chave para ligar o computador
Ω LED de POWER ON
Ω LED indicador de modo turbo
Ω LED indicador de acesso ao disco rígido
Ω Display digital para indicação de clock
Existem diversos modelos de gabinetes no mercado. Abaixo apresentamos
alguns deles:
170
Gabinete Full Tower
Observar o maior espaço para instalação dos componentes e periféricos.
Este tipo de gabinete é normalmente utilizado para implementação de Servidores.
Gabinete Midi Tower
Estes são os gabinetes mais utilizados em ambientes domésticos.
Normalmente utilizam uma fonte padrão ATX, por ser a tecnologia mais utilizada no
momento.
171
Gabinete Mini Tower
Ideal para quem precisa reduzir o espaço utilizado pelo computador. Porém,
você perde em espaço interior para ligação de periféricos.
O sistema de refrigeração deverá ser reforçado.
Gabinetes no Padrão AT Têm Um Sistema de LED Que Identifica a Velocidade de
Processamento da CPU. Além do Botão Turbo Que Aciona Sua Troca.
Os gabinetes modelos Desktop, são próprios para trabalharem com o
monitor sobre eles. Desta forma, também economizam espaço físico, mas também
precisamos ficar atentos ao sistema de refrigeração.
172
Modelo de Gabinete Desktop
Desktop Slim
Os Desktops Slim são mais finos que os Desktops comuns. Notar que o
espaço físico dentro do gabinete é bastante reduzido.
173
Vista Interna de Um Gabinete Torre ATX
Interior de Um Gabinete Torre ATX
174
Exemplo de Gabinetes Atuais
4.2 AS FORMAS DOS COMPUTADORES DE HOJE
Os computadores podem ser classificados de acordo com diversos critérios:
Ω Velocidade de Processamento
Ω Capacidade de Armazenamento
Ω Utilização
Ω Tamanho Físico
175
Utilizaremos, inicialmente, o critério do Tamanho Físico para definir os tipos
de computadores.
4.2.1 Supercomputadores
Supercomputadores trabalham processando uma grande quantidade de
dados, muito rapidamente e com uma performance altíssima, pois possuem diversos
processadores trabalhando paralelamente.
Aplicação: Este tipo de computador foi desenvolvido para processar
aplicações científicas complexas, que envolvam muita quantidade e complexidade
de cálculos matemáticos.
Preço: Milhões de dólares
Ω Existem muito poucos equipamentos destes no mundo, uma vez
que o seu custo de produção é muito alto.
São o topo de linha em termos de velocidade e recursos. Normalmente são
usados para desenvolvimentos de de pesquisas e aplicações que exigem sistemas
de altíssimo desempenho.
Ex: CERN, NASA
176
177
4.2.2 Mainframes
Na década de 1950, computadores eram máquinas grandes e complexas,
operadas por pessoas altamente especializadas.
Para processar os dados, os usuários se enfileiravam para submeter suas
leitoras de cartões ou fitas magnéticas que eram processados em lote.
Não havia nenhuma forma de interação direta entre usuários e máquina.
Esses computadores são conhecidos hoje como mainframes.
Os mainframes funcionavam em instalações especiais, geralmente em
ambiente climatizado e de acesso restrito Nesta época, era comum que as
empresas orgulhosamente os exibisse através de janelas de vidro para que os
usuários pudessem vê-los e admirá-los, afinal eram caríssimos
Para utilizar o computador, os usuários precisavam encaminhar os dados
que desejavam processar para o operador do mainframe no centro de computação.
Daí surgiu o termo Centro de Processamento de Dados ou CPD.
Avanços na década de 1960 possibilitaram o desenvolvimento dos primeiros
terminais interativos, permitindo aos usuários acesso ao computador central através
de linhas de comunicação.
Isso tornou possível disponibilizar terminais (monitores + teclado) remotos
em outros pontos das instalações para que os usuários pudesse ter acesso ao
mainframe à distância.
Os usuários passavam então a ter um mecanismo que possibilitava a
interação direta com o computador, ao mesmo tempo em que avanços nas técnicas
178
de processamento davam origem a sistemas de tempo compartilhado (time-sharing),
permitindo que várias tarefas dos diferentes usuários ocupassem simultaneamente o
computador central, através de uma espécie de revezamento no tempo de ocupação
do processador.
Esse terminais não eram computadores em si, eram apenas periféricos
ligados ao mainframe.
Avanços na década de 1960 possibilitaram o desenvolvimento dos primeiros
terminais interativos, permitindo aos usuários acesso ao computador central através
de linhas de comunicação.
Conhecidos também como computadores de “Grande Porte”
179
Ocupam salas inteiras e fazem todo o processamento centralizado Os
usuários utilizam terminais para interagir com o computador central
Aplicação: Os Mainframes são computadores multitarefa geralmente
utilizados em áreas que trabalham com bancos de dados imensos.
Ex: Departamentos governamentais, grandes empresas
Preço: Milhões de dólares
A ViON mainframe computer manufactured by Hitachi.
180
Mainframe IBM (maior fabricante mundial)
4.2.3 minicomputadores
A partir de 1970, com o desenvolvimento dos minicomputadores, os grandes
fabricantes já começavam a planejar soluções com o objetivo de distribuir o poder de
processamento dos mainframes e assim facilitar o acesso às informações.
181
Menores que os Mainframes em todos os sentidos, mas com capacidade de
executar diversos programas e serem utilizados por vários usuários ao mesmo
tempo.
Usados nas empresas que não tinham condições financeiras de adquirir um
Mainframe. Perderam espaço gradativamente para as redes de
microcomputadores.
A VAX minicomputer
Aplicação: Os Minicomputadores tinham a capacidade de processar uma
grande quantidade de dados, mas sua grande qualidade era a possibilidade de se
conectar a outros Minicomputadores e também aos Mainframes. Assim, ele
praticamente iniciou o conceito de trabalho em rede (Networking), e se popularizou
entre as grandes e médias empresas que não possuíam dinheiro para adquirir um
Mainframe.
Preço: Entre $15,000 e $150,000 dólares
182
4.2.4 PC´s
Avanços tecnológicos reduziram o custo e a complexidade operacional do
hardware, possibilitando que cada usuário pudesse dispor de um computador
próprio. Daí nasceu o termo "Personal Computer", ou PC.
Com o PC, o CPD deixa de ser necessário. Em relação aos mainframes, os
PCs possuem algumas vantagens:
Ω Menor investimento inicial: o custo da aquisição de um único
mainframe de grande porte pode ser substituído pelo da aquisição de
PCs conforme a demanda.
Ω Mais simples manutenção: é mais conveniente substituir um
único PC com defeito do que desativar o único mainframe para reparo
(logo, é mais seguro também).
Ω Menor custo de atualização: é economicamente mais viável
atualizar os PCs ao longo do tempo do que realizar um 'upgrade' em
um servidor de alta sofisticação.
Mas os PCs possuem algumas desvantagens também...
Enquanto os usuários dos mainframes compartilham seus periféricos
(impressora, dispositivo de armazenamento), em uma instalação baseada em PCs
esses recursos ou são exclusivos de cada máquina (e os usuários precisam se
deslocar para utilizá-los) ou devem ser replicados (aumentado o custo de aquisição
e manutenção).
Nos mainframes, todos os dados podiam ser disponibilizado na central de
processamento, ao passo que em uma instalação de PCs os dados que necessitam
ser cruzados podem estar espalhados em mais de uma estação, requisitando
183
intervenção do usuário para transportá-los fisicamente (através de disquetes, por
exemplo).
4.2.5 Microcomputadores PCs
Microcomputador PC – Personal Computer
É o mais comum dos computadores. Utilizados tanto em ambientes
profissionais quanto domésticos Responsáveis diretos pela popularização da
informática.
Aplicação: O rápido desenvolvimento de sua capacidade de processamento
e a redução gradativa de preço, fizeram com que os Microcomputadores se
popularizassem rapidamente (principalmente na década de 90) e passassem a ser
utilizados em praticamente todas as empresas, não havendo uma área de atuação
específica.
A possibilidade de interligar diversos Micros em rede acabou por reduzindo a
popularidade dos Mainframes e Minicomputadores e contribuindo para esta
popularização do uso do Microcomputador.
Microcomputador PC.
4.2.6 Notebooks
Micros portáteis Inicialmente foram chamados de Laptops, pois podiam ser
usados no colo (lap, em inglês). Com o passar do tempo, tiveram seu tamanho
reduzido e uma nova geração foi lançada com o nome de Notebooks (cadernos),
pois o seu tamanho se aproximava ao de um caderno.
184
notebooks
Notebook.
4.2.7 Palmtops
Caracterizam-se pelas suas dimensões limitadas.
Ainda podem ser vistos como um micro, pois possuem teclado e monitor de
vídeo.
Palmtop
185
4.2.8 PDAs
Personal Digital Assistant.
Não possuem teclado;
Os dados são inseridos através de uma caneta que “escreve” diretamente
sobre a sua tela e seleciona itens e menus de programas.
Podem ser conectados aos micros e fazer transferência de dados entre as
unidades.
4.2.9 Sistemas Embarcados
“Sistemas Embarcados” é a classificação dada a equipamentos que
contenham microprocessadores pré-programados para executar uma determinada
tarefa requerida para o seu funcionamento.
Aplicação: Chips em celulares, máquinas de lavar, aparelhos de vídeo e
som, calculadoras, etc.
186
5 DISPOSITIVOS SECUNDÁRIOS DE ARMAZENAMENTO
Atualmente, pode-se afirmar que o sucesso de um negócio depende
essencialmente da capacidade de seus administradores em gerenciar informações.
Acessar os dados certos e rapidamente, analisá-los para projetar os rumos que a
empresa deve tomar são habilidades desejadas por toda pessoa que tem poder de
decisão. Em níveis não gerenciais, também há aqueles cuja função depende do uso
de várias formas de bases de dados. A empresa moderna é resultado dos moldes da
tecnologia implantada.
Cada vez mais, os negócios dependem de seus sistemas e aplicativos.
Prestar melhores serviços e ter soluções computacionais eficientes são medidas
necessárias para aumentar a produtividade. E, ao longo do tempo, vem-se
observando a crescente necessidade de espaço digital para armazenar dados. Se
anos atrás, alguns MB eram suficientes para guardar os dados de uma empresa,
hoje as dimensões são da ordem de GB e TB. E a necessidade por mais espaço
continua crescendo.
A gravação/armazenagem é o meio pelo qual pode-se capturar informações
(texto, som, imagem, vídeo) permanentemente e, eventualmente, ser re-trabalhado.
É baseada na conversão de sinais elétricos em: sinais magnéticos, padrões
mecânicos, padrões ópticos e sinais eletrônicos (chips).
No computador, há vários dispositivos para armazenagem de dados, como
RAM, cache, HD e fitas, numa relação hierárquica. Os dados manipulados
diretamente pela CPU são mantidos na memória principal (RAM). Mas, não importa
quanta RAM há, no computador nunca tem o suficiente; e, pior, qualquer coisa
armazenada é perdida se faltar energia ou ocorrer algum problema.
Assim, a memória RAM é utilizada principalmente para programas e dados
nos quais se está trabalhando. Por ser manipulada diretamente pela CPU, é
chamada armazenagem primária. Mas, para prover armazenagem com maior
confiabilidade e permanente, a solução adotada é a armazenagem secundária,
normalmente um drive de disco rígido.
A armazenagem secundária envolve dispositivo e mídia. Por exemplo, um
drive de disquete é um dispositivo e o disco no qual se armazena os dados é a
mídia. O dispositivo de armazenagem lê e escreve os dados na mídia. Gravar é
copiar dados da memória do computador para a mídia. A leitura copia os dados da
187
mídia de volta à memória do computador. A cabeça (head) de leitura/escrita
(read/write) é a parte do dispositivo que escreve e lê dados conforme a mídia se
move.
5.1 HIERARQUIA E CONCEITOS PRELIMINARES
Se os dados fossem armazenados sempre em RAM, não seria necessário
estudar sistemas de arquivos separadamente. Mas, como a memória primária (RAM)
empregada atualmente é volátil (apaga ao se desligar o computador), os dados
(programas ou dados propriamente dito) devem ser armazenados em um sistema de
memória de massa (nome genérico dos dispositivos capazes de armazenar dados
persistentes para uso posterior), como: disquetes, discos rígidos, CD-ROMs, ZIP
drives etc.. As memórias RAM e os dispositivos secundários de armazenagem são
muito diferentes, pois:
Ω o tempo de acesso é muito menor para RAM (da ordem de
100.000 vezes em relação aos HDs);
Ω no caso do dispositivo secundário, os tempos de acesso não são
necessariamente iguais. Essa diferença tem grande impacto do ponto
de vista das estruturas de dados.
As limitações da tecnologia, fatores econômicos e a necessidade de manter
cópias auxiliares de dados críticos demonstram que, raramente, a memória principal
do computador atende as necessidades de suas aplicações. Por isso, além da RAM,
os computadores têm, em sua maioria, sistemas de armazenagem de massa. A
variedade desses dispositivos e as características específicas de cada um permitem
aos sistemas de computação utilizar simultaneamente vários tipos em níveis
diferentes de armazenagem, formando uma estrutura hierárquica que visa obter uma
ótima relação custo/benefício, aproveitando as melhores propriedades de cada um.
Dessa forma, pode-se classificar estes dispositivos em níveis de armazenagem:
Ω Primária (memória principal e cache) - circuitos eletrônicos
manipulados diretamente pela CPU (execução). É volátil (dados
temporários) com alta taxa de transferência, mas possuem alto custo
e capacidade limitada.
188
Ω Secundária ou externa (Flash, HD, tambores magnéticos etc.) -
ou armazenagem on line. Manipulados indiretamente pela CPU. São
dispositivos não voláteis (armazenagem permanente) de maior
capacidade, menor custo, mas mais lentos. Os dados são
tradicionalmente armazenados em grandes arranjos, os arquivos.
Uma de suas desvantagens é que eles requererem movimentação mecânica
(menos os de estado sólido), sendo, portanto, muito mais lentos que a memória
principal ao manipular os dados. Uma das vantagens é ter o custo menor que a
memória principal, além de permitir retirar o meio físico no qual os dados são
gravados do computador e guardar em outro local (backup) por razões de
segurança.
Ω Terciária (armazenagem óptica - CD e DVD, armazenagem
magnética - fitas) - dispositivos lentos, para armazenagem offline
(normalmente desligado do computador), ou seja, arquivamento,
cópias de segurança e similares.
Quanto à tecnologia, as mídias e os dispositivos secundários de
armazenagem existem em 5 categorias de armazenagem:
Ω Estado sólido - como o dispositivo de armazenagem de
memória flash que usa chips de estado sólido parecidos com da
memória interna do computador, porém, seus dados permanecem
registrados se a energia é desligada (não volátil). Como estes
dispositivos não têm partes móveis, eles são mais rápidos que discos
e fitas operados mecanicamente. São placas de memórias instaladas
no próprio computador, ou discos de estado sólido (placas
semicondutoras formatadas como se fossem discos magnéticos). São
empregados em ambientes cujos arquivos são acessados
freqüentemente por um no grande de usuários de maneira a impedir o
congestionamento do ambiente.
Ω Magnético - ao colocar dois imãs, extremidade com
extremidade, eles se atraem e ao inverter um deles, eles se repelem.
Isto é causado porque polaridades opostas se atraem, e polaridades
idênticas se repelem. Dispositivos magnéticos caracterizam-se por
terem superfícies revestidas de substâncias magnéticas que sofrem
alterações da orientação em seus campos magnéticos, permitindo
189
codificar e armazenar informação, usando estes dois estados
magnéticos para registrar dados em disco ou fita.
Quando um disco gira ou uma fita se move, sinais elétricos nas cabeças de
leitura/escrita do drive mudam a polaridade de partículas magnéticas minúsculas na
superfície magnética da mídia para registrar 0s e 1s. Quando se recupera um
arquivo, o efeito é invertido.
A polaridade da mídia induz uma corrente elétrica na cabeça de
leitura/escrita que é transmitida ao computador na forma de 0s e 1s. Exemplos: fitas
ou bandas magnéticas, discos rígidos e flexíveis, Zip disks.
Ω Óptico - caracteriza-se por utilizar tecnologia laser, ou seja,
intensos feixes luminosos para queimar covas (pits) pequenas na
superfície de um disco. No caso de CDs, CD-ROM, e discos de DVD,
as covas são criadas quando a superfície do disco é forçada em um
molde. As covas são escuras e os lugares sem covas (lands),
permanecem brilhantes e lisos. Um dispositivo de play-back pode ler
este revezamento de manchas escuras e claras como 0s e 1s.
Com os giros do disco no drive, um feixe fino de luz laser é enfocado na
superfície do disco. Pits refletem menos luz que as lands. Um dispositivo
photodetector mede a quantia de luz refletida, determinando se o raio laser enfocou
um pit ou um land e circuitos convertem sua leitura em um 0 ou 1.
Exemplos: CD-ROM, CD-R, CD-RW; DVD-ROM, DVD-R, DVD-RAM.
Ω Magneto-Óptico (MO) - sistemas portáteis de alta longevidade
altas capacidade de armazenagem e acesso não linear. Para registrar
os dados, o laser aquece a face do disco. Após aquecer a um ponto
específico, a orientação magnética de partículas é mudada facilmente
pela cabeça magnética de leitura/escrita. Quando a área esfria, fica
difícil apagar os dados com outras fontes magnéticas perdidas, sendo
assim, mais seguro que outras mídias. Estão disponíveis em dois
formatos, rewritable (regraváveis) e Write Once Read Many (WORM)
que só permitem gravação uma única vez, mas leitura infinita.
Em papel - cartões e fitas perfuradas.
Ω Cartões perfurados - um dos primeiros tipos de memória
secundária. Retângulo de cartolina, flexível e resistente em que a
190
informação é armazenada por perfurações. Cada posição perfurada
equivale ao estado lógico 1 e a ausência da perfuração ao 0. A leitura
dos cartões pode ser feita de 2 modos: com escovas metálicas que
entram em contato (estabelecendo uma ligação elétrica) ao
encontrarem uma perfuração ou por meio de células fotoelétricas, que
geram uma corrente elétrica quando, sobre elas, incide um raio
luminoso (o que só sucede ao aparecerem as perfurações).
Ω Fitas perfuradas - fita de papel resistente enrolada onde o dado
é armazenado por perfurações e a leitura feita por células
fotoelétricas. Como nos cartões perfurados, a posição perfurada
equivale ao estado 1 e a ausência de perfuração ao 0. A fita,
inicialmente, encontra-se enrolada numa bobina de entrada. Seu
deslocamento é assegurado por rodas dentadas, cujos pinos
encaixam nos furos de arrasto da banda. Na medida em que é lida ou
perfurada, a fita vai sendo enrolada na bobina de saída. Para uma
nova leitura da fita, ela deve ser previamente rebobinada.
Os dispositivos da memória secundária têm o tempo de acesso muito maior
que a RAM. Além disso, os tempos de acesso aos dispositivos secundários não são
iguais e essa diferença tem grande impacto do ponto de vista das estruturas de
dados e sua funcionalidade. Assim, o conhecimento de seu funcionamento e
limitações se faz necessário para que se aproveite ao máximo suas melhores
características funcionais. Isto porque estruturas de arquivos otimizadas são
projetadas empregando essas propriedades para se obter máxima eficiência com
custo mínimo de acesso.
Um dispositivo de armazenagem é classificado e avaliado por vários
critérios, como: velocidade e tipo de acesso; custo relativo (custo por unidade de
dados) para comprar a memória; nível de confiabilidade; forma de armazenagem.
Mas, e o melhor dispositivo de armazenagem? Depende da aplicação. Fatores
considerados são: dados imediatamente acessíveis, onde cada item é diretamente
endereçável; tempo de acesso constante aos dados, independente do local de
armazenagem; tempo de acesso mínimo (pequeno). Dessa forma, procura-se
minimizar os problemas existentes, utilizando-se o que se tem disponível da forma
mais eficiente possível. Cabe ao usuário decidir sobre a tecnologia mais adequada
para suas necessidades.
191
A hierarquia de armazenagem (Figura 1) relaciona os diversos níveis de
memória como:
Ω Registradores - parte da CPU com poucos elementos de
armazenagem (alguns bytes), possibilitando seu funcionamento.
Ω Cache - a cache entre o processador e memória principal (RAM)
é mais rápida e cara que a RAM, podendo ser em dois níveis, interno
e externo, com 8, 16 ou 32KB de cache interno e 128, 256, 512KB ou
1MB externo. Seu uso é gerenciado pelo sistema operacional. Devido
à velocidade dos dispositivos de massa, há a cache entre a memória
principal e a memória secundária. A cache de hardware (bloco de
memória situado na controladora dos discos) é usada para antecipar
a leitura dos próximos setores que poderão ser requisitados pelo
sistema. A cache de software é uma parte da memória principal
reservada para cache de disco e gerenciada por um programa
utilitário como o smartdrive do MS-windows e DOS.
Ω Memória principal - meio de armazenagem no qual os dados
disponíveis são manipulados diretamente pela CPU. Consiste em um
conjunto de circuitos de armazenagem de bits contido nos
computadores. É onde as instruções de máquina para uso genérico
operam. Geralmente, seu conteúdo é perdido se houver falha de
energia elétrica ou queda do sistema (memória volátil).
Seus circuitos de armazenagem são organizados em unidades
manipuláveis, as células (palavras ou posições), normalmente grupos de 8bits
(byte). Cada célula da memória principal é diferenciada por um valor numérico que a
identifica, o endereço, podendo ser individualmente referenciada, acessada e
modificada. Essa organização permite visualizar as células como uma fila única,
cujos elementos são numerados em ordem crescente, endereços 0, 1, 2 etc.. Logo,
além de se ter um meio de identificar univocamente cada célula, também é
associado a elas uma ordem, o que permite utilizar expressões como:
Ω próxima célula ou célula anterior. Portanto, dados armazenados
na memória principal podem ser processados em qualquer ordem,
razão pela qual este tipo de memória é conhecido como memória de
acesso aleatório (Random Access Memory - RAM).
192
Este acesso aleatório a pequenas porções de dados contrasta
significativamente com os sistemas de armazenagem de massa em que é
necessário manipular, como blocos únicos, cadeias de bits longas.
Ω Armazenagem em disco - principal meio de armazenagem de
dados de longa permanência ou persistentes (não volátil). Os dados
precisam ser movidos do disco para a memória principal para que
sejam manipulados. Após as operações, são retornados ao disco.
Possuem alta capacidade de armazenagem a baixo custo. Alguns
tipos de disco magnético: o disco rígido (hard disk) fixo tem alta
capacidade com baixo custo em relação a sua capacidade; o disco
flexível (floppy disks) que é barato, lento, com pouca capacidade, mas
portátil; o disco rígido removível que tem as vantagens de ambos
embora seja mais caro que o disco rígido fixo devido à necessidade
de conexão especial.
Ω Armazenagem em fita - normalmente usadas para
armazenagem off-line (cópias de segurança). É barato, mas seu
acesso é muito mais lento e seqüencial.
Hierarquia de armazenagem
Os tipos de dispositivos de armazenagem mais velozes, com tecnologia
mais cara, maior consumo de energia e maior produção de calor estão no topo
(Figura acima). São os dispositivos com menor densidade (no de bits por área ou
193
volume). Como conseqüência, tem menor capacidade de armazenagem do que os
dispositivos dos níveis mais baixos.
A base da hierarquia consiste nos diversos dispositivos de armazenagem
secundária (magnéticos, ferromagnéticos, ópticos, e magneto-óptico) dentre os
quais memórias flash, discos Bernoulli, CD-R, fitas dat e streamer e discos rígidos
em geral.
5.2 DISPOSITIVOS DE ARMAZENAGEM DE MASSA
Nos dispositivos secundários não há uma tecnologia superior às demais.
Cada uma tem seu valor dependendo de sua utilização.
Logo, para se obter o melhor proveito, combina-se o sistema de computação
com vários tipos considerando os diversos fatores para conseguir a melhor
associação possível. Dentre as características críticas estão o tipo de aplicação, a
velocidade, o custo e a capacidade necessária. Outras características técnicas
consideradas dos dispositivos de armazenagem para sua análise/aquisição são:
· Capacidade - quantidade total de dados que pode ser armazenada no
dispositivo. Empregam-se os múltiplos de bytes como unidade (KB, MB, GB, TB, PB
etc.).
· Método de acesso - com acesso direto e seqüencial (discos magnéticos e
ópticos) ou apenas acesso seqüencial (fita).
· Portabilidade - as fitas magnéticas, CDR, CDRW, DVD, Zip drive, Jazz
drive etc. são mecanismos removíveis que permitem a armazenagem off-line e o
transporte de dados, melhorando a confiabilidade das cópias de segurança.
· Custo relativo - é definido como o preço (custo) por unidade de
armazenagem. Geralmente, o valor de um dispositivo aumenta proporcionalmente
com a velocidade e forma de acesso.
· Tamanho do registro - tamanho de um conjunto de dados contínuos que
podem ser endereçados pelo mecanismo.
· Tempo de busca (seek time) - em dispositivos de disco (HD, CD etc.) e
de tambor com cabeças de leitura/gravação móveis (mais antigos), cada operação
de leitura/gravação antecede uma procura que fisicamente consiste no tempo que
leva para posicionar a cabeça de leitura/gravação sobre a trilha (cilindro) que contém
os dados (registro) a serem recuperados.
194
Ele depende do no de cilindros (distância) pelo qual as cabeças precisam se
deslocar. É a operação mais cara (lenta) e normalmente inferior a 10ms. No pior
caso o tempo de busca corresponde ao deslocamento da cabeça da primeira trilha
até a última.
Exemplos de dispositivos: estado sólido, discos magnéticos (HD), opticos (CDR e CD-RW e fitas
(DLT) respectivamente.
· Tempo de latência (rotational delay) - após o mecanismo posicionar o
cabeçote sobre a trilha desejada, este leva um tempo adicional, antes que o início do
setor a ser acessado fique posicionado sob a cabeça de leitura/gravação e que a
transferência de dados possa começar; na fita magnética é o tempo para alcançar a
velocidade de operação a partir da posição parada.
Este tempo de espera (ou tempo de retardo rotacional do disco ou tambor)
da rotação do cilindro é o atraso necessário para mover o setor a ser lido/gravado
para a posição onde se encontra a cabeça de leitura/gravação. No pior caso esse
tempo corresponderá ao período de rotação do disco. O tempo médio necessário
para os dados passarem exatamente sob a cabeça de leitura/gravação
correspondente a ½ volta de rotação do disco.
· Tempo de transferência ou transmissão ou velocidade de
transferência de acesso ou taxa de transferência - é o tempo gasto para transferir
(ler/gravar) os dados do disco, cujo início se encontra sob a cabeça de
leitura/gravação, para a interface do disco e se torne disponível para manipulação
(geralmente definida em bits ou em caracteres/segundo). É a velocidade na qual os
dados são transferidos entre a memória interna e o dispositivo de armazenagem
(tanto para leitura quanto para escrita). O tempo de transferência = (no de bytes
transferidos/no de bytes por trilha) X tempo de rotação.
· Suporte a concorrência (compartilhamento) - capacidade de ser
compartilhado simultaneamente por dois ou mais usuários.
195
· Densidade da área de armazenagem - capacidade relativa de
armazenagem (no de bits, por exemplo) do dispositivo. É definido como o no de bits
ou bytes que podem ser armazenados por unidade de área.
Desempenho das tecnologias de armazenagem de massa (tempo médio de acesso em
milisegundos).
5.2.1 Outros critérios relevantes na escolha de um sistema de armazenagem
adequado
Quando se trabalha em ambiente corporativo, a preocupação não é só
identificar e usar um dispositivo de armazenagem de alta capacidade, mas, em
geral, um sistema que consiste num conjunto de drives e dispositivos além da
infraestrutura para empregá-los da melhor forma possível conforme a política de
utilização dos dados e de segurança. Logo, devem ser considerados:
· Preservação do investimento - o sistema deve ser modular e
dimensionado para atender as necessidades crescentes de armazenagem,
preservando todo investimento inicial além de permitir passos intermediários.
· Continuidade tecnológica - a escolha não pode ser frágil à obsolescência
e também deve ser flexível o suficiente para atender as várias unidades da
corporação.
· Custos de administração - não adianta armazenar e proteger os dados se
estes não são administráveis. O sistema deve contar com softwares sofisticados o
suficiente para permitir a implantação de rotinas de administração automáticas e
196
transparentes como, por exemplo, o planejamento diário totalmente automático da
política de cópias de segurança.
· Aumento da atuação on line do sistema - o software de gerenciamento
de backup deve possuir atributos para trabalhar com arquivos abertos bem como
com banco de dados relacionais.
· Alta disponibilidade - paradas não são suportáveis pela atual estrutura de
processamento. Logo, é importante a análise de resistência à falha, superando a
verificação por MTBF. Devido à dependência do acesso aos dados pelas empresas,
a disponibilidade é um dos elementos mais críticos da armazenagem. Um sistema é
considerado altamente disponível se, ao ocorrer falhas de hardware, os dados não
se perdem e ele volta ao estado de normalidade num prazo admissível pelos
critérios da empresa. Eles variam caso a caso. Mas, o tempo que ele pode ficar fora
do ar, depende dos custos decorrentes da paralisação.
Há empresas que podem ficar sem seus sistemas por horas; outras
enfrentam sérios problemas financeiros se pararem por alguns minutos. Para que
haja alta disponibilidade, há vários itens a serem considerados: falhas de discos e
computadores; mau funcionamento de programas; falta de energia; desastres (como
incêndios e sabotagem), erros acidentais causados por inexperiência ou
imprudência são possibilidades a serem reduzidas.
O conjunto de soluções adotado para a armazenagem de dados deve, de
algum modo, contornar esses riscos. A disponibilidade dos dados também é afetada
por problemas de desempenho. Portanto, o sistema de armazenagem deve estar
preparado para atender bem todos os usuários, mesmo em situações de pico ou em
casos imprevistos de alto tráfego. Da mesma forma, é importante que o
administrador tenha em mãos ferramentas para detectar e corrigir gargalos de
comunicação.
Backup também assegura a disponibilidade do sistema, pois permite
restaurar dados perdidos. Porém, nem sempre a empresa dispõe de horários em
que o sistema pode ser interrompido para efetuar o backup. Bancos de dados em
que as alterações de registros são feitas permanentemente precisam ser copiados
com regularidade, a intervalos curtos, sem que os usuários percam o acesso ao
sistema.
Soluções de espelhamento (mirroring), backup em tempo real ou outras
implementações resolvem a questão. Muitas vezes, as soluções acabam-se
197
integrando ao processo de arquivamento de modo que, sem backup, o sistema
acusa incorreção.
· Redundância a falha - evitar na estrutura pontos críticos a falhas sem
proteção para garantia da integridade dos dados.
· Desempenho compatível com a necessidade - analisar a máxima taxa
de transferência a ser conseguida da rede ou do canal do host, para que não se
pague por algo do qual não se obterá o máximo desempenho.
· Expansões futuras - os dados devem se manter disponíveis mesmo
enquanto a rede estiver crescendo. Se, para adicionar novos discos ou usuários for
preciso comprometer o funcionamento da rede, algo está errado. Escalabilidade é a
capacidade de expansão do sistema, de forma incremental, sem necessidade de
substituir recursos já implantados. Logo, um dos requisitos que é preciso observar
antes de escolher um sistema de armazenagem é o de escalabilidade.
Preferencialmente, novos periféricos acrescentados à rede não devem impor
programas extras para controle. Manter várias ferramentas diferentes, para
gerenciar recursos semelhantes pode acarretar má administração.
· Compartilhamento - a implantação de sistemas de armazenagem pode
exigir a capacidade de compartilhar dados para toda a rede da empresa. Às vezes, é
necessário que um arquivo ou banco de dados seja acessado por vários aplicativos.
Nem sempre é possível o acesso simultâneo de um arquivo que está armazenado
num servidor por dois programas, pois, em geral, os sistemas de arquivos são
projetados para acesso exclusivo.
Ao implementar uma solução de compartilhamento, é preciso garantir a
integridade dos dados durante as manipulações concorrentes. Esses fatores devem
ser analisados para avaliar corretamente as necessidades de armazenagem.
Dependendo da empresa, do volume de dados, do potencial de expansão, da
prioridade de disponibilidade e compartilhamento de dados etc., há um conjunto de
alternativas possíveis.
Normalmente há dois tipos de solução: uma que atende grupos de trabalho
que têm sistemas relativamente homogêneos a NAS (Network Attached Storage)
que compreende mini-servidores dedicados à armazenagem. Outra, mais complexa,
que supre as necessidades de empresas maiores, a SAN (Storage Area Network),
capaz de criar uma rede dedicada a sistemas de dados.
198
5.3 DISCO FLEXÍVEL OU DISQUETE
O FD (floppy disk) é um tipo de disco flexível feito de material plástico
(mylar) recoberto com uma camada magnética e contido em uma capa protetora
(Figura a seguir). São portáteis, úteis para o transporte de pequenas quantidades de
dados. São de 8” e 5¼” (os mais antigos e fora de uso) e 3½” que são obsoletos.
Disco flexível de 3½”.
Os discos com gravação em apenas uma face são co nhecidos como
simples face e os com gravação nas duas como de dupla face.
Em geral, são usadas as unidades lógicas A e B para identificar estes
dispositivos. Embora sendo os mais baratos por unidade; comparando um disquete
de 3,5” de 1,44MB que custa ± 60 centavos (0,42 Reais/MB) com um HD IDE que
armazena 4,3GB e custa 300,00 reais (0,07 Reais/MB) verifica-se que o custo
relativo (por MB) do disco flexível é ± 6 vezes mais caro (dados do primeiro semestre
de 1999). Seus principais problemas são:
Ω tempo médio de acesso às informações de 80 a 200 ms;
Ω baixa confiabilidade e tempo de vida (desgaste e sujeição maior
ao acúmulo de impurezas);
Ω baixa capacidade de armazenagem (são os dispositivos com
menor capacidade) com 135 trilhas/polegada.
199
Disco flexível de 5¼” (de 8” é similar).
A disseminação das redes de computadores, a pequena taxa de
transferência, a baixa capacidade de armazenagem aliada ao crescimento do
tamanho das aplicações e ao surgimento de novos padrões (CDR, CDRW, ZIP e
JAZZ drivers, DVDs etc.) tornam o uso dos FD cada vez mais inviável. Como todo
dispositivo de disco magnético, o FD é organizado em trilhas com a mesma
capacidade, divididas em setores (Tabela a seguir).
Assim, a densidade das trilhas mais internas é maior. A velocidade de
transferência de dados é a mesma seja para a trilha mais interna ou a mais externa,
pois a velocidade angular é constante.
200
5.4 DISCO RÍGIDO
Sem dúvida, o disco rígido foi um dos componentes que mais evoluíram na
história da computação. O primeiro disco rígido foi construído pela IBM em 1957, e
era formado por nada menos que 50 discos de 24 polegadas de diâmetro, com uma
capacidade total de 5 megabytes, incrível para a época.
Este primeiro disco rígido foi chamado de 305 RAMAC (Random Access
Method of Accounting and Control).
RAMAC
Em 1973 a IBM lançou o modelo 3340 "Winchester", com dois pratos de 30
megabytes e tempo de acesso de 30 milissegundos. Assim criou-se o termo 30/30
Winchester (uma referência à espingarda Winchester 30/30), termo muito usado
ainda hoje para designar HDs de qualquer espécie.
Ainda no início da década de 1980, os discos rígidos eram muito caros e
modelos de 10 megabytes custavam quase 2.000 dólares americanos, enquanto
hoje compramos modelos de 160 gigabytes por menos de 100 dólares. Ainda no
começo dos anos 80, a mesma IBM fez uso de uma versão pack de discos de 80
mb, usado no sistemas IBM Virtual Machine.
201
5.4.1 estrutura de um disco rígido
Vista superior e circuito da eletrônica de um HD SV2011H de 20 G Bytes da Samsung
LBA 39.179.952.
Disco rígido, disco duro, (popularmente também winchester) ou HD (do
inglês Hard Disk) é a parte do computador onde são armazenadas as informações,
ou seja, é a "memória permanente" propriamente dita (não confundir com "memória
RAM"). É caracterizado como memória física, não-volátil, que é aquela na qual as
informações não são perdidas quando o computador é desligado.
202
O disco rígido é um sistema lacrado contendo discos de metal recobertos
por material magnético onde os dados são gravados através de cabeças, e revestido
externamente por uma proteção metálica que é presa ao gabinete do computador
por parafusos. É nele que normalmente gravamos dados (informações) e a partir
dele lançamos e executamos nossos programas mais usados.
Este sistema é necessário porque o conteúdo da memória RAM é apagado
quando o computador é desligado. Desta forma, temos um meio de executar
novamente programas e carregar arquivos contendo os dados da próxima vez em
que o computador for ligado. O disco rígido é também chamado de memória de
massa ou ainda de memória secundária. Nos sistemas operativos mais recentes, o
disco rígido é também utilizado para expandir a memória RAM, através da gestão de
memória virtual.
Todas as unidades de disco IDE têm um bloco de jumpers localizado entre o
conector de 40 pinos e o conector de alimentação.
Vista dos conectores e código dos jumpers de um HD
Um disco rígido possui uma ou várias superfícies de gravação/leitura com
uma estrutura de gravação composta por cilindros, trilhas e setores.
203
Estrutura de gravação em um disco magnético
Cilindro: definido como sendo um conjunto de Trilhas verticalmente
alinhadas e com mesmo diâmetro e compostas por Setores que são as unidades
físicas de gravação.
Custo de acesso ao disco
• Registros que pertencem a um mesmo cilindro não requerem
deslocamento do mecanismo de acesso.
• Tempo de busca (seek time): tempo de deslocamento do mecanismo de
acesso de uma trilha para outra.
• Latência rotacional: tempo para que o inicio do bloco que contenha o
registro a ser lido passe pelo cabeçote de leitura/gravação.
• Tempo de transferência: quantidade de tempo necessário para que um
bloco (ou setor) seja transferido para um buffer de memória.
Os discos magnéticos de um disco rígido são recobertos por uma camada
magnética extremamente fina. Na verdade, quanto mais fina for a camada de
gravação, maior será sua sensibilidade, e consequentemente maior será a
densidade de gravação permitida por ela. Poderemos então armazenar mais dados
num disco do mesmo tamanho, criando HDs de maior capacidade.
204
Cabo plano do acionamento do motor do disco e conjunto disco/cabeças de leitura.
Bobina de acionamento do motor linear do conjunto de braços de leitura e imã dentro do qual a
bobina se movimenta.
Braço das cabeças de leitura, na direita a cabeça de leitura (este HD utiliza apenas uma cabeça e
uma superfície do disco)
205
Detalhe da cabeça de leitura/gravação
Detalhe da cabeça de leitura/gravação e motor de acionamento do disco
No disco magnético a armazenagem é feita em discos (pratos - plates ou
lâminas) giratórios finos que são superpostos com um afastamento entre si mantido
pelo eixo de sustentação vertical (spindle) (próxima Figura), geralmente feito de ligas
de alumínio.
A fim de permitir a armazenagem de dados, este disco é revestido por uma
segunda camada, agora de material magnético. Os discos são montados num eixo
que por sua vez gira graças a um motor especial. Cada disco tem duas faces ou
superfícies nas quais são gravados os dados, tendo cada uma delas a sua cabeça
de leitura/gravação exclusiva.
206
As faces externas no topo e no fundo da pilha nem sempre são usadas.
Assim, um HD tem dois componentes distintos: uma pilha de lâminas no formato de
discos e o mecanismo impulsor dos discos para sua leitura e gravação.
As cabeças de leitura/gravação (read/write) encontram-se numa extremidade
de uma haste metálica (braço) que se movimenta para os lados segundo os seus
raios, deslocando-as pela superfície do disco, movendo-se sempre juntas,
mecanicamente, como se tratasse de um único braço. Existe um motor de rotação
que faz os pratos girarem rapidamente.
Mas, as cabeças têm uma forma aerodinâmica e flutuam num colchão de ar
gerado pela rotação dos pratos, que as força a se levantarem e não tocarem na
superfície, quando o disco está em movimento. Isto porque um toque da cabeça na
superfície do prato resultaria numa ranhura, que poderia resultar na perda de alguns
dados ou de todo o disco. Quando o disco para de funcionar, os pratos param de
girar e as cabeças tocam o prato, ficando estacionadas na parte mais interna do
disco.
Como as cabeças L/G ficam instaladas dos dois lados do prato, ao girar o
disco, cada cabeça percorre, na superfície superior ou inferior, uma trajetória
circular, formando um anel concêntrico. Assim, cada face é organizada em várias
pistas na forma de circunferências concêntricas chamadas trilhas (track) cuja área
pode ser lida e/ou gravada por uma única cabeça estacionária. Para definir o limite
entre 2 trilhas, assim como onde termina um setor e começa o próximo, são usadas
207
marcas de endereçamento com um sinal magnético , que orientam a cabeça de
leitura/gravação, permitindo à controladora do disco localizar os dados desejados.
Os HDs dos PCs e discos flexíveis, gravam os dados de forma magnética,
pelos princípios magnéticos. O eletromagnetismo tem como princípio que ao fluir
corrente elétrica por um condutor um campo magnético é gerado em torno dele. Se
a direção do fluxo da corrente é revertida, a polaridade do campo magnético também
é. Um motor usa de eletromagnetismo para empurrar e puxar forças nos magnetos
ligados a uma seta rotativa. Outro efeito do magnetismo é que se um condutor passa
por um campo magnético variável, é gerado um campo magnético variável que induz
corrente elétrica neste.
As cabeças de leitura e gravação têm forma de U, com material condutor,
ligada a dois fios onde a corrente magnética flui. Ao passar o disco pela bobina, é
gerado um campo magnético nas cabeças, de modo a alterar a polaridade.
O disco pode ser feito de alumínio, vidro ou cerâmico, com superfície
coberta por material magnetizado, que geralmente é óxido de ferro combinado com
outros elementos. No disco vazio, as partículas magnéticas destes elementos estão
em desordem, apontando em direções aleatórias, de modo que os campos
magnéticos são cancelados se os pontos são em direção oposta.
Se estes pontos estão alinhados em uma mesma direção, não são mais
cancelados e há um campo magnético observável na região do disco. Várias
partículas se alinham para produzir um campo magnético em uma única direção.
Como a superfície do disco gira abaixo da cabeça, esta induz um campo
magnético, mudando de polaridade. Esta inversão de polaridade é chamada de fluxo
reverso ou transição de fluxo. Quando a cabeça induz o fluxo reverso, há gravação
de dados. Para cada bit gravado, há um fluxo reverso que é colocado no disco em
áreas específicas conhecidas como células de transição. Esta célula controla o
tempo e velocidade de rotação em que o fluxo é colocado na cabeça do drive. Com
isso, gera-se um fluxo que é chamado de codificação dos dados.
Na leitura, a cabeça não produz o mesmo sinal de escrita, mas gera um
pulso de voltagem ao atravessar uma transição de fluxo, que pode ser negativo ou
positivo. A cabeça pode detectar se o pulso for negativo. Essencialmente, a leitura é
a detecção dos fluxos magnéticos. Dessa forma, o padrão de escrita é uma onda
que se alterna entre positivo e negativo. Como qualquer componente mecânico, as
cabeças tendem a se desgastar. Casualmente pode haver falhas de leitura no disco,
208
que são causadas pela cabeça de leitura também. Mas podem ser erros na mídia
(pratos).
5.4.2 controladoras de discos magnéticos (interface)
As principais interfaces ou controladores de discos são:
· IDE (Integrated Drive Electronic) - a controladora de IDE (Drive com
Eletrônica Integrada), ou AT attachment (ATA) é a de custo mais baixo e a mais
popular. Suporta apenas 4 dispositivos: 2 no conector primário e 2 no secundário.
Interface de discos com até 528 MB e taxa de transferência entre 10 a 20MBps.
Inicialmente a IDE aceitava somente dois periféricos - um master (senhor) e
outro slave (escravo), geralmente discos rígidos com capacidade máxima de 504
MBytes. Alterações no seu software permitiram que os discos rígidos IDE tenham
capacidade superior, atingindo mais de 4 GBytes. Atualizações neste padrão
resultaram na IDE-2, ou EIDE ("enhanced IDE"), que admite até 4 dispositivos a
escolher: discos rígidos, CD-ROM, unidade de fita. Atualização mais recente
produziu a IDEPLUS, na qual podem ser dependurados até 8 periféricos: 2 discos
rígidos, 2 drivers de disquete, 1 interface paralela LPT, 2 interfaces seriais COM, 1
interface para joystick.
· EIDE (Enhanced IDE ou fast ATA) - reconhece discos com capacidade
até 8,4GB e tem taxa de transferência entre 10 a 30MBps.
É o tipo mais comum, pois é bem mais barato e não necessita de
controladora especial (como no SCSI). A interface EIDE tem um canal primário e
outro secundário, podendo-se conectar 2 dispositivos em cada um, totalizando
quatro dispositivos. O barramento EIDE não é capaz de controlar mais de um
dispositivo em um mesmo canal, o que gera alguma lentidão. Apesar de ter um
desempenho bem inferior à interface SCSI, a interface EIDE é mais barata.
· SCSI (Small Computer System Interface) - pode conectar e controlar
mais de 15 dispositivos simultaneamente, e todos podem usar o barramento ao
mesmo tempo. É o tipo de interface mais eficiente, sendo indicada para aplicações
mais pesadas. Tem como padrões SCSI-1 com taxa de transferência entre 10 e
15MB/s, SCSI-2 com taxa de transferência de 20MB/s e SCSI-3 com taxa de
209
transferência de 40MB/s. Além disso, o barramento do SCSI é mais rápido que o
EIDE, pois pode ultrapassar a velocidade de 80MB/s, enquanto o EIDE chega a
33,3MB/s. Os discos SCSI têm a memória cache maior do que os discos EIDE.
Assim, discos SCSI têm desempenho bem superior aos discos EIDE, porém com um
custo maior.
A conexão física da SCSI com seus periféricos é projetada como uma fileira,
em série. Para que os sinais elétricos se propaguem adequadamente nela é
necessário que os periféricos nas pontas (início e fim) tenham resistores de
terminação. Os periféricos já vêm com eles, compete ao usuário desativá-los quando
o dispositivo não for instalado em uma das pontas - e cada modelo tem sua maneira
para desativação, que pode ser jumper, chave, etc.
HD IDE (à esquerda) e SCSI (à direita).
A própria placa adaptadora SCSI tem resistores terminais, além de uma
saída para cabo externo e outra para cabo interno. Se ela for ligada aos dispositivos
somente por um dos cabos, interno ou externo, então será considerada como início
da fileira, e terá os resistores ativados; outro dispositivo no final também terá a
ativação.
Mas se SCSI for ligada aos periféricos tanto pelo cabo interno quanto pelo
externo, então estará no meio da fileira e não terá os resistores ativados (figura a
seguir) - neste caso as pontas com terminação serão ocupadas por periféricos.
Devido à concepção de fileira, em série, a placa adaptadora poderá ter no
máximo dois cabos (um para conexão externa e outro para interna, como na figura),
mesmo que tenha 3 ou mais conectores de periféricos.
210
SATA o padrão Serial ATA ou SATA (Serial Advanced Technology
Attachment) - é uma tecnologia para discos rígidos que surgiu no mercado no ano
de 2000 para substituir a tradicional interface PATA (Parallel ATA), também
conhecida como ATA ou IDE.
O nome de ambas as tecnologias já indica a principal diferença entre elas. A
tecnologia PATA faz transferência de dados de forma paralela, enquanto que no
SATA a transmissão é em série.
Nas transmissões paralelas, os dados fluem byte a byte entre o micro e o
periférico. Como um byte é formado por oito bits, micro e dispositivo são ligados por
cabos com pelo menos oito condutores, uma para cada bit. Já nas portas seriais os
dados fluem bit a bit, um após o outro. Na origem, cada byte é desmontado
(serializado) e os bits que o formam são transmitidos sequencialmente. No destino,
são recebidos e remontados (desserializados) para reconstituir o byte original. Para
isso, bastam dois condutores: uma para transportar os bits, outro para funcionar
como terra.
A transmissão paralela é, evidentemente, mais rápida, mas possui
inconvenientes como necessidades de sincronia na transmissão dos oito bits de um
byte, cabos mais pesados e sujeitos a interferência, hardware mais caro e ruído –
perda de dados ocasionada por interferência.
Para lidar com o problema de ruído nos discos PATA, os fabricantes utilizam
certos mecanismos; um deles é recomendar a utilização de um cabo IDE – cabo que
liga o disco rígido á placa-mãe do computador – com 80 vias ao invés dos
211
tradicionais cabos de 40 vias. As vias a mais atuam como uma espécie de
blindagem contra ruídos. No caso do padrão SATA, tais ruídos praticamente não
existem, mesmo porque seu cabo de conexão ao computador possui apenas 4 vias
e também é blindado. Isto acaba trazendo outro ponto de vantagem ao SATA, pois
como o cabo tem dimensão reduzida, o espaço interno do computador é mais bem
aproveitado, facilitando inclusive a circulação de ar.
Há outra característica interessante no padrão SATA: discos rígidos que
utilizam essa tecnologia não precisam de jumpers para identificar o disco master
(mestre ou primário) ou slave (escravo ou secundário). Isto ocorre porque cada
dispositivo usa um único canal de comunicação (ao contrário do PATA que permite
até dois dispositivos por canal), atrelando sua capacidade total a um único disco. No
entanto, para não haver incompatibilidade com dispositivos Paralell ATA, é possível
instalar esses aparelhos com interfaces seriais através de placas adaptadoras.
Muitos fabricantes de placas-mãe oferecem estas com ambas as interfaces.
Outra novidade é a possibilidade de uso da técnica “hot-swap”, que torna
possível a troca de um dispositivo Serial ATA com o computador ligado. Tal recurso
é muito útil em servidores que precisam de manutenção/reparos, mas não podem
parar de funcionar.
A primeira versão do padrão SATA trabalha com taxa máxima de
transferência de dados de 150MB/s. Essa versão recebeu os seguintes nomes:
SATA 150, SATA 1.0, SATA 1,5 Gbps ou simplesmente SATA I.
Não demorou muito para surgir uma versão denominada SATA II, cuja
principal característica é a velocidade de transmissão de dados a 300MB/s, o dobro
do SATA I.
É necessário fazer uma observação quanto ao aspecto de velocidade de
transmissão. Na prática, dificilmente os valores mencionados (150MB/s e 300MB/s)
são alcançados. Essas taxas indicam a capacidade máxima de transmissão de
dados entro o disco rígido e sua controladora (presente na placa-mãe), mas
dificilmente são usadas em sua totalidade, já que isso depende de uma combinação
de fatores como conteúdo da memória, processamento, tecnologias aplicadas no
disco rígido, etc.
Há outra ressalva importante a ser feita: a entidade que controla o padrão
SATA (formada por um grupo de fabricantes e empresas relacionadas) chama-se,
atualmente, SATA-IO (SATA International Organization). O problema é que o nome
212
anterior dessa organização era SATA-II, o que gerava certa confusão com a
segunda versão do SATA. Aproveitando essa situação, muitos fabricantes inseriram
selos da SATA-II em seus discos rígidos SATA I para confundir os usuários,
fazendo-os pensar que tais discos eram, na verdade, da segunda geração de discos
SATA.
Outra vantagem do SATA é a utilização de um cabo de dados muito mais
estreito e fácil de manipular dentre de um gabinete, o que favorece bastante a
ventilação interna; infelizmente o cabo de força (power) também mudou para atender
às necessidades do Hot Swap e as fontes ATX atuais não possuem o conector
adequado (por enquanto), requerendo o uso de um adaptador nesse momento. Esse
novo conector tem contatos mais longos nos sinais de terra, que serão os primeiros
a serem “ligados” quando o conector for encaixado e os últimos a serem
“desligados” no momento da remoção do disco. Com o conector de quatro pinos da
fonte ATX tradicional, isso não seria possível.
Cabo de dados SATA (à esquerda) e adaptador para o conector de força (à direita)
Tecnologias relacionadas ao SATA Os fabricantes de discos SATA podem
adicionar tecnologias em seus produtos para diferenciá-los no mercado ou para
atender a uma determinada demanda, o que significa que certo recurso não é
obrigatório em um disco rígido só por este ser SATA.
213
NCQ
NCQ (Native Command Queuing) é tido como obrigatório no SATA II, mas é
opcional no padrão SATA I. Trata-se de uma tecnologia que permite ao disco rígido
organizar as solicitações de gravação ou leitura de dados numa ordem que faz com
que as cabeças se movimentem o mínimo possível, aumentando, pelo menos
teoricamente, o desempenho do dispositivo e sua vida útil.
Para usufruir dessa tecnologia, não só o disco tem que ser compatível com
ela, mas também a placa-mãe, através de uma controladora apropriada.
xSATA
Basicamente, o xSATA é uma tecnologia que permite ao disco rígido utilizar
menos energia elétrica. Para isso, o disco rígido pode assumir três estados: ativo,
parcialmente ativo ou inativo. Com isso, o disco rígido vai receber energia de acordo
com sua utilização no momento.
Staggered spin-up
Esse é um recurso muito útil em sistemas RAID, por exemplo, pois permite
ativar ou desativar discos rígidos trabalhando em conjunto sem interferir no
funcionamento do grupo de discos.
Além disso, a tecnologia SSU também melhora a distribuição de energia
entre os discos.
Hot plug
Em sua essência, a tecnologia Hot Plug permite conectar o disco ao
computador com o sistema operacional em funcionamento. Este é um recurso muito
usado em discos do tipo removível.
SAS Serial Attached SCSI
É um novo padrão SCSI onde a comunicação é feita em série, em vez de em
paralela, como no SCSI tradicional.
O trabalho de especificação do SAS teve inicio no ano 2001 e ficou sob
responsabilidade das empresas Compaq/HP, LSI, Logic, Maxtor e Seagate
Technologies. A especificação inicial de 2004 definiu uma taxa de transferência de
3Gbps (300MB/s).
214
Posteriormente foram definidas taxas de 6Gbps (600MB/s) e 1.2GBps
(1200MB/s). O padrão SAS permite total compatibilidade com o padrão Serial ATA
(SATA). Enquanto o SATA é destinado ao mercado de desktops enquanto que o
padrão SAS é destinado ao mercado de servidores.
Sua grande vantagem em relação ao padrão Serial SCSI existente
atualmente (Fibre Channel, FC) é que ele permite o uso de discos de várias taxas de
transmissão, usando a taxa máxima do dispositivo. O Fibre Channel nivela por
baixo, ou seja, se no sistema há um disco lento misturado com outros rápidos, o
barramento passa a operar na velocidade do dispositivo mais lento, comprometendo
o desempenho do sistema como um todo.
Assim como o padrão SATA, SAS é hot swap, permitindo a troca de discos
rígidos mesmo com o micro ligado. Outras características do SAS são:
Melhoria no desempenho e confiabilidade
Capacidade de redundância de cabos no mesmo disco
Interface serial ponto-a-ponto de simples cabeamento
Possibilidade de aumento de configuração e desempenho
Capacidade de expansão e atualização
Possibilidade de clientes e usuários escolherem entre discos SAS de
dupla redundância de cabos e alto desempenho ou convencionais
discos SATA de alto desempenho e baixo custo no mesmo sistema.
Você pode instalar um disco Serial ATA em uma porta SAS e o disco
funcionará sem problemas. Isso funciona porque o conector usado pelo SAS é
idêntico ao usado pelo Serial ATA, como você pode ver na Figura a seguir. Mas o
inverso não é verdadeiro, isto é, você não pode instalar um disco SAS em uma porta
Serial ATA.
215
Portabilidade SAS / SATA
Comparativo das tecnologias
5.5 DISCO BERNOULLI - 5 ¼”
Em 1983 a empresa americana Iomega Corporation lançou os discos
Bernoulli que são regraváveis e removíveis (portáteis) baseados em uma tecnologia
própria e exclusiva. Possui capacidade de armazenagem de 150MB e uma vida útil
de aproximadamente 10 anos. Consiste num dispositivo híbrido entre o disco rígido
e o flexível.
5.6 ZIP DRIVE - 3 ½”
216
Em 1995 a Iomega Corporation lançou um tipo de disco removível de 100MB
que requer um drive próprio com interface SCSI, IDE, USB ou paralela. São como
disquetes de alta capacidade, que surgiram da necessidade de transporte e backup
de grande quantidade de dados que não cabiam numa única disquete. O Zip Drive
paralelo pode ser conectado na saída para impressora e a impressora em uso pode
ser ligada no Zip Drive. Também tem zip drives com discos de 200MB. Tempo de
acesso - 29ms, compatibilidade – disquete de 3½”, durabilidade - 10 anos, preço
(drive/mídia) - R$250/20, 3.000RPM podendo ser interno ou externo.
A mídia Zip é semelhante em tamanho vertical (mas mais grossa) aos
disquetes de 3.5”. Para prevenir danos de drive e de disco, o lado inferior da caixa
de mídia Zip tem algumas marcas para indicar o lado certo que o disco deve ser
inserido.
Ao contrário dos outros formatos de disquete, a proteção contra gravação no
Zip é implementada no nível de software em vez de mecanicamente executada no
hardware. O Zip drive também introduziu proteção de acesso a mídia por uma
senha. Como proteção contra cópia, isto também é implementado no nível de
software. As vendas de Zip drives e seus discos despencaram continuamente de
1999 à 2003. Em setembro de 1998 a Iomega sofreu com uma ação judicial coletiva
em cima de um tipo de falha do disco Zip. Os discos Zip também têm um custo
relativamente alto por megabyte comparado aos custos cadentes de CD-R e a
tecnologia de DVD-R/W. Os fornecedores de discos Zip incluem: Iomega, Fujufilm,
Verbatim e Maxell. Epson também produziu um modelo de drive de 100 MB com a
sua marca.
Foto de um disco Zip.
5.7 CLICK
217
O Click é uma tecnologia para usuários de notebooks com 8,55cm x 5,4cm x
0,65cm e peso = 66,6g com um disquete. A capacidade de cada disquete é de
40MB. Essa tecnologia é multiplataforma, ou seja, é compatível com câmeras
digitais, notebooks, handhelds, PC, Macintosh e telefones celulares. Ele também é
capaz de armazenar todo tipo de informações desde simples arquivos até
mensagens de correio de voz e imagens. O tempo de acesso de 25 ms e taxa de
transferência de 7Mbytes por segundo são características desse dispositivo.
5.8 KANGURU DISK (INTERACTIVE MEDIA CORP)
Drive de disco rígido removível de alto desempenho com portabilidade para
floppy disk. Capacidade de até 16,8GB. É intercambiável entre as estações internas
e externas KanguruDocks, para maximizar a portabilidade e a compatibilidade de
sistemas.
Kanguru drive
5.9 JAZ DRIVE
É uma unidade de armazenagem removível de até 2GB lançada em 1996
que requer interface SCSI. Ele pode ser adquirido na versão portátil (externo) ou
interno. O custo de cada MB armazenado no JAZ pode chegar a $0,07.
Especificações:
218
· tamanho do buffer: 256KB leitura/escrita com MTBF: 250.000 horas com
duração da mídia: 10 anos;
· velocidade rotacional: 5400 RPM e transferência: 7MBps - 200
MB/minuto (máxima) - 60MB/minuto (média);
· dimensões do drive: Altura: 2,57cm, Largura: 10,28cm e comprimento:
14,78cm e disco: 3,5” altura = 1,1cm com formatação lenta = 30min. e formatação
rápida = 10;
· interface do drive: paralela ou Fast SCSI-2 (não incluída) com conectores:
Externo:1 Entrada e 1 Saída SCSI-2 HD50 - Interno: 1 entrada 50 vias p/ cabo flat;
· compatibilidade: DOS, Windows 95, 2000 e NT 4.0 e versões superiores;
· tempo médio de acesso: 17,6 ms e tempo médio de busca: 10 - 12 ms;
Jaz drive
5.10 FITA MAGNÉTICA
A Fita magnética é um dispositivo de armazenagem de acesso seqüencial
similar ao das fitas cassetes de gravadores. Consiste numa fita plástica a base de
poliester, revestida por um produto magnetizável (Fe2O3, Fe etc.), material adesivo
(resina) e solvente, enrolada em um carretel. São compactas, resistentes em
condições ambientes variadas, fáceis de transportar, e mais baratas que os discos.
Como o acesso é seqüencial, não há necessidade de guardar endereços na fita, e a
posição de um registro é dada por um deslocamento em bytes (offset ) relativo ao
início do arquivo.
Logo, fitas são apropriadas para armazenagem seqüencial, quando não é
necessário acesso direto ou atualização imediata (alterações periódicas são
suficientes) e com baixo custo e alta capacidade, adequada para armazenagem e
transporte. Medem entre 100 e 2.400 pés de comprimento. É o dispositivo de maior
219
capacidade de armazenagem (de 2GB até quantias acima de 20GB) podendo ser
dos tipos: fita carretel com ½” de largura, fita cassete e fita de cartucho que
apresentam ¼” de largura.
Cada fita tradicional é análoga a um gravador de rolo convencional, sendo
enrolada num rolo alimentador, passa por uma cabeça de gravação/leitura e chega a
um rolo receptor. Essas cabeças magnéticas gravam magnetizando cada posição
correspondente a um bit pelo alinhamento das partículas magnéticas (com certas
características) análogo ao sinal. A leitura é feita reconhecendo se essa posição
está magnetizada ou não e qual sua polaridade. Os circuitos eletrônicos recebem os
impulsos das cabeças de leitura/gravação ou os enviam para estas cabeças para se
escrever.
Há câmaras de vácuo que funcionam como um sistema de sucção da fita
antes e depois de passar pela cabeça de magnetização, assegurando um desenrolar
e enrolar uniforme e uma velocidade de gravação constante. O movimento das
bobinas que enrolam a banda é controlado por mecanismos, para evitar, por
exemplo, variações bruscas na velocidade de enrolamento que, apesar das câmaras
de vácuo, poderiam partir a fita.
Mas, ao contrário das monstruosas unidades de fita que dominaram o
cenário da computação até o final dos anos 70 (incluindo aparições no cinema e TV,
confundidas normalmente com CPUs), os sistemas voltados para computadores
pessoais teve um desenvolvimento, baseado em pequenos cartuchos de fita, que
aumentaram de capacidade na mesma medida em que aumentava o montante de
dados manipulados pelos computadores pessoais, comparáveis hoje a muitos
mainframes antigos.
Atualmente, 2 formatos de fita dominam esse mercado: os sistemas
baseados na tecnologia de varredura helicoidal (helical scan), cujo representante
220
mais conhecido é a fita DAT de 4mm, também conhecida como DDS, e os sistemas
de leitura linear, cujo ancestral comum é o QIC (Quarter Inch Cartridge).
5.10.1 tecnologias
Formatos de varredura helicoidal
Descendente direto do videocassete, o sistema DAT (Digital Audio Tape) foi
concebido como um formato de gravação de áudio com qualidade de CD, que foi
posteriormente padronizado pela HP e Sony para dados, sob o nome DDS. Da
capacidade original de 2GB, novas especificações foram criadas até chegar ao
padrão mais recente, o DDS-4 capaz de armazenar até 40GB (modo comprimido)
num cartucho com as mesmas dimensões.
Um formato semelhante é o 8mm, também baseado num padrão de vídeo
adaptado para dados. Os formatos mais recentes são o Mammoth (apoiado pela
Exabyte) e o novo AIT-1 (apoiado pela Sony e Seagate) com capacidade máxima de
armazenagem de 40 e 50GB, respectivamente no modo comprimido.
Formatos de leitura linear
Lançado pela 3M em 1972 como um sistema de armazenagem para
sistemas de telecomunicações e coleta de dados, o padrão QIC foi adotado pelos
primeiros usuários de PC. Sua aparência lembra vagamente uma fita cassete de
áudio, só que as informações são gravadas linearmente sobre a mídia, na forma de
pequenas trilhas montadas paralelamente ao longo da fita. Devido à sua construção
bastante sólida, é um padrão preferido para arquivamento de dados.
Como no caso do DDS, o QIC recebeu constantes melhoramentos (aumento
da largura ou comprimento da fita), resultando numa infinidade de padrões (mais de
120), fato que o torna bastante confuso. Os padrões mais avançados como o QIC-
3095 armazenavam algo em torno de 4GB. Entretanto, empresas como a Tandberg
criaram um novo formato que alcança 13GB.
A 3M minimizou o problema da variedade de subformatos com o padrão
Travan, que oferece mídias de alta capacidade com compatibilidade a alguns
221
padrões QIC. Existem atualmente 5 padrões Travan, com capacidade máxima (TR-
5) de até 20GB; é capaz também de ler cartuchos QIC 3095. No início de 2001,
houve o lançamento oficial do padrão TR-6 que melhora em até 2 vezes a
capacidade de armazenagem e desempenho desse padrão, cujos primeiros modelos
mal armazenavam 250MB.
Outra família de produtos é o DLT (Digital Linear Tape), um formato que usa
cartuchos de fita de ½ pol. montados em apenas um carretel. Originalmente criado
pela DEC e atualmente comercializado por várias empresas. Possui capacidade de
armazenagem (40GB não comprimidos), confiabilidade e velocidade de transmissão
de dados (até 6MB/s no modo nativo).
5.11 FITA STREAMER
A fita magnética Streamer é o primeiro tipo de memória secundária, sendo
compacta, portátil, com alta capacidade de armazenagem e barata. É usada
transferir dados (I/O) non stop, de alta velocidade, de/para discos. Foi criada para
backup, com cartucho com ¼” e preço da fita DAT. Não é adequada para aplicações
envolvendo muitas paradas e inicializações. É feita de material plástico coberto com
uma substância magnetizável, sendo similar à das fitas usadas em gravadores
antigos. São usadas para armazenagem off-line de dados (backups de dados,
programas etc.) e tem capacidades variadas como o:
Ω · modelo DL 2120 da Verbatim, 307,5 pés (93,7m) de 120MB e;
Ω · modelo AM-629, cartucho com ¼”, capacidade 6GB no modo
compactado e 4GB no modo normal, taxa nominal de transmissão
2,8GB/hora (760KB/seg) , no formato comprimido, velocidade 76ips.
Os dados são gravados nos registros físicos ou blocos. Cada registro físico
consiste em trilhas paralelas (geralmente 7 ou 9, com a última sendo usada para
gravar o bit de paridade vertical), que por sua vez são subdivididas em frames. Cada
frame é o espaço usado para armazenar 1 byte, além de um bit extra, o bit de
paridade (vertical). O espaço entre um registro e outro é chamado de gap.
222
Quando são usados registros pequenos, parte da capacidade da fita é gasta
nos gaps. Portanto, devem ser usados registros maiores possíveis, para reduzir ao
máximo esta perda.
5.12 FITA DAT
2a. geração de fitas magnéticas. Menores, mais fáceis de armazenar e mais
seguras, permitem armazenagem maior de dados. As unidades de Fitas de Áudio
Digital (DAT) ou Digital Data Storage (DDS) tem capacidade de 2 a 40GB sendo
ótima para backup. Foi criada pela Sony em 1987, passou para área computacional
em 1989, nas gerações DDS-1, DDS-2, DDS-3, DDS-4 onde:
Ω DDS-2 com 1,5MB/s e 8GB
Ω DDS-3 com 2,4MB/s e 24GB
Ω DDS-4 com 2MB/s e 40GB
Similar a fita de vídeo, mas com tamanho bem menor. Uma fita de 2GB
custa 15 dólares, e seu acionador (drive) custa em torno de 1000 dólares (1998).
Como a fita QIC, a fita DAT também calcula e grava códigos de detecção de erros,
mas usa tracks escaneadoras helicoidais e alcançam uma densidade muito mais alta
do que fitas de QIC.
As fitas de 8GB usam 4 cabeças sendo 2 de leitura e 2 de gravação
(formando 2 pares de leitura/escrita) separadas de um ângulo de 90o graus (em
relação ao sentido longitudinal da fita, um grupo lê/grava com uma inclinação de
quarenta graus para cima, e outro de quarenta graus para baixo) e dispostas
alternadamente em um cilindro levemente inclinado girando cerca de 2.000RPM. A
fita passa em sentido contrário a velocidade de 1/3 pol/s. Com isto, conseguem
gravar informações sobrepostas, e como a inclinação é diferente, não há confusão,
permitindo gravar uma grande quantidade de dados.
5.13 FITAS QIC E TRAVAN
223
As unidades de fita no formato QIC (Quarter-Inch Cartridge - pronuncia-se
quick ou rápido) são amplamente empregadas para backup e possuem de 20 a 32
pistas paralelas. Cada pista é dividida em blocos de 512 ou 1024bytes. Os blocos
são agrupados em segmentos de 32 blocos onde 24 são de dados e 8 são de código
de detecção de erros (CRC - Cyclic Redundancy Check ou código de redundância
cíclica) que permite recuperar a maioria dos erros ocorridos. A gravação da fita se
dá nos dois sentidos, sendo que em cada sentido é gravada a metade das pistas.
Porém, fitas de fabricantes diferentes nem sempre são compatíveis. Estão
disponíveis em mini cartuchos 3 ½” e cartuchos de 5 ¼”.
A tecnologia Travan aumenta dramaticamente a capacidade de um cartucho
de fita usando uma fita que é mais larga e mais longa que a fita de QIC. O cartucho
de Travan é um pouco maior que o cartucho QIC-80, mais velho, e é um pouco
trapezoidal em forma. As primeiras versões podiam acumular 4GB descomprimidos
e 8GB comprimidos. Importante, os drives destas fitas lêem o velho QIC e eles
foram padronizados. Assim, uma fita de Travan pode ser usada com um drive
Travan de qualquer fabricante.
5.14 FITAS 3480, 3490
Conjunto de drives de fitas de meia polegada, da IBM, usada para
mainframes e AS/400. Os drives 3480 usam 18 trilhas por cartucho (track cartridges)
a 38.000Bpi para campo (yield) de 200MB. Os drives 3490 usam compressão para
conseguir 400MB. Os drives 3490 e gravam 36 trilhas e usam fitas maiores para
armazenar 800MB. As Tape libraries estão disponíveis para manter de uma forma
útil milhares de cartuchos. Os drives 3490 têm taxas de transferência de pelo menos
3MB/s. Existem drives disponíveis para usar com as interfaces ESCON e Fast SCSI-
2 para obtenção de taxas superiores a 20MB/s.
Biblioteca de Fitas 3480/3490e - a necessidade de ler em plataforma INTEL
as fitas IBM gravadas em mainframes fez nascer os drives e bibliotecas de fitas
3490e. Utilizando um drive com interface SCSI em conjunto com um software, as
mídias 3490e podem ser convertidas para outro tipo de mídia que possa ser utilizado
em outras plataformas.
224
5.15 DLT CAPACIDADES: 15/20/30/70GB
Fita digital linear (Digital Linear Tape) extensamente usada em centros de
informática. Mas com a diminuição dos preços, estão sendo aplicadas em sistemas
mais simples. Estas fitas têm numerosas trilhas paralelas colocadas ao mesmo
tempo na mesma direção. Produtos atuais de DLT registram 2 canais
simultaneamente usando 2 elementos de leitura/gravação na cabeça que dobra
efetivamente a taxa de transferência possível a uma determinada velocidade do
drive e densidade gravação.
Sendo uma das mais inovadoras tecnologias em backup de fita, o DLT está
sendo padronizado nas corporações que se preocupam com o crescimento da
massa de dados e que tem a confiabilidade como o principal requisito em um meio
de gravação. O DLT possui grande capacidade a uma taxa de transferência de
6MB/s, e com uma vida útil de 500.000 passos (em torno de 30 anos).
Bibliotecas de fitas DLT - robôs que permitem automatizar o processo de
backup numa organização a um custo competitivo e de fácil gerência por aplicativos
rodando em servidores da rede. O conceito modular das bibliotecas permitem
crescimento conforme a necessidade. Os novos modelos dispõem de interface Fibre
Channel para se conectarem a uma arquitetura SAN. As fitas DLT oferecem backup
confiável, fácil arquivamento, integridade dos dados e fácil acesso a TB de dados
armazenados.
5.16 FITAS ADVANCED INTELLIGENT TAPE -AIT
225
As fitas AIT (Fita Inteligente Avançada) são da Sony e contém um chip de
memória de 16K embutido no cartucho que armazena a tabela do conteúdo e
informação de localização de arquivos (FAT). Os drivers são vendidos em modelos
internos e externos.
5.17 DISPOSITIVOS ÓPTICOS
Tipos de dispositivo que empregam processo óptico (utilizam tecnologia
laser para gravação/leitura), permitindo grande capacidade de armazenagem e
precisão de leitura. Exemplos: CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-R, DVD-
RAM.
5.17.1 cd-rom (compact disk - read only memory)
A disposição das trilhas em espiral deve-se ao fato do CD ter sido projetado
para armazenar músicas, que devem ser tocadas de forma contínua, como ocorria
com os long plays de vinil. As faixas que formam essa espiral têm aproximadamente
0,5 μm de espessura com uma distância de 1,6 μm separando uma faixa da outra,
tendo um mínimo de 0,83 μm de comprimento e 125 μm de largura. Estas
dimensões reduzidas fazem a espiral do CD ser enorme. Se pudéssemos esticar
essa espiral e colocá-la numa linha reta essa teria quase 5 Km de comprimento e
uma espessura de 0,5 ηm.
226
Diagrama de espirais de um CD com um box ampliando sua superfície.
O CD-ROM utiliza tecnologia óptica para gravar com uma densidade maior
que a dos discos rígidos. É um dispositivo de plástico de 4,7pol. Sua estrutura é uma
coroa de círculo com um diâmetro de 120mm e seu orifício mede 15mm com 1,2mm
de espessura, formado por vários níveis de matéria, sendo baseado no chamado
substrato (policarbonato). Durante o processo de fabricação esse plástico é
impresso com partículas microscópicas.
Com um laser (Light Amplification by Stimulated Emission of Radiation) de
alta potência são feitos furos, pits, com uma profundidade de 0,125mm, no disco
matriz. Foi definido pela ISSO 9660 e o padrão Yellow Book. Ele é formado pela
área Lead-in (pre-gap), um trilha única de dados, e uma área chamada Lead-out
(postgap).
Quanto à velocidade, só perdem para os HDs. Se comparados por unidade,
só tem maior capacidade de armazenagem que os discos flexíveis. Mesmo assim,
sua capacidade é relativamente alta (de 540MB até 1,5GB, sendo o padrão de
650MB que equivale a aproximadamente 250.000 páginas de texto).
São úteis na armazenagem de massa de dados e na distribuição de
softwares e bases de dados (listas telefônicas, CEP e informações demográficas
além de dados textuais, como índices bibliográficos, resumos, dicionários, e
enciclopédias, freqüentemente associados a imagens digitalizados armazenados no
disco, e também informação em vídeo e, logicamente, áudio digital).
227
O CD-ROM é um disco óptico similar aos discos compactos para música,
como o processo de geração, onde um disco mestre é gravado e cópias são feitas a
partir dele. Já é fabricado com um determinado conteúdo e, portanto, só serve para
leitura. O armazenamento óptico usa para a gravação um laser para queimar/marcar
(fisicamente) sulcos (pits - covas) pequenos e escuros na superfície refletora do
disco. Essa alteração fará o feixe óptico refletir ou não. No caso de CDs, CD-ROM e
DVD, são criadas as pits (covas) quando a superfície do disco é forçada num molde.
Os lugares sem covas (lands) permanecem brilhantes e lisos.
A leitura é feita usando um diodo laser de baixa potência que emite um feixe
luz fina infravermelha (com comprimento de onda de 0,78 mícron) na superfície do
CD com a rotação do disco no drive. Um dispositivo sensor chamado de photo
detector pode detectar a quantidade de luz refletida de volta e determinar se o raio
laser enfocou um pit (mancha escura) ou um land (mancha clara) e circuitos
convertem (interpretam) sua leitura para 0s e 1s.
5.17.2 cd-worm (write once, read many)
O disco WORM removível surgiu em meados de 80 e tem 4,7’’. Similar ao
CD-ROM, armazena de 650MB a 1GB. Os dados podem ser gravados uma única
vez, permitindo várias leituras. Foi o primeiro com tecnologia ótica a permitir
gravação e leitura feita pelo usuário. O leitor/gravador Worm possui um canhão
laser. A gravação é feita fisicamente através de “mascas”, pequenas depressões ou
“buracos” da ordem de um micron de diâmetro onde marcas ou depressões
representarão seqüências de 0 e 1.
Existem três tipos de materiais que podem compor a mídia/disco Worm,
dependendo do tipo de gravação:
· Liga de telúrio - primeira a ser desenvolvida e a mais utilizada. O telúrio é
usado devido a sua característica de aquecimento rápido, fazendo com que a
potência do laser seja baixa. Essa tecnologia garante longa permanência dos dados
no disco. Um problema é a toxidade do produto.
· Liga Bimetálica - uma variação de tecnologia anterior. Foi desenvolvida
pela Sony. Consiste em se depositar duas camadas de liga bimetálica na superfície
dos discos. Durante o processo de gravação o feixe laser fundirá as duas camadas
228
formando pequenos pedaços, que irão refletir com maior ou menor intensidade
durante a leitura. Essa tecnologia garante uma longa permanência dos dados no
disco, embora seja mais cara.
· Polímero Corante (Dye-Based) - uma das técnicas mais recente e barata
(mesmo para baixas quantidades). Consiste em depositar no disco um material
corante, que quando aquecido pelo laser altera suas cores. Sua confecção é mais
simples.
Devido ao pequeno tamanho a quantidade das marcas ou depressões, que
são feitas no disco, ao se olhar um disco sob luz branca ele produz um efeito de
cores semelhante a um arco -íris.
Características dos CD-Worm: fácil armazenagem, durabilidade da
informação armazenada (de 10 anos a um século), baixo volume de disseminação
da informação, os dados são definitivos.
5.17.3 cd-r (compact-disc recordable) ou cd-wo (write once)
Após uma gravação comporta-se como CD-ROM, ou seja, é uma tecnologia
onde o dado é gravado uma única vez de forma permanente e não pode ser alterado
ou apagado. (Parece-se com o disco WORM). Uma vez que ele foi gravado pode ser
lido também pelo drive padrão de CD-ROM ou pelo CD player. Dados podem ser
adicionados ao disco CD-R em “sessões”, mas não podem ser apagados. Um driver
de disco óptico gravável custa em torno de US$ 550,00. (maio/98).
5.17.4 cd-rw (compact-disc rewritable) ou cd-e (erasable)
A terceira geração dos discos ópticos é o cd óptico apagável. Neste tipo de
mídia, pode-se fazer várias gravações. As ligas metálicas usadas mudam suas
propriedades de acordo com a temperatura. Na temperatura ambiente, suas
propriedades não são alteradas, mas, a altas temperaturas, estas ligas (térbio,
gadolínio), ficam sensíveis a campos magnéticos. Então, para gravar nestes cds,
basta que se eleve a temperatura a um nível que sensibilize estas ligas (utilizando
229
laser), e aí, é só aplicar o campo magnético (pela cabeça magnética) devidamente,
gravando os dados. A estrutura tem 5 camadas:
· DATA SHIELD - superfície de proteção
· LACQUER - laqueamento
· GOLD - ouro
· DYE LAYER - camada de tingimentos
· POLYCARONATE - policarbonato
O disco CD-RW (ReWritable) ou CD-E (Erasable) possui 4,7” e são unidades
regraváveis.
5.17.5 cd-rw (compact disk rewriteable)
São discos ópticos apagáveis e regraváveis que utilizam tecnologia
magneto-óptica. Pelas ligas metálicas, mudam suas propriedades de acordo com a
temperatura. Na temperatura ambiente, as suas propriedades não são alteradas. A
altas temperaturas, estas ligas (térbio, gadolínio), ficam sensíveis a campos
magnéticos. Para gravar nestes CDs, basta que se eleve a temperatura a um nível
que sensibilize essas ligas (utilizando laser), e depois aplicar o campo magnético
(com uma cabeça magnética).
Para gravar informação, a cabeça da unidade contém um laser e um
magneto. O laser dispara uma rajada de luz ultra-curta no metal, aumentando a sua
temperatura, mas não esburacando a superfície. Simultaneamente o magneto cria
um campo magnético numa de duas direções. Os dipolos individuais do substrato
são polarizados de acordo com o campo magnético criado. Quando o pulso do laser
termina, o metal foi magnetizado, numa das direções possíveis representando um 0
ou um 1. Um pit corresponde a um valor baixo do campo magnético. Um land é
codificado por um valor baixo do campo magnético.
Após o CD ser irradiado com o laser, a polarização da luz muda de acordo
com a magnetização existente (leitura). Para apagar a informação, é criado um
campo magnético constante na área correspondente a um bloco e um setor é
simultaneamente aquecido.
230
5.17.6 dvd
Digital Video Disc (DVD), apresentado em 1995 substituirá o CD com
capacidade e velocidade para substituir inclusive as fitas VHS, usadas para
reproduzir filmes. A aparência do DVD é a mesma do CD. São 120mm de diâmetro
por 1,2mm de espessura.
Uma das grandes inovações do DVD são os discos de dupla camada, ou
seja, uma camada extra, semi-reflexiva, foi aplicada sobre a camada regular
totalmente reflexiva. Alterando-se o foco do leitor laser, é possível fazer a leitura da
primeira ou da segunda camada.
A conseqüência disso é o dobro da capacidade de informação.
O padrão DVD permite discos de dupla face, com 1 ou 2 camadas por face.
Todos os discos têm o mesmo diâmetro e espessura dos CDs atuais. Os primeiros
DVDs de uma só face e camada única têm capacidade para 4,7GB - 7x a do CD.
Além disso, as unidades leitoras de velocidade variável do novo formato são 10x
mais rápidas que as usadas atualmente.
A estrutura de gerenciamento de arquivos Micro-UDF (Universal Disc
Format) do DVD, é um padrão aberto, e uma versão à frente da estrutura ISO 9660
dos CD-ROMs atuais. Ela permite desenvolver aplicações mais poderosas e com
melhor desempenho para todas as plataformas de computadores.
O DVD tem o mesmo tamanho de um CD, mas é gravado com pontos
significativamente menores, o que permite uma concentração maior de dados por
faixa. As faixas dos DVDs são mais próximas entre si, o que aumenta ainda mais o
no total de dados gravados por disco e, conseqüentemente, muito mais espaço de
memória. Os dados são lidos por feixes de laser mais finos.
A densidade de um DVD (tabela anterior) é representada pelas siglas:
231
· DVD-5 - disco DVD de um lado e uma camada simples, com capacidade de
4,7GB;
· DVD-9 - disco DVD de um lado e uma camada dupla, com capacidade de
8,5GB;
· DVD-10 - disco DVD de dois lados e camadas simples, com capacidade de
9,5GB;
· DVD-18 - disco DVD de dois lados e camadas duplas, com capacidade de
17GB.
DVD-R e DVD+R: somente permitem uma gravação e podem ser lidos pela
maioria de leitores de DVDs. A real diferença do DVD+R e DVD-R:o DVD+R é, como
o DVD-R, um disco de 4,7 GB que pode ser usado para gravar filmes e assistir em
DVD players comerciais. Apesar de ter a mesma função e a mesma capacidade, um
disco DVD+R só pode ser gravado em gravadores DVD+R, enquanto que discos
DVD-R só podem ser gravados em gravadores DVD-R.
Existem no mercado gravadores que conseguem gravar os dois tipos de
mídias, chamados gravadores DVD±R. Na prática, a diferença da mídia DVD-R para
a DVD+R é o desempenho, pois discos DVD+R são lidos mais rapidamente do que
discos DVD-R. Esta diferença só é sentida se for usado o disco DVD para gravar
arquivos comuns, isto é, usar como uma mídia de backup, já que para assistir filmes
o desempenho é o mesmo.
DVD+R DL: semelhante ao DVD+R, mas que permite a gravação em
dupla camada (DL significa dual layer), aumentando a sua capacidade de
armazenamento.
DVD-RW: permite gravar e apagar cerca de mil vezes, oferecendo um
modo de montagem conhecido como VR.
DVD+RW: permite gravar e apagar cerca de mil vezes, podendo ser lido
pela maioria dos leitores de DVD.
DVD-RAM: permite gravar e apagar mais de cem mil vezes, oferecendo a
possibilidade de gravação e leitura em simultâneo (time shift) sem o risco de apagar
a gravação. Compatível com poucos leitores de DVD.
Existem atualmente gravadores de DVD com disco rígido de grande
capacidade de armazenamento (400 GB) e que permitem, com a função de
reprodução seqüencial, assistir a um programa desde o seu início durante a própria
232
gravação. As informações armazenadas no disco rígido podem posteriormente ser
transferidas para um disco de DVD gravável em cópia de alta velocidade.
5.17.7 outros tipos de dvd
Já existem no mercado duas tecnologias novas de DVD, com maior
capacidade de armazenamento, mas que ainda não se popularizaram. São os
formatos Blu-Ray e HDDVD.
Estes formatos utilizam um disco diferente, que é gravado e reproduzido
com um laser azul-violeta ao invés do tradicional vermelho. O laser azul possui um
diâmetro menor, o que permite o traçado de uma espiral maior no disco, podendo
render até 50 GB de capacidade no caso do Blu-Ray. Ainda se discute qual formato
irá substituir o atual DVD.
Os dois formatos têm suas vantagens e desvantagens: o Blu-Ray tem maior
capacidade de armazenamento, chegando a 25 GB ou 50 GB com dupla camada,
mas seus discos serão mais caros para serem produzidos. O HD-DVD por sua vez,
é capaz de armazenar apenas 15 GB ou 30 GB com dupla camada, mas teria um
custo menor de produção. Para que estes discos não sejam extremamente frágeis e
sejam danificados por qualquer contato, é adicionada uma camada protetora na
superfície de leitura, o que os tornam mais caros de se produzir.
Logotipo oficial do Blu-Ray.
233
Leitor de HD-DVD.
5.18 DISCO MO (MAGNETO-ÓPTICO)
Os discos magneto-ópticos surgiram em 1.988 e são regraváveis e
removíveis. Esses discos usam tecnologia híbrida que combina os princípios ópticos
e magnéticos para gravação e apenas laser (óptico) para leitura. Seu tempo de
acesso vai de 20 a 35ms, enquanto alguns discos rígidos chegam a 12ms. A
capacidade de armazenagem padrão é 650MB.
Uma subsidiária da Maxtor fabrica discos de até 1,3GB com perda da
compatibilidade com outras máquinas. Este tipo de mídia, apesar do alto
desempenho, segurança e capacidade de armazenagem, é muito cara, tornando-se
relegada a mercados específicos. O preço das unidades varia de 250 a 500 dólares.
Vale observar que, a partir de unidades MO, pode-se reproduzir clipes multimídia
satisfatoriamente.Existem vários fabricantes, dentre os quais: Fujitsu, Olympus
América, e Pinnacle Micro com discos de 3,5” e Hewlett-Packard e Sony com discos
de 5,25”. Além de Maxoptix, MicroDesign International.
Dentre os tipos fabricados de MO tem-se unidades de discos portáteis de
3,5” de 230MB, de 3,5” de 640MB, de 5,25” de 2,6GB e a Apex da Pinnacle de 5,25”
234
proprietária que oferece 4,6GB de capacidade. Os cartuchos de 5,25” possuem dois
lados; é necessário retirar e virar um cartucho para ter acesso ao outro lado. A
tecnologia MO apresenta uma armazenagem confiável de longa duração (duração
estimada - vida útil - de no mínimo 30 anos segundo seus fabricantes). Normalmente
as unidades de disco são compatíveis com gerações anteriores de cartuchos MO
para preservar os investimentos dos usuários.
O meio usado no disco MO é diferente do usado pelo disco óptico ou
magnético. O disco é coberto com cristais metálicos e sensíveis a ímãs que ficam
dentro de uma fina camada de plástico. No estado normal, o plástico em volta dos
cristais é sólido, impedindo seu movimento. Para gravar dados no disco, um raio
laser intenso é refletido sobre a superfície do meio, que derrete o revestimento
plástico, permitindo que um ímã altere a orientação dos cristais. O ímã age apenas
sobre o exato ponto focal do laser, porque é apenas lá que o revestimento plástico
está fluindo o suficiente para permitir a reorientação dos cristais.
5.19 CARTÃO
O Cartão de memória é do tamanho de um cartão de crédito, originalmente
usado como memória RAM e como memória auxiliar (EEPROM) no lugar do
winchester em notebooks. Ele é chamado também de PCMCIA Card, Flash Card,
entre outros nomes comerciais. Pode ser conectado diretamente em uma abertura
com um conector especial.
Desenvolvido a partir de 1989 por um consórcio de mais de 300 empresas
(IBM, Apple, Compaq, Toshiba etc.). Foi criado visando estabelecer um padrão
aberto e não-proprietário de co nexão de cartão para um conector (bus com 68 pinos
conectores) padronizado.
Um cartão PCMCIA (Personal Computer Memory Card Industry Association)
homônimo da associação americana com sede na Califórnia, cujos mais de 300
membros participantes constam entre os principais fabricantes de computadores,
componentes, semicondutores, conectores, periféricos e software.
Inicialmente, cada fabricante tinha seu padrão proprietário de IC Card, o que
não garantia a sua utilização em equipamentos de outros fabricantes. O padrão
PCMCIA originou-se em 1991 a partir do padrão JEIDA (Japanese Electronic
235
Industry Development Association), homônimo da associação formada por
fabricantes japoneses. Com o tempo o padrão se estabeleceu.
O PCMCIA é estruturalmente auto-configurável, isto é, basta inserir o cartão
que o sistema reconhece suas características e funções. Os IC Cards que
obedecem ao padrão PCMCIA são chamados PC Cards e suas versões mais
recentes são PCMCIA 2.0 e JEIDA 4.1. Dentro da especificação PCMCIA/JEIDA,
todos tem 54mm de largura por 85,6mm de comprimento (tamanho de um cartão de
crédito), mas os IC Cards podem ser classificados pela sua espessura como:
· tipo I - 3,3 mm de espessura
· tipo II - 5,0 mm de espessura
· tipo III - 10,5 mm de espessura.A memória flash usa chips de estado sólido
parecido com os usados na memória interna, porém, os dados nestes chips
permanecem registrados até mesmo quando a força é desligada. Considerando que
dispositivos de memória flash não têm nenhuma parte móvel eles são mais rápidos
que discos e fitas operados mecanicamente.
236
6 BACKUP
Atualmente, o fluxo de informações que passa pelos computadores de uma
empresa são de vital importância para a sua sobrevivência no mercado. Para isso, é
necessário que se tenha domínio das formas de como se deve proteger essas
informações. Para isso existe o backup.
Infelizmente, muitas pessoas só dão valor ao backup depois que nada mais
pode ser feito e todo um trabalho é perdido, para que isso não ocorra urge que o
conheçamos e de que forma podemos fazê-lo.
Denota-se importante observar esta diferenciação dos termos para que não
haja o inconveniente de dizermos um termo querendo expressar o sentido do outro.
Segundo Freedman, o termo “backup” significa reserva: “cópias de dados
em um outro meio de armazenamento para situações de emergência” (p.32.1995).
Já “back up”, segundo o autor, é “fazer cópia de segurança”.
“A revolução do conhecimento transformou a informação no ativo mais
importante nas organizações do nosso tempo.” 1 Com isso precisamos estar cada
vez mais atentos a problemas que a perda de informações e/ou roubo destas podem
causar grandes prejuízo a organização. Existem várias formas de se garantir a
disponibilidade da informação, a mais importante sem dúvidas é a cópia destes
dados em local seguro, ou seja, o backup de dados, pois traz flexibilidade à empresa
de a qualquer momento, voltar no tempo com os seus dados, ou ao menos deveria
isto ser possível.
O conceito de um local seguro por muitas vezes é o maior ponto de variação
dentro do assunto backup, e este merece atenção especial, pois por muitas vezes
pensamos que o local seguro possa ser a torre do prédio ao lado, por exemplo, o
que nós já temos hoje como certeza de não ser a melhor opção.
Existem várias formas de se fazer o backup dos dados, formas simples e
baratas para pequenas empresas e usuários domésticos que possuem poucas
informações, ou que são necessárias para backup e as médias e grandes
corporações, onde a quantidade de informações é imensa e também precisa de um
backup desses dados.
237
Isso nos leva a questão de política de backup e forma de armazenamento,
onde existe então esta variação de custo X segurança, entre estes pontos é possível
se chegar a extremos de confiabilidade o que por muitas vezes é diminuído devido
ao custo da solução, a escolha de uma boa política aliada a uma forma de
armazenamento suficientemente adequada a situação pode trazer ao administrador.
um custo compatível com o valor da informação que ele deseja salva-guardar.
6.1 POLÍTICA DE SEGURANÇA DE ARQUIVOS
Com o avanço da informática e com a democratização da mesma, os
computadores tomaram um papel importantíssimo em nossas vidas. Hoje são
poucas as profissões que não utilizam a informática em seu benefício.
Este aumento da importância dos computadores no meio social pode se
tornar perigoso se não vier acompanhado de uma boa política de segurança.
Existem computadores com informações essenciais para o funcionamento de
inúmeros serviços importantes para a sociedade. Imagine o que aconteceria se de
uma hora para outra sumissem todos os cadastros e informações de clientes de um
banco ou de uma grande empresa, seria um caos total. É aí que entra a importância
de se ter uma boa política de segurança com arquivos e é somente quando
acontece algo catastrófico, quando se perde informações essenciais, que se pode
medir o preço que se pagará por não ter feito cópias de segurança de arquivos tão
importantes que agora, de uma hora para outra, não existem mais.
São inúmeras as causas que podem levar a perda de dados que vão desde
problemas físicos com hardware, instabilidade da energia elétrica, vírus, invasões...
e até mesmo por acidentes, quem nunca passou pelo drama de ter apagado um
arquivo que não deveria ser apagado?
Muitos usuários se abstêm de fazer cópias de segurança dos seus arquivos
acreditando que este é apenas um processo corporativo, o que não é verdade.
Fazer cópias de segurança de arquivos em computadores domésticos ou de
pequeno porte é tão importante quanto se fazer cópias de segurança em grandes
computadores, pois cada usuário sabe muito bem o valor de seus arquivos e com
certeza não quer perdê-los pois, sabe que um arquivo, muitas vezes, representa
238
horas de trabalho e muito tempo de dedicação e tem ciência dos gastos que foram
gerados para que seu trabalho ficasse pronto.
É muito importante que cada usuário defina uma estratégia de segurança
para seus arquivos de acordo com a importância e com o número de riscos aos
quais estes arquivos estão expostos. Por exemplo, arquivos que são de extrema
importância e são modificados freqüentemente e ainda estão sujeitos a ataques de
vírus ou invasores, devem ter uma atenção maior do que aquela dispensada a
arquivos de baixa importância e que raramente são modificados. O importante é que
esta estratégia exista e que de maneira nenhuma se deixe de efetuar cópias de
arquivos que representem importância ao usuário.
Uma política de backup tem a função de formalizar todos os procedimentos
técnicos e não técnicos de uma cópia de segurança dos dados. Dentro dele devem
estar disponíveis informações sobre o que é feito no backup, dos tempos, validação
dos dados e armazenagem.
Definir a política de backup não é um procedimento puramente técnico, na
qual não compete somente a um administrador de redes a sua construção. Esse
ponto é importante devido ao fato de que nesta política deverá estar descrito
exatamente o que deverá ser salvo.
Estamos agora entrando no maior ponto de problemas relacionado a
backup, o que salvar e o que não salvar. Quando entramos nesta discussão fica
claro que o melhor, para garantir, é aquela “vamos salvar tudo”, mas “tudo” é o que?
Se pudermos salvar “tudo” ótimo, e cabe a uma política definir o “tudo”,
informando caminhos completos destes arquivos, da forma lógica computacional, e
então entra o administrador, é importante que haja completa descrição para que a
empresa toda possa saber onde deixar seus arquivos seja na rede ou na sua
estação tendo a certeza de que neste local as informações estão seguras contra
perda.
Devido a limitações técnicas, é impossível que façamos a cópia de
segurança dos dados a cada segundo, o mesmo falamos com relação ao restore, e
ainda, seja por falta de espaço físico ou limitação financeira, nem todas estas cópias
poderão ser mantidas e a tarefa quando falamos em tempo na política de backup é
definir os seguintes pontos:
Quando esta cópia será feita
239
Neste ponto, precisamos detalhar de quanta em quantas horas, dias,
semanas ou meses os dados serão salvos, se existirem diferentes tempos de
backup para os dados, estes também necessitam de especificação. Definir este
tempo inclui novamente mais pessoas além do administrador, que será responsável
por dar o aval de que é tecnicamente possível realizar a cópia no tempo em que
gerentes definirem que a sua informação precisa ser enviada a um local de
segurança.
Quanto tempo demora esta cópia (Backup Window)
É necessário saber quanto tempo leva para o backup ser concluído, para
que assim, em caso de uma perda no horário de backup, se saiba antes do restore
qual backup que contem dados íntegros. Hoje já consideramos adicionalmente para
contornar este tamanho de janela o chamado backup incremental para sempre, a
implementação destes é através de RAID ou dentro de sistemas de storage
empresariais através de snapshots.
Quanto tempo um recover de dados irá levar
Além de saber os tempos relacionados ao procedimento de cópia, é
importante que se tenha conhecimento do tempo que demora a efetuar a
restauração dos dados do backup.
Por quanto tempo uma cópia estará disponível
Seja o local que for armazenado este backup, sabe-se que haverá
limitações, seja de espaço físico ou lógico ou realmente de quantidade de unidades
de armazenamento, e isto nos leva a realizar um rodízio no backup, no qual para se
salvar dados novos, abrem-se mão de outros considerados mais antigos, a política
então deve ser capaz de informar em quanto tempo um dado é antigo e por quanto
tempo este dado antigo precisa ser mantido.
240
O modelo de rotacionamento mais genérico e famoso que temos é o
“Grandfather-father-son – GFS” que se define em realizar backups diários “filhos”
(incrementais), backups semanais “pais” (full) e um mensal (full), o “avô”.
Estes itens são considerados como básicos a uma política genérica, em
determinados casos pode se tornar necessário adicionar mais pontos a esta, como
por exemplo, segmentando um backup por setores, ou filiais, adicionando
responsáveis ao processo. Salientamos que a política de backup assim como uma
política de ética empresarial precisa ser ajustada de acordo com a empresa, os
dados considerados valiosos de uma pode não ser o de outra, e principalmente, o
tempo de retenção da cópia de dados.
6.2 TIPOS DE BACKUP
O tipo de backup a ser utilizado varia de acordo com cada organização,
dependendo da quantidade de informação, e da velocidade que estas informações
são atualizadas, cabe ao administrador de rede e/ou gestor de política de segurança
analisar e definir a melhor forma, basicamente existe 3 tipos:
Backups totais - Um backup total captura todos os dados, incluindo
arquivos de todas as unidades de disco rígido. Cada arquivo é marcado como tendo
sido submetido a backup; ou seja, o atributo de arquivamento é desmarcado ou
redefinido. Uma fita atualizada de backup total pode ser usada para restaurar um
servidor completamente em um determinado momento.
Vantagens
· Cópia total dos dados - Isso significa que você tem uma cópia completa
de todos os dados se for necessária uma recuperação do sistema é mais prático.
· Acesso rápido aos dados de backup - Você não precisa pesquisar em
várias fitas para localizar o arquivo que deseja restaurar, porque os backups totais
incluem todos os dados contidos nos discos rígidos em um determinado momento.
Desvantagens
241
· Dados redundantes - Backups totais mantêm dados redundantes, porque
os dados alterados e não alterados são copiados para fitas sempre que um backup
total é executado.
· Tempo - Backups totais levam mais tempo para serem executados e
podem ser muito demorados.
Backups incrementais - Backup incremental captura todos os dados que
foram alterados desde o backup total ou incremental mais recente. Você deve usar
uma fita de backup total (não importa há quanto tempo ela tenha sido criada) e todos
os conjuntos de backups incrementais subseqüentes para restaurar um servidor. Um
backup incremental marca todos os arquivos como tendo sido submetidos a backup;
ou seja, o atributo de arquivamento é desmarcado ou redefinido.
Vantagens
· Uso eficiente do tempo - O processo de backup leva menos tempo
porque apenas os dados que foram modificados ou criados desde o último backup
total ou incremental são copiados para a fita.
· Uso eficiente da mídia de backup - O backup incremental usa menos fita
porque apenas os dados que foram modificados ou criados desde o último backup
total ou incremental são copiados para a fita.
Desvantagens
· Restauração completa complexa - Você pode precisar restaurar os
dados de um conjunto incremental de várias fitas para obter uma restauração
completa do sistema.
· Restaurações parciais demoradas - Você pode ter que pesquisar em
várias fitas para localizar os dados necessários para uma restauração parcial.
Backups diferenciais - Um backup diferencial captura os dados que foram
alterados desde o último backup total. Você precisa de uma fita de backup total e da
fita diferencial mais recente para executar uma restauração completa do sistema.
242
Ele não marca os arquivos como tendo sido submetidos a backup (ou seja, o atributo
de arquivamento não é desmarcado).
Vantagem
· Restauração rápida – A vantagem dos backups diferenciais é que eles
são mais rápidos do que os backups incrementais, porque há menos fitas
envolvidas. Uma restauração completa exige no máximo dois conjuntos de fitas — a
fita do último backup total e a do último backup diferencial.
Desvantagens
· Backups demorados e maiores - Backups diferenciais exigem mais
espaço em fita e mais tempo do que backups incrementais porque quanto mais
tempo tiver se passado desde o backup total, mais dados haverá para copiar para a
fita diferencial.
· Aumento do tempo de backup - A quantidade de dados dos quais é feito
backup aumenta a cada dia depois de um backup total.
6.3 MODOS DE BACKUP
O modo de backup determina como o backup deve ser executado em
relação ao tipo de dados a serem incluídos nele. Há duas maneiras de executar os
backups de dados:
Backups on-line - são backups feitos em servidores que precisam estar 24h
por dia disponível aos usuários. Geralmente são banco de dados, servidores de e-
mail, etc. Um detalhe bastante importante é que o software de backup e a aplicação
precisam ter suporte a este tipo de backup.
Vantagem
243
· Servidor sempre disponível podendo ser realizado o backup durante o
expediente normal de trabalho.
Desvantagem
· O desempenho do servidor é prejudicado durante a realização do backup.
Backups offline – são backups de dados feito quando ninguém está
tentando acessar as informações, geralmente é agendado para a noite.
Vantagem
Como o servidor estará apenas fazendo o backup dos dados é mais rápido
que o processo de backup on-line.
Desvantagem
Ninguém poderá acessar os dados durante a execução do backup.
6.4 QUANTO TEMPO DEVEM DURAR OS SUPORTES DE
ARMAZENAMENTO?
A durabilidade é uma questão que diz respeito principalmente aos suportes
de armazenamento. Em teoria, as tapes Ultrium, SuperDLT e DLT IV devem durar o
suficiente para sobreviver a pelo menos 1 milhão de passagens. Mas isto não pode
ser visto como uma indicação realista e definitiva de quanto tempo uma tape ou a
sua fita irão durar na sua instalação. Apenas significa que se a tape fosse bobinada
e desbobinada sobre uma cabeça de leitura, como um pano a polir um sapato, o
suporte de armazenamento conseguiria agüentar um milhão de passagens. Mas a
verdade é que a maioria das tapes não é utilizada dessa forma.
Uma passagem da fita diz respeito a qualquer ponto da fita que passa pela
cabeça de leitura em qualquer direção. Não se trata de uma cópia de segurança
completa. Uma passagem completa da fita, de uma ponta para a outra, por todas as
pistas paralelas, envolve várias passagens sobre a cabeça de leitura. Uma Drive HP
244
StorageWorks Ultrium 230, com oito canais de leitura/gravação, precisa de 48
passagens da fita para percorrer todas as 384 pistas ao longo da largura de meia
polegada da fita.
Isto significa que um limite superior de 1 milhão de passagens deve
proporcionar um limite teórico de 20.833 cópias de segurança completas. Mas há
ainda outros fatores que é necessário ter em conta para se chegar a um limite
realista e seguro, sendo necessário conhecimento especializado de toda a solução
de tape para se conseguir determiná-lo com precisão.
Como é que a tape vai ser utilizada?
A determinação da verdadeira esperança de vida de uma tape nunca pode
ser uma ciência exata. Mas o nosso programa de testes dá uma indicação próxima
do que poderá esperar das suas tapes de uma forma realista, dadas as
circunstâncias em que serão utilizadas.
A tape será acedida na sua totalidade de cada vez ou apenas se acederá a
uma pequena parte dela? Com que frequência lê e grava na mesma tape ou em
secções dela? A tape é manuseada e armazenada em conformidade com as
recomendações do fabricante?
Aplicações tais como a gestão de armazenamento hierárquico (HSM –
hierarchical storage management), tape virtual, armazenamento quase on-line,
armazenamento primário e saídas temporárias, determinarão quantas tapes serão
utilizadas por dia, bem como com que frequência. As aplicações de software que
desgastam apenas uma secção da tape ou requerem vários ciclos de
carregamento/descarregamento, podem fazer acelerar a contagem das passagens
da tape e dos ciclos.
A que idade deverá a sua tape ser retirada de funcionamento?
Tentar determinar qual das suas tapes já foi utilizada 260 vezes é
impraticável e raramente necessário. Tendo em conta as estratégias de rotação e as
regulamentações relativas à gestão da informação e retenção de documentos, a
maioria dos utilizadores irá retirar as tapes de funcionamento bastante antes de elas
completarem 260 cópias de segurança completas.
245
Algumas aplicações de cópias de segurança são compatíveis com os
sistemas de detecção das drives, tais como o TapeAlert™, os quais proporcionam
avisos atempados que alertam para a existência de problemas nas tapes,
permitindo-lhe detectar erros e retirar de funcionamento qualquer tape que dê
valores para além do aceitável.
Para qualquer tecnologia que utilize, deve estabelecer um plano de retirada
de funcionamento para se assegurar de que as tapes são substituídas bastante
antes de ficarem demasiado desgastadas e que utiliza sempre suportes de
armazenamento novos, ou quase novos, para os seus arquivos.
Mesmo que a sua estratégia seja a de utilizar as tapes até que falhem, com
um esquema de cópias de segurança do tipo avô-pai-filho (GFS – grandfather-
father-son) ou outro semelhante, o mesmo conjunto tapes deve durar muitos anos
antes de terem sido todas utilizadas 260 vezes.
O que fazer com os volumes crescentes de dados digitais? Especialistas
afirmam que não basta apenas guardá-los, é preciso organizá-los de forma
inteligente para servirem de apoio à tomada de decisões de negócios.
O volume de dados nunca cresceu tanto. De fato, a realidade do mercado de
storage apresenta uma curva de crescimento exponencial. Nos últimos seis a sete
anos, a capacidade de armazenamento tem aumentado em uma média em torno de
40% a 50% ao ano. O cálculo é de Dorival Diettrich de Siqueira, gerente de vendas
da Unidade de Armazenamento da IBM. A vantagem é que, à medida que cresce o
volume de dados a ser armazenado, o custo dos produtos barateia, em proporção
inversa.
246
Para conseguir sobreviver nesse mar de informações, cada vez mais
companhias optam pelo armazenamento externo de dados, conforme verifica
Siqueira. O mercado de storage, segundo ele, também tem crescido
acentuadamente nas pequenas empresas.
“Até mesmo uma padaria pode usar uma unidade externa de
armazenamento de dados”.
Uso do correio eletrônico cada vez mais intenso, e-mails pesados, fotos
digitais em profusão e pulverização de vídeos digitais. Este é o novo quadro do
mundo digital, que consome mais e mais o poder de processamento e de
armazenamento de dados.
Os documentos em papel estão sumindo. As gravações de voz demandam
cada vez mais espaço. E o fenômeno não se restringe a apenas uma ou duas
verticais: nas empresas de telefonia, cada ligação é um dado, cada usuário também.
Trata-se de um número infinitamente grande e em constante crescimento.
Na área de Saúde, há prontuários de pacientes e exames que podem (e devem) ser
usados por departamentos diferentes. O setor financeiro precisa adequar-se às
normais internacionais, cada dia mais exigente, e ter um estoque completo das
informações de cada transação realizada pelos seus clientes. Regulamentações
como a Sarbanes-Oxley, por exemplo, exigem que a organização mantenha
arquivos por mais tempo.
Dessa forma, a atuação dividida por verticais reflete-se no mercado de
storage. Finanças e telecomunicações são historicamente grandes investidores na
área. Empresas dos dois segmentos lidam com alto volume de dados e com grau
elevado de criticidade, o que explica o interesse pelas soluções de armazenamento.
Por outro lado, a área de governo tem frustrado os fornecedores. Poucos
editais lançados neste ano e o incômodo em relação ao fator preço como critério de
escolha são as principais argumentações. Se governo está desacelerado, saúde é a
aposta. Grandes hospitais buscam fornecedores que sejam capazes de lidar com a
tecnologia batendo à porta dos pacientes e com exames e diagnósticos virtuais. As
instituições de saúde são obrigadas a investir em armazenamento para acompanhar
a evolução da área. Hoje, já é possível armazenar exames em meio digital, o que
incentiva a demanda por soluções de storage.
Antigamente, TI era vista como custo nos hospitais, mas o panorama sofre
mudanças gradativas. Nos EUA, por exemplo, questões regulatórias obrigam as
247
instituições a guardarem os dados do paciente por mais de 20 anos. Portanto, mais
uma vez, é necessário recorrer às soluções de storage.
6.5 ALGUMAS SOLUÇÕES
6.5.1 veritas netbackup™ 6.0 vault option
Nenhuma empresa pode se permitir interromper seus negócios.
Quando acontecem desastres, duas de cada cinco empresas atingidas
podem abrir falência em um período de cinco anos. Para proteger a empresa contra
desastres, é fundamental contar com backups armazenados externamente. Apesar
de muitas empresas adotarem procedimentos consagrados de backup externo para
sistemas mainframe, em ambientes UNIX, Linux e Windows®, em geral eles não
existem, são cumpridos aquém das expectativas ou demandam muita mão-de-obra.
O Veritas NetBackup Vault Option ajuda a guardar dados cruciais com segurança
fora da empresa para que possam ser recuperados imediatamente em caso de
desastres.
Como uma opção integrada ao software Veritas NetBackup, o Veritas
NetBackup Vault automatiza os processos tediosos e complexos da duplicação de
backup e gerenciamento de mídia externa.
Os usuários podem configurar perfis para controlar quais backups são
duplicados, quando e como o são, além de quando as fitas serão enviadas a um
sistema de arquivamento externo, ou trazidas dele, para ajudar a minimizar as
perdas de dados em caso de desastres. O NetBackup Vault cuida de detalhes para
que você e sua equipe possam se concentrar em questões mais importantes.
Destaques do produto
• Rotação de fitas abrangente — Para facilitar a recuperação de desastres,
o NetBackup Vault coordena o movimento de entrada e saída da mídia de backup
(fitas) no local de armazenamento externo, com custo mínimo e máxima eficiência;
• Automatização total — Perfis pré-configurados de armazenamento em
cofre determinam quais backups serão duplicados ou enviados para um local fora da
248
empresa e por quanto tempo ficarão retidos. O NetBackup Vault também envia
automaticamente um backup do catálogo (banco de dados) do NetBackup para fora
da empresa, juntamente com fitas de backup regular, para ajudar no processo de
recuperação;
• Fila de trabalho do arquivo externo — Automatize ainda mais os
preparativos para a recuperação de desastres: organize os trabalhos de arquivos
externos em fileiras dentro do NetBackup para concluí-los quando houver recursos
disponíveis;
• Baixo índice de manutenção — As fitas a serem enviadas para fora da
empresa são ejetadas automaticamente todos os dias para que sua embalagem e
expedição sejam providenciadas rapidamente;
• Rastreamento da mídia externa — Os inventários de fita internos e
externos são registrados e rastreados meticulosamente no banco de dados do
NetBackup, para que você possa sempre saber onde encontrar uma fita;
• Cofres de contêineres — O NetBackup Vault oferece suporte ao
armazenamento em cofre de contêineres fechados de mídia de backup, o que
permite rastrear a mídia e gerar os respectivos relatórios, os contêineres que a
contêm e as datas de retorno da mídia e dos contêineres;
• Relatórios detalhados do cofre — Os relatórios diários de listas de
retirada mostram com precisão quais fitas precisam ser expedidas da empresa ou
retornadas. Esse procedimento facilita a coordenação com a equipe externa e os
fornecedores de armazenamento de dados;
• Consolidação e precisão de relatórios — Gere um único relatório
minucioso e atribua os detalhes da distribuição aos relatórios.
249
O NetBackup Vault oferece perfis de armazenamento em cofre de fácil configuração que permitem
especificar com exatidão quais backups devem ser enviados automaticamente para fora da empresa
e quando isso deve ser feito.
Duplicação de backup automatizado proporciona importante
redundância
A duplicação dos dados de backup proporciona redundância em caso de
perda, destruição ou corrupção do backup principal.
Com uma cópia dentro da empresa e outra fora, as solicitações rotineiras de
restauração são feitas sem que seja necessário recuperar a cópia do cofre externo.
O NetBackup Vault oferece excepcional flexibilidade e automatização para
simplificar as tarefas de duplicação. Ele oferece flexibilidade para definir diferentes
períodos de retenção para cada cópia de backup, o que facilita conciliar os
procedimentos de backup com os requisitos da sua empresa.
Ejeção automática de fitas simplifica o gerenciamento de mídia
250
Um dos maiores desafios das tarefas envolvidas no gerenciamento do cofre
é a coleta de fitas para envio externo diário. A ejeção manual das fitas corretas de
uma enorme biblioteca de fitas robotizada é mais difícil do que parece, já que
existem dezenas ou mesmo centenas de fitas a serem escolhidas.
É muito comum os gerentes de operações se virem obrigados a incluir essa
atividade banal e demorada à extensa lista de tarefas sob responsabilidade de sua
equipe já sobrecarregada, simplesmente porque em geral ela é composta pelas
únicas pessoas que podem acessar o aplicativo de backup e determinar quais são
as fitas corretas a serem ejetadas e enviadas para fora da empresa.
Com o NetBackup Vault, há uma maneira mais eficiente. A ejeção de fitas é
feita automaticamente com base em perfis pré-configurados que determinam quais
devem ser enviadas todos os dias para fora da empresa.
O NetBackup Vault tira total proveito da porta de acesso a cartucho (CAP)
ou da porta de acesso a mídia (MAP) da biblioteca de fitas robotizada e, nessa área
isolada, coloca as fitas que serão armazenadas em cofre, de modo que os
operadores de fitas possam simplesmente removê-las do CAP ou MAP e embalá-las
para envio. Não há necessidade de se determinar previamente quais fitas devem ser
armazenadas em cofre ou de se envolver a equipe de operações.
Rastreando a mídia fora da empresa
As fitas de backup em geral representam uma das brechas de segurança
mais ignoradas em qualquer organização. Quando enviadas para fora da empresa,
as fitas de backup se tornam vulneráveis e podem cair em mãos erradas.
É essencial saber sempre quais fitas foram enviadas para fora da empresa e
onde estão armazenadas. Infelizmente, é complicado e quase impossível efetuar um
rastreio manual, com 100% de precisão, dezenas ou mesmo centenas de fitas
armazenadas em diversos locais, pois isso exige intermináveis horas de
contabilidade e inserção manual de dados.
O NetBackup Vault rastreia meticulosamente o local de cada fita por cofre e
número de slot ou ID do contêiner no banco de dados do NetBackup, além da data
de expiração de cada fita, o que elimina a necessidade de planilhas complicadas e a
inserção demorada de dados. O NetBackup Vault pode oferecer suporte a qualquer
volume de cofres para empresas que precisam de vários locais de armazenamento
251
externo. Assim, você saberá exatamente onde encontrar uma fita sempre que
precisar.
O NetBackup Vault gerencia todo o ciclo da duplicação de fitas e do armazenamento em cofre
externo.
252
Plataformas suportadas
• Veritas NetBackup Server ou Veritas NetBackup Enterprise Server
• HP-UX, HP Tru64 UNIX, IBM® AIX®, Microsoft® Windows, Red Hat®
Linux ou Sun™ Solaris™
6.5.2 dataexchange data continuity solution (dedcs)
Ameaças ao seu negócio
Existem 3 categorias de ameaças aos seus dados: provenientes do
ambiente, dos equipamentos e dos usuários/aplicações.
As ameaças do ambiente estão mais presentes nas mentes das pessoas.
Fogo, enchentes são exemplos de desastres devastadores para instalações de TI.
Ameaças mais comuns incluem alta voltagem, alagamentos e ataques de
vírus. Falhas nos equipamentos incluem o computador e o disco rígido que deixam
de funcionar por falhas acidentais que acontecem aleatoriamente como ao
desconectar um usuário.
Erros de usuário e falhas nas aplicações representam as mais freqüentes
ameaças a perda de dados. Erros de usuários abrangem tudo desde falta de backup
dos dados até o apagar um disco com informações essenciais. Enquanto as causas
de “downtime” são extremamente diversas, 80% do downtime das aplicações de
missão-crítica é diretamente causado por falhas de pessoas e processos, de acordo
com Gartner Research.
O Impacto
Apesar da causa da ameaça, certas questões devem ser respondidas para
quantificar adequadamente o impacto: Quantos dados eu posso suportar perder?
E por quanto tempo posso estar "fora" do sistema? Sem acesso a
informações? A perda de dados está diretamente relacionada à atualização dos
dados.
253
Perdas de dados significativos e longos períodos de queda de sistema
ocorrem quando seu sistema não está adequadamente protegido. De acordo com o
Gartner Group, das companhias que experimentam uma perda significante de
dados, 40% estão fora do mercado no prazo de 5 anos. A International Data
Corporation informa que 59% das empresas que tem quedas de sistema não
programadas acham que são incapazes de controlar seus negócios durante esses
períodos. O que isto significa para o seu negócio?
Dependendo do seu mercado, pode ser perda total? Pode ser
financeiramente bastante significativa. Com quedas persistentes por horas e dias, o
resultado pode ser desastroso.
Implementação do Mundo Real
Uma companhia americana de utilitários tinha sua aplicação de missão
crítica utilizando o banco de dados Pervasive.SQL. Para garantir alta disponibilidade,
o servidor de banco de dados estava instalado num ambiente com dois servidores
configurados como cluster. Um dos servidores era designado como primário e o
outro como backup.
A companhia fazia backup toda noite. Ela parecia estar bem protegida, com
um cluster para cobrir falha de equipamentos e fitas de backup para eventuais
recuperações de dados. No entanto, a companhia não estava protegida contra erros
de usuários, o que expôs o cluster a um ponto de falha.
Neste caso, a equipe de tecnologia tinha instalado incorretamente,
configurado e testado o complexo cluster, hardware e software. Conseqüentemente,
quando o cluster de backup experimentava uma rotina de falha no hardware, o
operador não era alertado e o cluster inteiro caía. E mais, como o sistema
operacional não foi propriamente configurado, a fita de backup não pôde recuperar
os dados.
Foram 4 dias de trabalho para a equipe trazer o sistema de volta on-line. Se
o DataExchange Data Continuity Solution (DEDCS) fosse instalado, a companhia
estaria seguramente protegidas contra todas as ameaças incluindo erros de
usuários.
254
A Solução
O DEDCS protege você tanto contra perda de dados como contra queda de
sistema, transferindo rapidamente dados da missão crítica do sistema para o
dispositivo de backup, minimizando as possíveis perdas. Um banco de dados
funcional em standby reduz amplamente a quantidade de qualquer queda de
sistema.
Uma estratégia em "três partes" é empregada, o que incorpora um backup
em tempo real on-site, um backup replicado off-site e arquivo histórico de dados.
• Backup em tempo real on-site - é implementado usando uma tecnologia
de servidores instalados em cluster, e protege contra falhas de hardware no servidor
de banco de dados primário.
• Backup replicado off-site - é implementado usando a tecnologia de
replicação de banco de dados DataExchange para proteger dados atualizados
desde a última operação de backup. Em conjunto com o cluster, tanto a perda de
dados como o tempo de recuperação são minimizados num eventual desastre no
site ou erros de usuários / aplicações.
• Arquivos históricos de dados - são gerenciados usando tecnologias de
fitas de backup permitindo a criação de imagens de dados permanentes.
6.5.3 soluções ibm
Engana-se quem pensa que armazenamento é uma questão atual. A divisão
de storage da IBM existe há 50 anos.
O primeiro disco foi encomendado pela Volkswagen em 1961. Ele tinha
capacidade de armazenamento de 5 GB e ocupava o mesmo espaço de seis
geladeiras. Hoje, um dispositivo do tamanho de uma caixa de fósforos, como um
iPod, por exemplo, é capaz de armazenar 80 GB. Esses exemplos ilustram a
surpreendente evolução da tecnologia de armazenamento nos últimos anos.
255
Ramac 1956 - 5Mb, 1 Ton
“A IBM é uma das principais corporações do mundo na área de
armazenamento”, revela Dorival Diettrich de Siqueira, gerente de vendas da Unidade
de Armazenamento da IBM.
Estudo da IDC, referente a 2005, aponta a IBM como líder no mercado
brasileiro de storage, em discos externos. Segundo a consultoria, a “Big Blue”
fechou o período com 41% de participação no segmento em renda. De acordo com a
IDC, desde 2002, a IBM lidera o segmento, tendo obtido 28% de market share
naquele ano. Em 2003, o resultado foi de 36% e, no ano seguinte, a empresa fechou
o período com 38% do mercado.
A IBM atua com três grandes soluções para o mercado de armazenamento:
simplificação e consolidação do complexo ambiente de storage; continuidade de
negócios e de infra-estrutura durante processo de simplificação; e otimização da
infra-estrutura por meio de soluções e processos de ILM. Essa idéia ganha cada vez
mais espaço, quando o assunto é armazenamento.
Isso porque as companhias de storage passaram também a se
responsabilizar pelo controle dos dados, desde o surgimento de uma informação, até
a hora de ser descartada, ou mesmo armazenada por um período longo de tempo.
256
“A forte estratégia da IBM com soluções de consolidação e virtualização de
storage foi fundamental para conquistar esses resultados. Além disso, tecnologias
inovadoras também fazem diferença, na hora de fechar um projeto”, afirma Siqueira,
que tem o objetivo de manter esse crescimento na área.
6.5.4 ibm ILM
Crescimento em importância, valor e quantidade de informação digital é
esmagador.
Ω Projeção de crescimento em 64% ao ano.
Fonte (Co m p lia n c e : The effect on Information management and the storage
industry).
Ω Ultrapassando a capacidade de IT de capturar, armazenar e
gerenciar de maneira tradicional.
O volume de informação esta crescendo rapidamente
257
Valor das informações ao longo do tempo
O que é Information Lifecycle Management (ILM)?
ILM engloba políticas, processos, práticas e ferramentas usadas para alinhar
o valor da informação de negócio com o mais apropriado e efetivo custo de infra-
estrutura de TI, desde o momento em que a informação é concebida até sua
disposição final.
Em outras palavras …
Ω Identificar a informação certa
Ω Colocá-la no lugar certo
Ω Na hora certa
Ω Para quem realmente importa…
… Até seu descarte /destruição
Necessidades
Ω Maior quantidade de informações
Ω Regulamentações / riscos para o negócio
258
Solução tecnológica
Ω Gerência de retenção e descarte dos dados
Ω Gerenciamento automatizado de storage
Ω Storage em camadas
Benefícios
Ω Automação com uso de políticas
Ω Otimização do uso dos recursos de storage
Ω Gerenciamento de riscos
259
Classificação de Dados
Infra-estrutura de Armazenamento em Camadas
260
IBM Tivoli Storage Manager
O Tivoli faz backup e restore local e remoto.
BENEFÍCIOS
Simplifica a administração de storage através do gerenciamento
automatizado, baseado em políticas.
DESTAQUES
Ω Backup e restore
Ω Archive e recuperação
Ω Gerenciamento de espaço
Ω Disaster recovery
Ω Gerenciamento autonômico de storage
261
Resultados do ILM
Ω Maior disponibilidade das aplicações
Ω Redução dos custos de armazenamento
Ω Melhor gerenciamento da infra-estrutura
Ω Continuidade dos negócios
Ω Redução de riscos e atendimento às regulamentações
262
Se o problema era aumentar o espaço de armazenamento, ele acaba de Ser
resolvido.
IBM System Storage LTO 3580 Express Model
• Tecnologia Ultrium 3 para backup, recuperação e arquivo de dados
• Capacidade de armazenamento de 400GB nativo (800GB com compressão
2:1) por cartucho LTO Ultrium 3
• Unidade de fita externa montável em rack ou em mesa.
• Transferência de 80MB/s (160MB/s com compressão 2:1)
263
• Grava e lê cartuchos LTO Ultrium 2 e lê cartuchos LTO Ultrium 1
6.5.5 EMC - uma nova visão para backup, recuperação e arquivamento
Desafios de Crescimento, Backup e Arquivamento.
1- Ambiente de produção cresce
Ω Crescimento tem alto custo
Ω Desafios em tuning, alocação, backup
2- Requisitos de Backup são difíceis de cumprir
Ω Tempo de Restore aumenta
Ω Janelas de Backup concorrem com produção
Ω Infra-estrutura Tape tem TCO elevado
3- Archive não atendem às regras de negócio
Ω Dados arquivados são difíceis de recuperar
Ω Archives são backups de longa retenção – duplicação de dados
Ω Desafio : Compliance, Conformidade, Regulamentações
Processo de Backup e Archive tradicional
264
Ω O ambiente de produção cresce
o Requer adição contínua de armazenamento TIER 1
o Dados históricos e dados recentes convivem no volume
Ω O processo de backup requer mais recursos
o Dificuldade de manter a janela dentro dos acordos
o Recuperação se torna lenta e arriscada
o Requer adição de recursos : tape drives, cartuchos e eventualmente
novas fitotecas
Ω “Arquivamento” incha desproporcionalmente
o “Arquivo” é um Backup de longa retenção
o Dificuldade de recuperar o conteúdo a longo prazo
o Gerenciamento de mídias prejudica o TCO
o Impossível remover dados arquivados de produção porque a
recuperação tem custo muito elevado
Backup e Archive são práticas diferentes
265
Uma nova Arquitetura para Backup, Recovery e Archive
EMC File System Archiving Solutions suporta plataformas
Windows, Linux, UNIX
File System Archive Assessment Identifica Arquivos Inativos
266
Ω Ferramenta coleta características dos dados dos servidores de
arquivos
Ω Entrevistas detalham procedimentos e práticas operacionais
Ω Análise de todos os dados e entrevistas
Ω Relatório final com resumo da análise e recomendações
6.5.6 EMC Avamar
A proteção de dados hoje
267
Realidade: Pressão para atender às necessidades mutáveis dos negócios
Ω O crescimento de dados é imenso
Ω O tempo necessário para realizar o backup está aumentando
Ω O backup é dificultado pelo fraco desempenho e pela falta de
confiabilidade da fita
Ω O volume de dados em escritórios remotos é crescente
Ω As máquinas virtuais apresentam desafios únicos em backup
As respostas comuns
Ω Backup em fita ou transferência para disco e depois
arquivamento em fita
Ω Mudança manual de arquivos em armazenamento externo para
recuperação de desastres
Backup tradicional
Ω Ineficiente e lento: 200% de dados principais movidos na rede
semanalmente
Ω Requer processos de recuperação cansativos
Ω Há risco de perda ou roubo de fitas em trânsito
Ω É difícil recuperar e aproveitar os dados
268
“Next-Generation” Backup
Como funciona???
Eliminação global da duplicação de dados
Na origem – realiza a eliminação da duplicação antes de os dados serem
transportados na rede
No destino – assegura a eliminação da duplicação coordenada em
diferentes locais, servidores e mesmo com o passar do tempo.
Granular – garante eliminação mais eficaz da duplicação com segmentos
pequenos e de comprimento variável.
6.6 BACKUP USANDO INTERFACE DO WINDOWS
1.Abra o Backup.
O Assistente de backup ou restauração é iniciado por padrão, a menos que
ele esteja desativado. Você pode usar o assistente ou ir para a próxima etapa a fim
de trabalhar no Modo Avançado.
2.Clique no link Modo avançado no Assistente de backup ou restauração.
3.Clique na guia Backup e, no menu Trabalho, clique em Novo.
269
4.Selecione os arquivos e pastas que serão submetidos a backup clicando
na caixa à esquerda de um arquivo ou pasta.
5.Em Destino do backup, siga um destes procedimentos:
Ω Escolha Arquivo se deseja fazer backup de arquivos e pastas
em um arquivo.
Essa opção é selecionada por padrão.
Ω Escolha um dispositivo de fita se deseja fazer backup de
arquivos e pastas em uma fita.
Em Mídia de backup ou nome do arquivo, siga um destes procedimentos:
Ω Se você estiver fazendo backup de arquivos e pastas em um
arquivo, digite um caminho e um nome para o arquivo de backup
(.bkf) ou clique no botão Procurar para localizar um arquivo.
Ω Se você estiver fazendo backup de arquivos e pastas em uma
fita, escolha a fita que deseja usar.
7.Para selecionar as opções de backup desejadas, como o tipo de backup e
o tipo de arquivo de log, clique no menu Ferramentas e, em seguida, clique em
Opções.
Ao terminar de selecionar as opções de backup, clique em OK.
8.Clique em Iniciar backup e faça as alterações na caixa de diálogo
Informações sobre o trabalho de backup.
9.Para definir opções avançadas de backup, como verificação de dados ou
compactação por hardware, clique em Avançado. Ao terminar de definir as opções
avançadas de backup, clique em OK.
10.Clique em Iniciar backup para iniciar a operação de backup.
270
Cuidado
• O utilitário de backup pode ser usado para fazer o backup de dados e
restaurá-los em volumes FAT16, FAT32 ou NTFS. Entretanto, se você fez o backup
dos dados a partir de um volume NTFS, é recomendável que você restaure os dados
em um volume NTFS da mesma versão para evitar perda de dados. Pode ser que
alguns sistemas de arquivos não ofereçam suporte a todos os recursos de outros
sistemas de arquivos.
Observações
Ω Para executar este procedimento, você deve ser um membro do
grupo Administradores ou Operadores de Cópia no computador local.
Se o computador fizer parte de um domínio, é possível que os
membros do grupo Admins. do Domínio possam executar esse
procedimento. Como uma prática recomendada de segurança, use a
opção Executar como para realizar esse procedimento.
Ω Para iniciar Backup, clique em Iniciar, aponte para Todos os
programas, para Acessórios, para Ferramentas do Sistema e clique
em Backup.
Ω Se o Assistente de backup ou restauração não for iniciado por
padrão, você ainda poderá usá-lo para fazer backup dos arquivos
clicando em Modo de Assistente na guia Bem-vindo.
Ω Para fazer backup de arquivos do banco de dados Microsoft
SQL Server e restaurá-los, é recomendável usar os utilitários de
backup e restauração internos pertencentes ao SQL. Para obter mais
informações, consulte a documentação do Microsoft SQL Server.
Ω Algumas unidades de fita podem não oferecer suporte à
compactação de hardware.
271
Ω Os dados do Estado do Sistema contêm a maioria dos
elementos de uma configuração do sistema, mas podem não incluir
todas as informações exigidas para recuperar o sistema de uma falha.
Portanto, é recomendável que você faça backup de todos os volumes
do sistema e de inicialização, incluindo o Estado do Sistema, quando
fizer backup do sistema.
Ω Você só pode fazer backup dos dados do Estado do Sistema em
um computador local. Não é possível fazer o backup do Estado do
Sistema em um computador remoto.
Ω O Backup não dá suporte ao uso de mídia de backup, como CD-
RW (CD regravável), CD-R (CD gravável) e DVD-R (DVD regravável).
Para salvar backups nesse tipo de mídia, faça backup em um arquivo
e copie esse arquivo para o CD. Você pode usar o Backup para
efetuar a restauração a partir de um CD.
Ω Geralmente, os arquivos de backup têm a extensão .bkf. É
possível usar qualquer extensão desejada, mas é recomendável usar
a extensão .bkf, que tem associações de arquivo que garantirão o
reconhecimento do arquivo de backup.
Ω Os operadores de backup e administradores podem fazer
backup de pastas e arquivos criptografados e restaurá-los sem
descriptografá-los.
Ω Se o Windows Media Services estiver sendo executado no
computador e você desejar fazer backup dos arquivos associados a
esses serviços, consulte "Running Backup with Windows Media
Services" na documentação on-line do Windows Media Services. Siga
os procedimentos descritos na documentação on-line antes de fazer
backup dos arquivos associados ao Windows Media Services ou
antes de restaurá-los.
272
273
7 TOLERÂNCIA À FALHAS
Computadores e seus programas são conhecidos por automatizarem e
acelerarem uma série de tarefas enfadonhas e repetitivas, liberando seus usuários
para atividades mais criativas e gratificantes. Na prática, administradores de
sistemas e usuários se vêm às voltas com atividades bastante criativas, mas nada
gratificantes, de tentar recuperar dados perdidos e de enfrentar equipamento fora do
ar devido às múltiplas falhas a que sistemas de computação estão sujeitos.
Falhas são inevitáveis, mas as conseqüências das falhas, ou seja o colapso
do sistema, a interrupção no fornecimento do serviço e a perda de dados, podem ser
evitadas pelo uso adequado de técnicas viáveis e de fácil compreensão. O
conhecimento dessas técnicas habilita o administrador de sistemas a implementar
as mais simples, ou exigir dos fornecedores e desenvolvedores de sistemas
soluções que as incorporem.
Entretanto, as técnicas que toleram falhas tem um alto custo associado.
Pode ser a simples necessidade de backup dos dados, que consome espaço de
armazenamento e tempo para realizar a cópia, ou a redundância de equipamentos e
espelhamento de discos, que consome recursos de hardware sem contribuir para o
aumento do desempenho. O domínio da área de tolerância a falhas auxilia
administradores e desenvolvedores de sistemas a avaliar a relação custo benefício
para o seu caso específico e determinar qual a melhor técnica para seu orçamento.
Sistemas mais robustos em relação a falhas eram, até recentemente,
preocupação apenas de projetistas de sistemas críticos, como aviões, sondas
espaciais e controles industriais de tempo real, e em certo grau também de
projetistas de mainframes com exigências de alta disponibilidade.
Com a espantosa popularização de redes, fornecendo os mais variados
serviços, aumentou a dependência tecnológica de uma grande parcela da população
aos serviços oferecidos. Falhas nesses serviços podem ser catastróficas para a
segurança da população ou para a imagem e reputação das empresas. Para não ser
o elo fraco de uma corrente, o mais simples dos computadores conectado a uma
rede deve apresentar um mínimo de confiabilidade.
Conhecer os problemas potencialmente provocados por falhas no sistema,
as soluções que existem para evitar falhas ou recuperar o sistema após a sua
ocorrência, assim como o custo associado a essas soluções, torna-se imprescindível
274
a todos que pretendem continuar usando computadores, desenvolvendo sistemas ou
fornecendo um serviço computacional de qualidade aos seus clientes. Para
desenvolvedores de software, projetistas de hardware e administradores de rede, o
domínio das técnicas de tolerância a falhas torna-se essencial na seleção de
tecnologias, na especificação de sistemas e na incorporação de novas
funcionalidades aos seus projetos.
Prevenção e remoção de falhas não são suficientes quando o sistema exige
alta confiabilidade ou alta disponibilidade. Nesses casos o sistema deve ser
construído usando técnicas de tolerância a falhas. Essas técnicas garantem
funcionamento correto do sistema mesmo na ocorrência de falhas e são todas
baseadas em redundância, exigindo componentes adicionais ou algoritmos
especiais.
A tolerância a falhas não dispensa as técnicas de prevenção e remoção.
Sistemas construídos com componentes frágeis e técnicas inadequadas de projeto
não conseguem ser confiáveis pela simples aplicação de tolerância a falhas.
7.1 MERCADO PARA PRODUTOS TOLERANTES A FALHAS
Existe um mercado mundial para tolerância a falhas que envolve grande
soma de recursos financeiros. Esse mercado engloba não apenas operações críticas
de tempo real (como transportes, aviônica, controle de processos em tempo real,
comunicações), mas também operações comerciais de missão crítica (como as
suportados por sistemas de transações e sistemas distribuídos).
Empresas que dominavam o mercado mundial para aplicações comerciais
tolerantes a falhas até a década de 80, Tandem e Stratus, produziam mainframes de
altíssimo custo para organizações bancárias e financeiras. A partir da década de 90,
essas empresas, e também SUN, Digital, IBM, Novell e Compac (que incorporou a
Tandem) além de várias outras, começaram a lançar soluções de alta
disponibilidade para servidores de rede e clusters, geralmente de alto custo (como
por exemplo a série de servidores SUN Enterprise).
Uma família de microprocessadores muito popular, Intel 80x86, incorpora
desde o i486 uma gama de recursos para tolerância a falhas, que, se bem utilizados,
poderiam aumentar consideravelmente a confiabilidade dos sistemas produzidos
275
com esses microprocessadores. Infelizmente, por razões associadas a custos e
também principalmente pela carência de uma cultura em confiabilidade, os recursos
desses microprocessadores não são plenamente aproveitados.
Com a popularização de aplicações na Internet é prevista uma grande
demanda por equipamentos de alta disponibilidade e software e serviços que
tolerem em maior ou menor grau a inevitável ocorrência de falhas que assola
sistemas computacionais.
7.2 DEFEITOS EM SISTEMAS DE COMPUTAÇÃO
Confiabilidade e disponibilidade são cada vez mais desejáveis em sistemas
de computação pois dia a dia aumenta a dependência da sociedade a sistemas
automatizados e informatizados. Seja no controle de tráfego terrestre e aéreo ou de
usinas de geração de energia, na manutenção de dados sigilosos sobre a vida e a
finança de cidadãos e empresas, nas telecomunicação e nas transações comerciais
internacionais de todo tipo, computadores atuam ativa e continuamente. É fácil
imaginar que defeitos nesses sistemas podem levar a grandes catástrofes.
Desde os primeiros computadores, é notável como os componentes de
hardware cresceram em confiabilidade. Dos primeiros computadores a válvula, que
queimavam e sobreaqueciam rotineiramente, eram extremamente sensíveis à
umidade dos nossos trópicos e se soltavam dos soquetes a qualquer trepidação, até
a robustez dos notebooks modernos, um acelerado caminho tecnológico foi
percorrido.
Entretanto, o software e os procedimentos de projeto estão se tornando cada
vez mais complexos e apresentando cada vez mais problemas. Só a confiabilidade
dos componentes de hardware não garante mais a qualidade e segurança desejada
aos sistemas de computação. Como exemplo recente desses problemas pode ser
citada a bem conhecida falha de projeto na unidade de ponto flutuante do Pentium,
que prejudicou seu lançamento comercial. Nem todo mundo sabe entretanto que
falhas de projeto são comuns no lançamento de qualquer processador e muitos bugs
em microprocessadores de uso geral sequer foram ainda descobertos.
Alguns defeitos relatados na literatura [Lapr98] valem a pena ser
mencionados: na guerra do Golfo em fevereiro de 1991 foram noticiados vários
276
relatos de falhas em mísseis. Em novembro de 1992 houve um colapso no sistema
de comunicação do serviço de ambulâncias em Londres.
Em junho de 1993, durante dois dias, não foi autorizada nenhuma operação
de cartão de crédito em toda a França. Várias missões da Nasa a Marte terminaram
em fracasso total ou parcial. Todos esses defeitos foram investigados e suas causas
determinadas, mas não se tem garantia que algo semelhante não possa voltar a
ocorrer a qualquer momento.
7.3 DESAFIOS ATUAIS
Para tornar populares soluções que nos garantam a confiança que
depositamos em sistemas de computação, vários desafios devem ser vencidos:
Ω Como evitar, detectar e contornar bugs no projeto de hardware e
software?
Ω Como gerenciar a altíssima complexidade dos sistemas atuais
de computação construídos com dezenas de chips de milhões de
transistores e com software de centenas de milhares de linhas de
código?
Ω Como explorar paralelismo para aumentar o desempenho sem
comprometer a qualidade dos resultados, mesmo no caso de falha de
um ou mais componentes do sistema?
Ω Como aproveitar novas tecnologias mais rápidas, baratas e
eficientes (mas ainda não totalmente provadas e testadas) sem saber
ainda seu comportamento em situações inesperadas sob falha ou
sobrecarga?
Ω Como aproveitar, para aplicações críticas e para operação em
tempo real, o modelo de sistemas distribuídos construídos sobre
plataformas não confiáveis de redes, contornando os problemas de
perdas de mensagens, particionamento de rede e intrusão de
hackers?
277
Ω Como desenvolver computadores móveis e sistemas
embarcados, garantindo confiabilidade e segurança nesses
dispositivos, e assegurando simultaneamente baixo consumo de
potência, sem recorrer a técnicas usuais de replicação de
componentes que aumentam peso e volume?
Ω Finalmente, como conciliar alta confiabilidade e alta
disponibilidade com as crescentes demandas por alto desempenho?
Todos esses desafios ainda permanecem sem uma solução definitiva.
7.4 TOLERÂNCIA A FALHAS OU DEPENDABILIDADE?
O termo tolerância a falhas foi cunhado por Avizienis em 1967. Desde então
tem sido amplamente utilizado pela comunidade acadêmica para designar toda a
área de pesquisa ocupada com o comportamento de sistemas computacionais
sujeitos a ocorrência de falhas, sem ter entretanto logrado sucesso como
designação popular. Na indústria o termo nunca teve boa aceitação, sendo que
desenvolvedores de sistemas de controle preferem usar o termo sistemas
redundantes para seus equipamentos. Na comercialização de sistemas
computacionais como mainframes e servidores de rede, o termo usual é alta
disponibilidade, designando a principal qualidade desses sistemas.
Sistemas redundantes e sistemas de alta disponibilidade apresentam
técnicas comuns mas alcançam resultados diferentes, uns visam alta confiabilidade
e outros continuidade de serviço. Para englobar essas qualidades embaixo de um
único chapéu, freqüentemente aparece o termo segurança de funcionamento. Com a
popularidade do termo segurança computacional, relacionado aos aspectos de
segurança contra intrusos e mal-intencionados e que engloba criptografia,
autenticação e vários tipos de proteção de sistemas, o termo segurança de
funcionamento relacionado a tolerância a falhas caiu em desuso.
O próprio termo tolerância a falhas como designação de área sofre várias
críticas, não apenas no Brasil, mas também internacionalmente. A maior crítica é a
possibilidade de entender o termo como uma propriedade absoluta. Nessa visão
278
distorcida, um sistema tolerante a falhas toleraria toda e qualquer falha em qualquer
situação, o que realmente é uma promessa irrealizável e pode conduzir a falsas
expectativas entre usuários.
Aos poucos o termo dependabilidade vem substituindo tolerância a falhas no
meio acadêmico. Em 2000, o Fault Tolerant Computing Symposium, FTCS, foi
rebatizado Dependable Systems and Networks. Em 2003, o SCTF vai passar a se
chamar LADC, Latin America Dependable Computing.
Será o fim de tolerância a falhas? Entre nós, por enquanto, ainda não.
Dependabilidade é um termo que soa estranho aos nossos ouvidos e não
conseguimos encontrar ainda um adjetivo que se ajuste ao termo.
7.5 FALHA, ERRO E DEFEITO
Estamos interessados no sucesso de determinado sistema de computação
no atendimento da sua especificação. Um defeito (failure) é definido como um desvio
da especificação. Defeitos não podem ser tolerados, mas deve ser evitado que o
sistema apresente defeito. Define-se que um sistema está em estado errôneo, ou
em erro, se o processamento posterior a partir desse estado pode levar a um
defeito. Finalmente define-se falha ou falta (fault) como a causa física ou algorítmica
do erro.
Falhas são inevitáveis. Componentes físicos envelhecem e sofrem com
interferências externas, sejam ambientais ou humanas. O software, e também os
projetos de software e hardware, são vítimas de sua alta complexidade e da
fragilidade humana em trabalhar com grande volume de detalhes ou com
deficiências de especificação.
Defeitos são evitáveis usando técnicas de tolerância a falhas.
Alguns autores nacionais traduzem as palavras inglesas failure como falha e
fault como falta. Para ser coerente com essa última tradução a área deveria se
chamar tolerância a faltas, pois failures não podem ser toleradas.
279
7.5.1 O modelo de 3 universos
Na Figura a seguir é mostrada uma simplificação, sugerida por Barry W.
Johnson [Prad96], e também adotada nesse texto, para os conceitos de falha, erro e
defeito. Falhas estão associadas ao universo físico, erros ao universo da informação
e defeitos ao universo do usuário.
Modelo de 3 universos: falha, erro e defeito
Por exemplo: um chip de memória, que apresenta uma falha do tipo
grudado-em-zero (stuck-at-zero) em um de seus bits (falha no universo físico), pode
provocar uma interpretação errada da informação armazenada em uma estrutura de
dados (erro no universo da informação) e como resultado o sistema pode negar
autorização de embarque para todos os passageiros de um vôo (defeito no universo
do usuário).
É interessante observar que uma falha não necessariamente leva a um erro
(aquela porção da memória pode nunca ser usada) e um erro não necessariamente
conduz a um defeito (no exemplo, a informação de vôo lotado poderia
eventualmente ser obtida a partir de outros dados redundantes da estrutura).
7.6 DEPENDABILIDADE
O objetivo de tolerância a falhas é alcançar dependabilidade. O termo
dependabilidade é uma tradução literal do termo inglês dependability, que indica a
qualidade do serviço fornecido por um dado sistema e a confiança depositada no
serviço fornecido.
280
Tolerância a falhas e dependabilidade não são propriedades de um sistema
a que se possa atribuir diretamente valores numéricos. Mas os todos atributos da
dependabilidade correspondem a medidas numéricas.
Principais atributos de dependabilidade [Prad96] são confiabilidade,
disponibilidade, segurança de funcionamento (safety), segurança (security),
mantenabilidade, testabilidade e comprometimento do desempenho (performability).
Um resumo dos principais atributos é mostrado na Tabela a seguir.
7.7 CONFIABILIDADE
A confiabilidade R(t) é a capacidade de atender a especificação, dentro de
condições definidas, durante certo período de funcionamento e condicionado a estar
operacional no início do período.
A definição acima implica algumas condições essenciais, muitas vezes
esquecidas:
Ω especificação: sem uma especificação do sistema, não é
possível determinar se o sistema está operando conforme esperado
ou não, quando mais formal e completa a especificação, mais fácil
estabelecer essa condição. Não é possível estabelecer se um sistema
sem especificação é confiável ou não.
281
Ω condições definidas: as condições de funcionamento do sistema
devem ser bem definidas. Um exemplo simples são as condições
ambientais de temperatura e umidade. Outro exemplo são os dados
ou estímulos de entrada que o sistema deve processar.
Ω período de funcionamento: o tempo de missão deve ser
conhecido. O tempo de missão de uma viagem espacial é diferente do
tempo de missão de um vôo comercial doméstico. Um sistema pode
ser altamente confiável para 12 horas de operação e depois
necessitar de um longo período de repouso e reparo.
Ω estado operacional no início do período: não é possível falar em
confiabilidade de sistemas que já partem operando com defeitos.
Confiabilidade é a medida mais usada em sistemas críticos, ou seja nos
seguintes tipos de sistemas:
Ω sistemas em que mesmo curtos períodos de operação incorreta
são inaceitáveis;
Ω sistemas em que reparo é impossível.
Exemplos já mencionados de sistemas confiáveis são aviação e exploração
espacial.
Confiabilidade é uma medida de probabilidade, pois a ocorrência de falhas é
um fenômeno aleatório. Confiabilidade não pode ser confundida com disponibilidade.
Um sistema pode ser de alta confiabilidade e de baixa disponibilidade. Um exemplo
seria um avião que precisa de reparos e manutenção nos intervalos de vôo.
7.8 DISPONIBILIDADE
Assim como a confiabilidade, a disponibilidade é uma medida de
probabilidade. Disponibilidade é a probabilidade do sistema estar operacional num
instante de tempo determinado.
282
Disponibilidade é o atributo mais usado em sistemas de missão crítica.
Sistemas de consulta de base de dados on-line, servidores de rede, servidores de
páginas web, são alguns exemplos de sistemas onde alta disponibilidade é
requerida.
Disponibilidade não pode ser confundida com confiabilidade. Um sistema
pode ser altamente disponível mesmo apresentando períodos de inoperabilidade,
quando está sendo reparado, desde que esses períodos sejam curtos e não
comprometam a qualidade do serviço (Figura a seguir). Disponibilidade está muito
relacionada com o tempo de reparo do sistema. Diminuir o tempo de reparo resulta
em um aumento de disponibilidade.
Alternância de períodos de funcionamento e reparo
Apesar de disponibilidade e confiabilidade representarem atributos e
corresponderem a medidas diferentes, usuários no geral gostariam de ter sistemas
com as duas características. Disponibilidade e confiabilidade não são excludentes,
mas as técnicas para implementar uma e outra podem ser bem diferentes.
7.9 OUTROS ATRIBUTOS
Outras atributos importantes de um sistema são: comprometimento do
desempenho (performability), mantenabilidade e testabilidade. Todas essas medidas
são igualmente representadas por uma probabilidade.
Comprometimento do desempenho (performability) - está relacionada à
queda de desempenho provocado por falhas, onde o sistema continua a operar, mas
degradado em desempenho.
Mantenabilidade - significa a facilidade de realizar a manutenção do
sistema, ou seja, a probabilidade que um sistema com defeitos seja restaurado a
283
um estado operacional dentro de um período determinado. Restauração envolve a
localização do problema, o reparo físico e a colocação em operação.
Finalmente testabilidade - é a capacidade de testar certos atributos internos
ao sistema ou facilidade de realizar certos testes.
Quanto maior a testabilidade, melhor a mantenabilidade, e por conseqüência
menor o tempo que o sistema não estará disponível devido a reparos.
7.10 MEDIDAS RELACIONADAS A TEMPO MÉDIO DE FUNCIONAMENTO
As medidas para avaliação de dependabilidade mais usadas na prática são:
taxa de defeitos, MTTF, MTTR, MTBF. Todas essas medidas estão relacionadas a
confiabilidade R(t). A Tabela abaixo mostra uma definição informal dessas medidas.
Os fabricantes deveriam fornecer medidas de dependabilidade para os seus
produtos, tanto para os componentes eletrônicos, como para os sistemas de
computação mais complexos. Tais medidas são determinadas pelo fabricante
estatisticamente, observando o comportamento dos componentes e dispositivos
fabricados.
Medidas de confiabilidade
A taxa de defeitos de um componente é dada por defeitos por unidade de
tempo e varia com o tempo de vida do componente.
284
Uma representação usual para a taxa de defeitos de componentes de
hardware é dada pela curva da banheira. Na Figura a seguir podem se distinguir 3
fases:
Ω mortalidade infantil: componentes fracos e mal fabricados
Ω vida útil: taxa de defeitos constante
Ω envelhecimento: taxa de defeitos crescente
Os componentes de hardware só apresentam taxa de defeitos constante
durante um período de tempo chamado de vida útil, que segue uma fase com taxa
de defeitos decrescente chamada de mortalidade infantil. Para acelerar a fase de
mortalidade infantil, os fabricantes recorrem a técnicas de burn-in, onde é efetuada a
remoção de componentes fracos pela colocação dos componentes em operação
acelerada antes de colocá-los no mercado ou no produto final.
Curva da banheira
7.11 CLUSTER
Um cluster é um sistema que compreende dois ou mais computadores
(denominados nodos), ligados em rede, na qual trabalham em conjunto para
executar aplicações ou realizar outras tarefas, de tal forma para que os usuários que
os utilizam tenham a impressão que somente um único sistema responde para eles,
criando assim uma ilusão de um recurso único (computador virtual). Este conceito é
denominado transparência do sistema. Utiliza-se de um tipo especial de sistema
285
operacional classificado como sistema distribuído. Como características
fundamentais para a construção destas plataformas inclui-se elevação da confiança,
distribuição de carga e desempenho.
A cada dia cresce o número de aplicações que exigem um grande poder
computacional, entre as quais podemos encontrar exemplos nas áreas de
multimídia, cálculos complexos, gerenciamento de grandes volumes de dados, entre
outros.
Essa alternativa tem sido viável por apresentar um desempenho satisfatório
e um custo baixo, se comparada a outras alternativas como supercomputadores.
Existem vários mecanismos para troca de informações que podem ser
utilizados na construção de clusters, alguns deles de distribuição livre como o PVM
(Parallel Virtual Machine), que é um pacote de software que apresenta um conjunto
de máquinas trabalhando como um único recurso computacional paralelo [Lourenço,
2002].
O estudo de clusters se mostra importante, principalmente, por ser uma área
que ainda é pouco trabalhada apesar das muitas vantagens oferecidas. Além disso,
os clusters oferecem um nível alto de tolerância a falhas, que não são encontradas
em qualquer arquitetura de alto desempenho, o que merece atenção.
De acordo com essas informações, pode-se perceber que esse é um
assunto interessante para pesquisa, por isso o objetivo desse trabalho foi realizar
um estudo sobre clusters e sobre o PVM e, principalmente, a construção de um
cluster de alto desempenho.
7.11.1 Clusters de Computadores
A busca por maior desempenho computacional aumenta a cada dia, devido
ao constante crescimento do número de aplicações que exigem cada vez mais uma
maior capacidade de processamento. Essas aplicações são encontradas nas mais
diversas áreas, entre as quais podem ser citados vários exemplos, como multimídia,
cálculos, gerenciamento de grandes volumes de dados, entre outros.
Uma forma de proporcionar alto poder computacional é a utilização de
máquinas paralelas, que utilizam mais de um processador para executar uma
286
mesma tarefa e, assim, conseguem um desempenho melhor. Os tipos mais comuns
de máquinas paralelas são: supercomputadores e os clusters de computadores.
Antigamente, a única alternativa que se encontrava para executar essas
aplicações mais complexas eram supercomputadores, que são máquinas
desenvolvidas com tecnologias proprietárias e, geralmente, possuem finalidades
pré-definidas que acabam gerando desvantagens [Pitanga, 2004], como:
Ω utilização de softwares proprietários e caros;
Ω hardware com custo elevado;
Ω alto custo de manutenção;
Ω total dependência de fornecedores; e
Ω dificuldade de atualização.
Atualmente, uma outra alternativa é a utilização dos clusters de
computadores, que são máquinas construídas com utilização de dois ou mais
microcomputadores comuns interligados por uma rede de interconexão, que
trabalham juntos para resolver um problema [Zacharias, 2004]. Nessa arquitetura,
cada um dos equipamentos interligados é chamado de nó e, normalmente, existe um
nó mestre que gerencia e/ou divide as tarefas entre os demais nós, chamados de
escravos.
287
A constante evolução tecnológica dos computadores pessoais, tanto em
relação ao aumento de desempenho como em relação à diminuição do custo, é um
dos fatores que tem contribuído para fazer dos clusters uma boa alternativa para
atender as necessidades de alto poder de processamento. Estes clusters são
construídos com máquinas comuns e podem utilizar sistemas operacionais abertos e
de distribuição livre, como o Linux, tornando-se uma alternativa viável, pois
apresenta um desempenho satisfatório e um custo baixo, se comparada aos
supercomputadores.
Algumas vantagens dos clusters são [Pitanga, 2004]:
Ω escalabilidade: é possível aumentar o desempenho do mesmo
adicionando ou trocando os microcomputadores que compõem o
cluster;
Ω tolerância a falhas: o cluster mantém o funcionamento mesmo
com a paralisação de alguns nós;
288
Ω baixo custo: utilizam recursos de fácil acesso e de uso comum
como, por exemplo, microcomputadores de uso pessoal e mini-hub.
Ω independência de fornecedores: por utilizar
microcomputadores comuns, que podem ter plataformas
heterogêneas, não estão presos a uma tecnologia específica.
7.11.2 Cluster de alta performance de computação
Quando se fala em alto desempenho computacional, imagina–se um
supercomputador dedicado, com custo elevadíssimo e de difícil operação, mas isso
pode ser traduzido em processamento paralelo e processamento distribuído
[Pitanga, 2004], realizado sobre clusters de computadores. Os clusters utilizados
para esse fim, são os clusters de alta performance computacional que, entre outras
vantagens, oferecem um custo bem reduzido frente aos supercomputadores.
Essa classe de cluster tem como foco o desenvolvimento de máquinas
paralelas com alto poder computacional, que podem ser utilizadas em estudo de
algoritmos de processamento paralelos e construção de aplicações paralelas ou
distribuídas [Pitanga, 2004].
No processamento das aplicações, os computadores trabalham como um
único recurso computacional. Cada vez que o cluster recebe uma tarefa para
executar, como por exemplo cálculos matemáticos para Engenharia, divide a mesma
em partes que serão distribuídas entre os nós. Ou seja, o principal objetivo desse
tipo cluster é aumentar o desempenho da execução da tarefa através da divisão
mesma em sub-tarefas entre os nós.
7.11.3 Cluster de alta disponibilidade
Quando se disponibiliza uma aplicação uma grande preocupação é com a
garantia de confiabilidade e o tratamento de falhas, pois se espera que esta funcione
e esteja disponível sempre que se fizer necessário. Em muitas dessas aplicações,
289
paradas não planejadas podem causar prejuízos na qualidade dos serviços, levando
até a perdas financeiras.
Em alguns casos, principalmente para empresas, a disponibilidade de um
sistema é vital. A paralisação do sistema significa a paralisação da empresa, como
por exemplo, o sistema bancário. Para resolver esse problema, podem ser utilizados
clusters de alta disponibilidade que tem como principal função evitar essas paradas,
mantendo um sistema ativo conforme o necessário, mesmo com a paralisação
parcial do mesmo.
Diagrama de cluster de alta disponibilidade
Esse tipo de configuração é utilizada em aplicações que executam tarefas
críticas. Nesse caso, os equipamentos são utilizados em conjunto com o objetivo de
manter os serviços sempre ativos [Pitanga, 2004]. Uma das formas de alcançar esse
objetivo é a redundância de equipamentos e/ou serviços, ou seja, são mantidas
cópias dos recursos para atender no caso de alguma parada dos serviços
disponibilizados, através da substituição dos mesmos pelas cópias.
Na maioria das vezes, a redundância causa a perda de performance e de
poder de processamento, pois além do tempo gasto com o processamento, é
necessário dispor tempo para manter as cópias dos recursos atualizadas. Isso não é
problema se o objetivo principal for alcançado, ou seja, a não paralisação do serviço
disponibilizado.
290
Normalmente, um servidor de qualidade mantém uma disponibilidade de
99,5%, quando uma solução através de clusters de computadores mantém 99,99%
de disponibilidade [Pitanga, 2004].
Como se pode perceber, a utilização de clusters é diversificada. Qualquer
aplicação que demande um grande poder computacional pode ser adaptada para
executar em um cluster para obter um funcionamento satisfatório. Da mesma forma,
adaptações podem ser feitas em aplicações que necessitam estar sempre
disponíveis para executarem em clusters.
Alguns exemplos em que a utilização de cluster pode ser indicada, são:
Ω servidores de Internet – no caso de sites muito visitados, um
cluster pode distribuir a carga e aumentar a capacidade de resposta.
Ω Computação Gráfica – a utilização de um cluster pode, por
exemplo, diminuir o tempo de renderização de imagens durante a
elaboração de um filme.
Ω Inteligência Artificial e automação – casos como
processamento de imagens ou visão por computador que,
normalmente, exige muito processamento que pode ser distribuído;
Ω previsão do tempo –processar informações para gerar uma
previsão através de computadores seqüenciais é um processo lento e
impreciso, principalmente por utilizar processamento de imagens
recebidas por satélite;
Ω segurança de reatores nucleares – a análise das condições do
reator e a atuação rápida em caso de acidentes exigem cálculos
matemáticos complexos que necessitam de muito processamento.
Como se pode perceber existe uma variedade de aplicações que podem
executar em clusters, mas normalmente essas aplicações também podem ser
trabalhadas, utilizando supercomputadores. Para explicar melhor essa relação, será
apresentado na próxima seção um paralelo entre clusters e supercomputadores.
291
7.11.4 Clusters X Supercomputadores
Os supercomputadores são máquinas construídas para obter alto
desempenho a partir de uma arquitetura voltada para busca de resultados
específicos a um determinado tipo de tarefa [Omena, 2004]. Ou seja, geralmente,
são máquinas construídas sob encomenda para a execução de uma aplicação pré-
definida.
Essas máquinas trazem um retorno satisfatório no que diz respeito a
desempenho e poder de processamento. Principalmente pelo fato de serem
projetadas com uma finalidade específica, suas arquiteturas provêem um
desempenho otimizado para realização das tarefas. Em contrapartida, podem ser
encontradas várias barreiras na utilização dos supercomputadores.
O alto custo de desenvolvimento é o principal fator negativo em relação à
utilização de supercomputadores, o que faz com que o acesso aos mesmos seja
restrito a poucos. Além disso, o fato de serem construidos, normalmente, sob
encomenda acaba gerando uma dependência total de fornecedores e um alto custo
de manutenção, além de dificultar a realização de atualizações. Existe, ainda, o
problema de que muitas vezes essas máquinas utilizam softwares proprietários e
caros [Pitanga, 2004].
Esses pontos negativos, na utilização de supercomputadores, estimulam a
busca de alternativas com melhor relação custo/desempenho, como por exemplo,
clusters de computadores.
Os clusters de computadores têm seu desempenho e poder de
processamento diretamente ligados à quantidade de nós que o compõem, podendo
apresentar um retorno tão satisfatório quanto os supercomputadores. Os mesmos
apresentam uma arquitetura bastante flexível, permitindo a alteração da quantidade
de nós com muita facilidade, o que permite adicionarem novos nós para melhorar o
desempenho na existência de uma necessidade de maior poder de processamento
ou ainda a remoção de nós no caso de ociosidade.
Essa arquitetura contribui também para a formação de um sistema com uma
maior tolerância a falhas, já que um cluster pode continuar funcionando mesmo com
a paralisação de alguns dos nós.
Na página www.top500.org são listados os 500 computadores mais rápidos
do mundo.
292
os 10 computadores mais rápidos do mundo, de acordo com [Top500, 2004]
7.12 GRID E DATA GRID
7.12.1 Grids Computacionais
O crescente avanço do hardware e software, bem como o aumento da
velocidade e qualidade dos serviços de rede oferecidos atualmente, mostram-se
como uma alternativa para a exploração do poder computacional, de acordo com
[Balbinot 05]. O uso de uma grande quantidade de máquinas interligadas, com fraco
acoplamento, dá origem a um novo conceito, conhecido como computação em grid
293
Segundo [Foster 02], Grid Computacional (do inglês Grid Computing) é um
modelo computacional capaz de processar uma alta taxa de processamento
divididos em diversas máquinas, podendo ser em rede local ou rede de longa
distância, que formam uma máquina virtual. Com isso, esses processos serão
executados no momento em que as máquinas não estão sendo utilizadas pelo
usuário, assim evitando o desperdício de processamento da máquina utilizada.
Em suma, os serviços oferecidos pelo grid, o acesso sob demanda aos
recursos, devem ter baixo custo, oferecendo um certo grau de consistência e
confiabilidade [Foster 01][Foster 02].
Grid x Clusters
Certamente, há plataformas para execução de aplicações paralelas que não
são Grids. O que diferencia um Grid de um cluster, por exemplo? De maneira geral,
podemos dizer que Grids são mais distribuídos, diversos e complexos que outras
plataformas. Aspectos que evidenciam esta distribuição, diversidade e complexidade
são:
Ω Heterogeneidade: nos componentes do Grid;
Ω Alta dispersão geográfica: Grids podem ter escala mundial;
Ω Compartilhamento: no sentido de que o Grid não pode ser
dedicado a uma aplicação;
Ω Múltiplos domínios administrativos: Grids podem congregar
recursos de várias instituições;
Ω Controle distribuído: tipicamente não há uma única entidade que
tenha poder sobre todo o Grid;
7.12.2 Data Grid
Data Grid é um sistema de Computação em Grid, onde o recurso dados é
tratado com a mesma prioridade do recurso computação - tratando do controle do
compartilhamento e da gerência controlada de grandes quantidades de dados
294
distribuídos [Arun 02]. Freqüentemente, mas não sempre, eles são combinados com
os recursos de computação de um Grid.
Muitas aplicações científicas e da engenharia requerem o acesso às grandes
quantidades de dados distribuídos (Terabytes ou petabytes). O tamanho e o número
destes levantamentos de dados têm crescido rapidamente nos últimos anos e
continuarão a crescer, enquanto as novas experiências vêm aumentando os custos
da computação e os desempenhos do armazenamento de dados, e as novas
aplicações dentro das ciências são desenvolvidas.
Em resumo, o foco inicial do Data Grid está relacionado em ser uma
plataforma para comunidades científicas que necessitam compartilhar, acessar,
transferir, processar e gerenciar grandes quantidades de dados distribuídos
geograficamente. Neste cenário, estão envolvidas as seguintes questões [Arun 02]:
Ω Proliferação de dados: aplicações que processam grandes
quantidades de dados (GB, TB, etc).
Ω Distribuição geográfica: pesquisas científicas têm envolvido
pesquisadores de vários estados ou países.
Ω Gerenciamento de Réplicas: muito freqüentemente, um dado é
escrito em um ponto único e depois replicado.
Ω Recursos limitados: os recursos disponíveis em um só
laboratório muitas vezes são insuficientes.
Ω Autonomia Local: as organizações ainda retêm o controle dos
recursos, por exemplo, decide a política de acesso.
Ω Heterogeneidade: diferentes configurações de hardware e
software, além de vários protocolos de comunicação.
295
8 RAID
RAID é a sigla para Redundant Array of Independent Disks. Sua definição
em português seria "Matriz Redundante de Discos Independentes". Trata-se de uma
tecnologia que combina vários discos rígidos (HD) para formar uma única unidade
lógica, onde os mesmos dados são armazenados em todos (redundância). Em
outras palavras, é um conjunto de HDs que funcionam como se fossem um só.
Isso permite ter uma tolerância alta contra falhas, pois se um disco tiver
problemas, os demais continuam funcionando, disponibilizando os dados. O RAID é
uma tecnologia consolidada, já que surgiu pelas mãos de pesquisadores da
Universidade de Berkesley, na California (EUA) no final da década de 1980.
Os primeiros discos magnéticos sofriam de males próprios de uma
tecnologia nascente: confiabilidade baixa, tamanho grande e alto custo.
Embora a capacidade dos discos tenha aumentado rapidamente, as
melhorias capacidade com a mesma taxa. Uma matrix de discos baratos e
redundantes foi então proposto em 1988 por pesquisadores de Berkeley. O termo
RAID (Redundant Arrays of Inexepensive Disks) foi então cunhado para se contrapor
a tecnologia de discos grandes e caros. Os adjetivos são aplicáveis à época da
introdução da RAID.
No mundo de negócios da atualidade, nenhuma questão é mais importante
para as grandes centrais de armazenamento do que a preservação e a integridade
de seus dados.
Uma pequena combinação de problemas físicos ou elétricos pode, num
piscar de olhos, causar mais prejuízos econômicos do que um incêndio devastador.
Considerando a rotina de utilização, todos os discos eventualmente irão
falhar. Sabendo disso, as pessoas que gerenciam sistemas de armazenamento
utilizando diversos discos geralmente tentam proteger seus dados com alguma
forma de recuperação a partir de falhas. Na maioria dos casos, a principal defesa
contra as falhas de discos se refere a dois simples algoritmos RAID que foram
desenvolvidos há mais de quinze anos – um deles com base no espelhamento e
outro com base em paridade. Embora seja verdade que esses algoritmos podem
proteger contra a perda de dados, caso ocorra alguma falha de disco em um
conjunto de discos, a partir do momento em que ocorre a falha até que o conjunto
296
RAID é completamente reconstruído, uma segunda falha de disco pode ocorrer a
qualquer momento.
Por várias razões, vale a pena considerar a probabilidade de ocorrerem
várias falhas de disco:
Ω Um evento que danifica o disco provavelmente vai danificar mais
de um disco – tal como um ambiente sujeito à excessiva umidade ou
temperatura, um grande impacto no dispositivo de armazenamento ou
um pico de voltagem.
Ω Podem ocorrer grandes atrasos. Uma falha pode acontecer
quando não é possível fazer uma substituição de disco, em um local
remoto ou durante uma mudança de turno. Quanto mais tempo levar
para se restaurar um disco que apresentou uma falha, maiores serão
os problemas que outro disco causará se falhar durante o intervalo
desprotegido. Além disso, continuar em operação com um disco
apresentando falha aumenta efetivamente o nível de sobrecarga e
estresse nos discos que não apresentaram falhas.
Ω O custo da proteção adicional tem diminuído. Em comparação
com os discos SCSI, os discos IDE/ATA têm maior capacidade, mas
apresentam uma menor expectativa de duração e levam mais tempo
para serem recuperados – colocando grandes quantidades de dados
em maior risco de sofrerem uma falha de disco. Entretanto, uma vez
que o espaço em disco está se tornando cada vez mais barato, o
custo da proteção adicional também está ficando cada vez menor.
Ω Quanto mais discos em um conjunto, maior a probabilidade de
que mais de um disco apresente problemas a qualquer momento,
especialmente se todos os discos no conjunto estiverem prestes a
atingir sua expectativa de duração normal.
Ω As pessoas cometem erros. Durante o período vulnerável em
que é realizada a substituição de um disco, um funcionário pode
remover o disco errado.
Ω A constante necessidade de que os dados estejam disponíveis
pode ser demasiadamente importante para se correr riscos. Mesmo
297
tendo um backup em fita, grandes perdas de tempo podem ocorrer se
o sistema de armazenamento em rede precisar ser recuperado a
partir de uma fita, e a restauração a partir de fita geralmente não
permite a recuperação das modificações que foram efetuadas depois
do backup mais recente.
Os algoritmos de espelhamento mais comumente utilizados são RAID-1 e
RAID-10. Freqüentemente, eles são confundidos entre si. RAID-1 utiliza um disco
para dados e um ou mais discos para espelhamento, enquanto RAID-10 (algumas
vezes, chamado de 0 + 1) utiliza um conjunto de discos-espelho para o backup de
um igual número de discos com dados distribuídos (striped) - o armazenamento de
dados distribuído é utilizado para aumentar a velocidade em relação ao desempenho
de um disco com densidade simples (single-disk).
O lado negativo de qualquer tipo de espelhamento, conforme está descrito
abaixo, é que, embora esse método proteja contra a perda aleatória de apenas um
único disco, a capacidade utilizável é reduzida à metade do número total de discos
no conjunto. Outro meio de se considerar esta alternativa é que o espaço em disco
necessário para fazer cópias espelhadas custará algumas vezes a quantidade de
espaço em disco exigida para a proteção de backup com um sistema RAID 5 que
proporciona a mesma capacidade de utilização e o mesmo nível de proteção.
RAID 5 exige o equivalente a apenas um disco para paridade, a fim de
proteger qualquer número de discos contra uma falha em um único disco. Embora
este método seja mais eficiente do que o espelhamento, ainda existe o problema de
que todos os dados são perdidos, caso ocorra qualquer falha em um segundo disco
antes que o RAID afetado seja recuperado.
As duas combinações mais comumente mencionadas são RAID 5+1 (um par
espelhado de conjuntos RAID-5) e RAID 5+5 (um RAID-5, cujos “discos
componentes” são RAID 5). Vários algoritmos complexos de criptografia também
têm sido desenvolvidos para proteger contra a perda de mais de um disco.
O problema com os RAIDs compostos e com os algoritmos de criptografia é
que eles perdem tanto espaço de armazenamento para redundância e/ou tanta
velocidade de processamento para cálculo, que raramente eles são utilizados ou
mesmo oferecidos como opções com produtos NAS – forçando os usuários que
precisam de proteção a escolher entre a paridade e o espelhamento.
298
Em vez de forçar um padrão de proteção (e vulnerabilidade) para o usuário,
com base nas capacidades de espelhamento ou de proteção por paridade de um
único disco, uma alternativa mais ideal para a proteção de dados seria ajustar o
nível de segurança contra a perda de disco às necessidades dos usuários. Já existe
um novo produto com base neste conceito.
Denominada RAIDn, esta patente avançada em tecnologia RAID permite
que o usuário selecione um nível desejado de segurança de disco, nível esse que
varia de zero (idêntico ao RAID 0 convencional e não oferecendo nenhuma proteção
contra a perda de dados em disco) à proteção contra a perda de qualquer número
de discos.
Entre essas duas opções extremas, existe a segurança contra a perda de
um único disco (muito semelhante a RAID 5, que possibilita que um disco falhe sem
causar nenhuma perda de dados) e a segurança contra perda de dois discos
(atualmente disponível apenas em sistemas especiais, nos quais são oferecidas
combinações de RAIDs, como RAID 1+5 ou 51).
Embora seja possível conseguir proteção contra a perda de dois ou mesmo
de três discos por meio de combinações convencionais de RAID, RAIDn pode
efetuar a recuperação a partir de várias falhas simultâneas, sem sacrificar uma
grande quantidade de espaço em disco utilizável e sem causar um declínio
significativo no desempenho.
Em um conjunto de discos de qualquer tamanho, o número de falhas
aleatórias a partir das quais um usuário pode efetuar a recuperação com RAIDn
sempre é igual à quantidade de espaço em disco reservado para a segurança dos
dados (paridade).
A Idea por traz desta matriz é distribuir os dados em diversos discos e usar
alguns para redundância de dados. Esta redundância é importante para promover
maior confiabilidade ao sistema: por exemplo, via de regra, em uma RAID se um dos
discos quebrar os dados não são efetivamente perdidos.
Muitas formas de redundância de dados podem ser exploradas para obter
este efeito. Como usamos um conjunto de discos para armazenagem dos dados
também é possível explorar como dividir nos diversos discos da matriz. Para
classificar os tipos possível de redundância e distribuição dos dados nos discos
foram utilizados originalmente 5 níveis distintos (RAID nível 1 a RAID nível 5).
299
Estes níveis não formam uma hierarquia e servem basicamente para
identificar que aplicações se beneficiam das características da RAID. Apesar de
originalmente propostos 5 níveis, hoje são reconhecidos como padrão 7 níveis
(adicionando RAID nível 0 e RAID nível 6) e existem mais uma gama de propostas
que não são consensuadas ou adotadas pela indústria. A propósito, mesmo dentro
dos 5 primeiros níveis propostos alguns não se mostraram viáveis para indústria.
A segurança de dados com RAIDn pode ser utilizada, se necessário, para
reconstruir os dados a partir de qualquer conjunto aleatório de discos perdidos. Por
exemplo, para proteger contra a perda de até duas falhas de discos simultâneas, o
usuário reserva o espaço equivalente a dois discos para a segurança de dados com
RAIDn, que são, na verdade, distribuídos (striped), em todos os discos no conjunto,
como mostra a Figura a seguir.
segurança por paridade, com RAID n, com dados armazenados em trilhas.
8.1 RAID NÍVEL 0
Uma das características de uma RAID é guardar os dados de forma
distribuída, mas sem que o sistema operacional ou usuário perceba. Um conjunto de
dados em seqüência é então distribuído pela matrix, em um processo chamado
striping. Veja que o Sistema Operacional, ao solicitar nos discos a seqüência de
dados, provoca a movimentação de todas as cabeças de leitura (de cada disco)
simultaneamente, favorecendo assim o desempenho do sistema. Um possível
esquema de distribuição de dados nos discos é mostrado na Figura 6.25. Veja que a
informação do título e data de publicação deste livro está distribuída em 4 discos
com 3 bandejas cada.
300
RAID nível 0 é de fato um nome aproximado para este modelo, já que
nenhuma redundância é provida. De qualquer forma o modelo está sedimentado
com este nome. Exatamente pela falta de redundância, este é o nível do RAID que
apresenta melhor desempenho. O problema com este modelo é que se existe uma
probabilidade matemática de um dos discos quebrar, como temos uma matriz, a
probabilidade de algum dos discos do conjunto quebrar é ainda maior, o que faz com
que a confiabilidade do armazenamento dos dados seja baixa.
Além disto, pela falta de redundância, é impossível recuperar uma seqüência
de dados se algum dos discos apresentar defeito. Por isto, o RAID nível 0 é
recomendado para dados não críticos e que precisem de alto desempenho de
entrada e saída. Sistemas de backup poderiam utilizar muito bem o RAID nível 0.
RAID nível 0.
8.2 RAID NÍVEL 1
No RAID nível 1 está implementada a mais antiga técnica de tolerância a
falhas, chamada espelhamento (mirroring) ou sombra (shadowing).
Simplesmente, os dados são replicado dentro da matriz em discos distintos.
Se um disco falhar a informação pode ser obtida de seu disco espelho. Esta solução
é a mais simples e confiável de todos os níveis de RAID, entretanto ela é também a
mais cara. Seu desempenho é parecido com o RAID nível 0.
301
RAID nível 1.
RAID nível 1 é apropriado para sistemas que precisam de alta tolerância a
falhas, como sistemas bancários e de armamentos.
8.3 RAID NÍVEL 2
No RAID nível 2 os dados são distribuídos aos extremos nos discos.
Apenas 1 bit de cada informação é guardado em um disco (este valor pode
apresentar variações dependendo da fonte de pesquisa, mas o fato é que as tiras
são muito pequenas). Apenas para formar um byte são necessários 8 superfícies de
discos. Daí é usado um algoritmo de correção de erro capaz de detectar e corrigir
erros. Os dados necessários para execução este algoritmo são armazenados em
discos extras. Normalmente a quantidade de discos para armazenar estes dados
com informações de redundância é diretamente proporcional ao logaritmo do
número de discos onde estão os dados.
O algoritmo mais convencional para implementar RAID nível 2 é o código de
Hamming.
Este nível de RAID está em desuso e por isto não vamos prover detalhes
sobre sua utilizada nem seus pontos fortes e fracos.
8.4 RAID NÍVEL 3
302
Este nível de RAID é bastante interessante porque ele garante que usando
apenas um disco extra é possível reconstruir a informação original sem que os
dados se percam, em qualquer que seja o disco que por ventura se danifique. A
idéia é bastante simples, vamos começar com uma analogia para facilitar a
compreensão: imagine que todos os discos de dados da matriz armazenem
números.
Um disco extra é usado para armazenar a soma de todos os dados de uma
seqüência (cada número em um disco). Se algum destes discos quebrar é fácil
identificar qual o valor que nele estava armazenado anteriormente à falha
simplesmente pegando a soma total, no disco extra, e subtraindo da soma parcial no
restante dos discos.
Na prática o RAID nível 3 é implementado com uma checagem de paridade.
A paridade é simplesmente o resultado do ou-exclusivo de todos os bits que
compõem uma determinada seqüência. Os dados do RAID nível 3 também são
distribuídos bit a bit pelos discos. A Figura a seguir mostra um exemplo. O disco
cinza é usado para guardar bits de paridade.
No modo de operação reduzida (sem um dos discos) sempre que um dado é
solicitado ele precisa ser calculado para ser entregue ao solicitante.
Quando um novo disco é introduzido no sistema, em substituição ao disco 2,
todos os dados anteriormente em d2 são calculados e armazenados no novo disco.
Então o sistema pode voltar a operar em modo normal.
RAID nível 3.
No modo RAID nível 3 sempre que um dado é gravado na matriz, o bit de
paridade associado precisa ser recalculado, mas a leitura não é afetada. As
benesses deste modelo se limitam a uma abordagem simples para provê a
redundância e muito barata, já que exige apenas um disco extra para permitir a
recuperação de informações. Entretanto, as falhas que ocorram nos discos são
penalizadas em desempenho porque cada informação precisa ser reconstruída.
303
RAID nível 3 é muito utilizada em sistemas de CAD e tratamento de
imagens.
Todos os demais níveis de RAID usam o esquema de paridade para
recuperação de erros, entretanto com algumas diferenças na forma como os dados
são guardados.
Como vimos no RAID nível 3, o período em que um disco apresenta defeito
é muito crítico para o sistema. Se durante uma falha ou no período de correção da
falha, ocorrer um outro defeito em outro disco.
O RAID sempre foi um recurso bastante usado em servidores e em
computadores de grande porte para otimizar o acesso a disco e adicionar tolerância
à falhas. Mas, atualmente este recurso está ao alcance de qualquer usuário
doméstico que tenha condições de comprar mais de um HD. É possível usar RAID
tanto em HDs IDE quanto em HDs SCSI.
8.5 RAID EM HDS IDE
Uma controladora RAID permite combinar vários discos rígidos, permitindo
aumentar tanto o desempenho, fazendo vários discos trabalharem como se fossem
um só; quanto a confiabilidade, usando um sistema de espelhamento.
Além das controladoras SCSI, que não são uma solução muito viável para o
usuário doméstico, já que os discos rígidos SCSI são caros, existem também
algumas controladoras RAID IDE, que além de serem mais baratas, permitem usar
os discos rígidos IDE que temos no mercado.
Uma controladora é uma placa de expansão que deve ser conectada a um
dos slots PCI do micro. O placa substitui as interfaces IDE da placa mãe, por isso é
detectada automaticamente pelo sistema operacional que estiver utilizando, seja o
Windows 2000 ou mesmo o Linux, tornando a instalação bastante simples.
A placa trás as duas saídas IDE normais. Cada saída permite conectar dois
discos rígidos, o que traz a possibilidade de instalar até 4 discos rígidos IDE. As
possibilidades são as seguintes:
8.5.1 raid 0 (striping):
304
É possível combinar 2, 3 ou 4 discos rígidos, que serão acessados como se
fossem um só, aumentando radicalmente o desempenho do acesso à disco. Os
dados gravados são fragmentados e os pedaços são espalhados por todos os
discos. Na hora de ler, os discos são acessados ao mesmo tempo. Na prática,
temos um aumento de desempenho de cerca de 98% usando dois discos, 180%
usando 3 discos e algo próximo a 250% usando 4 discos. As capacidades dos
discos são somadas. Usando 3 discos de 8 GB por exemplo, você passará a ter um
grande disco de 24 GB.
Este modo é o melhor do ponto de vista do desempenho, mas é ruim do
ponto de vista da confiabilidade, pois como os dados são fragmentados, caso
apenas um disco falhe, você perderá os dados gravados em todos os discos.
Uma observação importante sobre este modo é que você deve usar discos
rígidos idênticos. É até possível usar discos de diferentes capacidades, mas o
desempenho ficará limitado ao desempenho do disco mais lento.
8.5.2 raid 1 (mirroring):
Este modo permite usar 2 HDs, sendo que o segundo armazenará uma
imagem idêntica do primeiro. Na pratica, será como se você tivesse apenas um
disco rígido instalado, mas caso o disco titular falhe por qualquer motivo, você terá
uma cópia de segurança armazenada no segundo disco. Este é o modo ideal se
você deseja aumentar a confiabilidade do sistema.
A observação sobre este modo é que ao usar dois discos, procure colocar
um em cada uma das duas interfaces IDE da placa, isto melhorará o desempenho.
Outro ponto é que caso os dois discos estejam na mesma interface, como master e
slave, você teria que resetar o micro caso o primeiro disco falhasse (este problema
ocorre em todas as controladoras RAID IDE). Usando um em cada interface a
controladora fará a troca automaticamente, sem necessidade de reset. Da próxima
vez que inicializar o micro você receberá um aviso pedindo para substituir o HD
defeituoso.
8.5.3 raid 10 (mirror/strip):
305
Este modo pode ser usado apenas caso você tenha 4 discos rígidos. Os dois
primeiros funcionarão em Striping, dobrando o desempenho, enquanto os outros
dois armazenarão uma imagem dos dois primeiros, assegurando a segurança. Este
modo é na verdade uma combinação dos dois primeiros.
8.6 CONFIGURAÇÃO:
Depois de espetar a placa em um slot PCI e conectar os discos rígidos a ela,
você deverá apertar “Ctrl + F” (a combinação de teclas pode variar dependendo do
modelo da sua controladora) durante a inicialização do micro para acessar o BIOS
Setup da placa.
BIOS da controladora RAID.
Você terá acesso então ao utilitário de configuração da placa RAID. A
interface é semelhante à dos utilitários de configuração de placas SCSI.
306
Dentro do Setup, escolha a opção de auto configuração e em seguida o
modo de operação, entre os 3 que expliquei anteriormente e seu sistema RAID
estará pronto para uso. No mesmo menu você encontra as opções de desfazer o
RAID (Delete Array). Lembre-se que ao desfazer um RAID 0 você perderá todos os
dados de todos os HDs.
Usando Striping, os discos serão vistos como se fossem um só, isto significa
que você particionará e acessará os discos como se tivesse apenas um disco
instalado. Usando Mirroring também, do ponto de vista do sistema operacional só
existirá um disco instalado. A própria controladora se encarregará de copiar os
dados para o segundo disco.
Em geral você também terá a opção de configurar o “stripe block”, onde é
possível definir qual o tamanho dos blocos de dados em que a controladora
quebrará os arquivos ao ser usado RAID 0 ou 10. Basicamente, se forem ser
armazenados muitos arquivos pequenos, um stripe block de 32 KB funcionará
melhor, enquanto se forem ser armazenados arquivos muito grandes, 128 KB será
um valor mais adequado. O valor defaut de 64 KB é adequado para a maioria das
situações.
Além das controladoras dedicadas, existe também a opção de comprar uma
placa mãe com uma controladora RAID embutida. Esta é a opção mais barata, já
que o acréscimo no preço da placa é bem menor que o custo de uma controladora
separada. Mas, não deixe de verificar se a placa mãe suporta os três modos de
RAID. Muitas placas suportam apenas RAID 0.
Nas placas com RAID você encontrará 4 interfaces IDE. As duas primeiras
são reservadas para os HDs em RAID enquanto as outras duas são para uso geral.
307
É recomendável instalar CD-ROMs, gravadores ou mesmo outros HDs que não vão
fazer parte do RAID apenas nas duas IDEs de uso geral.
8.7 INTERFACES SCSI
Uma opção às interfaces IDE, são as controladoras SCSI (Small Computer
Systems Interface), sigla que pronunciamos como "scuzzi" com o "u" arranhado,
como no Inglês. Estas controladoras são encaixadas em um slot disponível da placa
mãe.
As controladoras e discos SCSI são superiores aos IDE em vários aspectos,
porém não são tão populares devido ao preço. Uma Ferrari é muito melhor que um
Gol, mas não é tão vendida, justamente por ser mais cara e pelas pessoas
normalmente não precisarem de um carro tão rápido.
Similarmente, do ponto de vista de um usuário doméstico, as vantagens do
SCSI não justificam seu alto preço. Mas em micros de alto desempenho, como
servidores de rede, o uso do SCSI é quase obrigatório.
Numa controladora SCSI, podemos usar até 15 dispositivos
simultaneamente (já que um ID é usado pela própria controladora) sem que haja
degradação de performance, como acontece quando usamos mais de um dispositivo
IDE numa mesma controladora.
Outra grande vantagem do SCSI, é uma menor utilização do processador
quando o HD é acessado, justamente porque praticamente todo trabalho é
executado pelos próprios discos rígidos (sob orientação da controladora), e não pelo
processador.
Basicamente, o processador precisa apenas informar à controladora, quais
dados devem ser transferidos, onde estes dados estão gravados e para onde eles
serão transferidos, para que a controladora possa fazer o restante do trabalho,
avisando ao processador quando tiver terminado.
Durante este tempo, o processador ficará livre para executar outras tarefas.
Embora as interfaces IDE UDMA também ofereçam este recurso, ele é
implementado de maneira muito mais transparente e eficiente nas controladoras
SCSI.
308
O primeiro modelo de controladora SCSI foi lançado em 1986. Era uma
controladora de 8 bits, que permitia um barramento de dados de até 5 Megabytes
por segundo. Esta controladora antiga é chamada de SCSI 1. Em 1990, foi lançada
a segunda geração de controladoras SCSI, chamadas de SCSI 2. Estas novas
controladoras já eram muito mais rápidas, incluindo também outros recursos, como o
suporte de até 15 dispositivos por controladora, em oposição aos 7 suportados pelas
controladoras antigas.
Foram lançados posteriormente os modelos Ultra SCSI e Ultra 2 SCSI além,
claro, das recordistas de velocidade Ultra SCSI 3, que permitem taxas de
transferência de dados ainda maiores, incluindo também alguns recursos novos.
Além da divisão em modelos, as interfaces SCSI dividem-se também em
controladoras Narrow e Wide. As controladoras Narrow trabalham com
transferências de dados a 8 bits e suportam o uso de até 8 dispositivos por interface.
As controladoras Wide, por sua vez, trabalham com transferências de 16 bits. Os
cabos também mudam; as controladoras Narrow usam cabos de 50 vias, enquanto
as Wide usam cabos de 68 vias.
Veja na tabela abaixo a taxa máxima de transferência de dados permitida
por cada modelo de controladora:
Como nos discos IDE, esta é a transferência de dados permitida pela
controladora, e não a velocidade de operação dos discos. Atualmente, mesmo os
discos rígidos mais rápidos, dificilmente superam a marca dos 30 MB/s. Poderíamos
pensar então, qual seria a vantagem de uma controladora rápida, se nenhum disco
será capaz de utilizar toda sua velocidade.
Não podemos nos esquecer, porém, que numa interface SCSI podemos ligar
até 15 dispositivos, entre discos rígidos, CD-ROMS, gravadores de CD, scanners e
outros. Isso é particularmente aplicável em servidores, onde é comum o uso de
vários discos rígidos. Neste caso, todos os periféricos compartilharão o mesmo
309
barramento de dados, utilizando toda sua capacidade. Vale então a máxima de
“quanto mais melhor”.
Outro fator, é que os discos rígidos mais rápidos são padrão SCSI. Isso não
significa, que um disco rígido é mais rápido somente por ser SCSI, mas que as
tecnologias mais novas e caras são geralmente utilizadas primeiramente em discos
SCSI, sendo somente utilizadas nos discos IDE depois de tornarem-se mais baratas.
Isto acontece justamente por causa do mercado de discos SCSI, que prioriza o
desempenho muito mais do que o preço.
Se você precisa de um equipamento com o máximo de desempenho, e pode
pagar por ele, então o SCSI é a melhor escolha. Porém, se o seu computador se
destina ao uso doméstico, como aplicações de escritório, jogos e Internet, então os
discos IDE compensam muito mais devido ao baixo custo.
Falando em custo, não podemos esquecer que todas as placas mãe
modernas vêm com interfaces IDE embutidas, sendo nosso único gasto com os
discos rígidos ou CD-ROMs. Por outro lado, para usar discos SCSI, precisaríamos
comprar separadamente a controladora, sendo que uma boa controladora SCSI
custa por volta de 250 ou 300 dólares, sendo os próprios discos SCSI mais caros.
8.8 RAID COM HDS SCSI
Atualmente, o disco rígido e um dos componentes mais lentos em qualquer
PC. Muito mais lento que o processador, que a memória RAM, que a placa de vídeo,
etc.
O grande problema é que devido à sua natureza mecânica, não é possível
produzir HDs muito mais rápidos com a tecnologia atual, pelo menos a um custo
aceitável. No futuro este problema poderá ser resolvido com o uso de HDs de estado
sólido, onde será usada memória Flash (ou outra tecnologia que surja nos próximos
anos) ao invés de discos magnéticos. De qualquer forma, esta ainda é uma solução
distante da realidade. Os HDs de estado sólido já existem para uso militar e em
alguns servidores de alto desempenho, mas seu custo é muito alto, entre 2 e 5
dólares por MB.
310
Para quem precisa de HDs mais rápidos, seja por precisar de um servidor de
arquivos parrudo, ou por qualquer outro motivo, mas ao mesmo tempo não pode
gastar muito, uma solução é o RAID.
RAID significa “Redundant Array of Inexpensive Disks”, ou disposição
redundante de discos baratos. A idéia é um sistema “unidos venceremos”, onde
vários HDs são combinados para aumentar a performance. Num nível mais
complexo, o RAID pode ser usado também para melhorar a confiabilidade do
equipamento, através de espelhamento ou paridade. Num sistema RAID 1, onde
temos dois HDs, sendo que o segundo armazena uma cópia fiel dos dados do
primeiro, mesmo que um dos HDs pife de uma hora pra outra, o sistema continua
intacto, funcionando como se nada tivesse acontecido.
Como o nome sugere, um sistema RAID utiliza HDs IDE ou SCSI comuns, o
que permite construir sistemas com vários HDs a um custo relativamente baixo.
Várias placas mãe atuais estão vindo com controladoras RAID IDE embutidas,
permitindo combinar até 4 HDs IDE.
O primeiro passo para montar um sistema RAID SCSI é comprar uma
controladoras SCSI com suporte a RAID. A maioria das controladoras SCSI atuais
suportam RAID, custando (no Brasil) a partir de 150 dólares. As controladoras
diferenciam-se pelos recursos. Em primeiro lugar, existem controladoras SCSI de 8
bits e de 16 bits, as de 8 bits permitem usar até 7 HDs, enquanto as de 16 bits
permitem um máximo de 15 e são duas vezes mais rápidas.
Outra diferença diz respeito ao padrão suportado pela placa, que dita a
velocidade da interface.
Placas Ultra SCSI (Fast 20) operam a 20 MB/s (placas de 8 bits) ou 40 MB/s
(placas de 16 bits).
Placas Ultra-2 SCSI (Fast 40) operam a 40 MB/s (8 bits) ou 80 MB/s (16
bits). As placas Ultra-3 SCSI (Fast 80) são as mais rápidas. operam a 80 MB/s ou
160 MB/s.
Também existem controladoras com buffer embutido. Este buffer funciona
como um cache de disco, melhorando a performance, principalmente nas operações
de escrita. Podem ser encontradas placas com até 32 MB de buffer. Naturalmente,
quanto mais buffer, mais cara a placa.
Resolvido o problema da placa SCSI, resta escolher qual modo RAID será
usado. O modo pode ser configurado através do BIOS da placa SCSI, que pode ser
311
acessado pressionando uma combinação de teclas durante o boot. O mais comum é
Ctrl + C.
Os modos RAID disponíveis em placas SCSI são:
8.8.1 raid 0 (striping)
É o modo que permite obter a melhor performance possível, sacrificando
parte da confiabilidade.
Todos os discos passam a ser acessados como se fossem um único drive.
Ao serem gravados, os arquivos são fragmentados nos vários discos, permitindo que
os fragmentos possam ser lidos/gravados ao mesmo tempo. Usando RAID 0 a
performance um patamar próximo da velocidade de todos os HDs somada. Ao usar
4 HDs com taxa de transferência de 20 MB/s cada em RAID 0, você teria uma taxa
de transferência total de 75, 76 MB/s. O problema é que caso qualquer um dos HDs
apresente problema, serão perdidos os dados armazenados em todos os HDs, já
que qualquer arquivo torna-se inútil caso uma parte do código seja perdida.
8.8.2 raid 1 (mirroring)
É o famoso sistema de espelhamento, conseguido usando dois HDs. Um
deles armazena dados, enquanto o seguindo armazena uma cópia fiel dos mesmos
dados. Caso qualquer um dos HDs pare, ele é automaticamente substituído pelo seu
“clone” e o sistema continua intacto. Na maioria das controladoras RAID SCSI é
possível realizar a troca do HD defeituoso “a quente”, com o micro ligado, recurso
ainda não disponível nas controladoras RAID IDE.
8.8.3 raid 2
É um modo que não é mais utilizado. O RAID 2 consiste em embutir códigos
de correção de erros em cada cluster de dados gravado. Porém, todos os HDs
312
atuais já vem com sistemas de correção de erros embutidos, tornando o sistema
obsoleto.
8.8.4 raid 3
O RAID 3 usa um sistema de paridade para manter a integridade dos dados.
Num sistema com 5 HDs, o 4 primeiros servirão para armazenar dados, enquanto o
último armazenará os códigos de paridade.
Nos 4 primeiros drives temos na verdade um sistema RAID 0, onde os dados
são distribuídos entre os 4 HDs e a performance é multiplicada por 4. Porém, os
códigos armazenados no 5º HD permitem recuperar os dados caso qualquer um dos
4 HDs pare. A recuperação é feita usando os códigos de correção de erros
combinados com os dados distribuídos nos outros HDs.
É possível aplicar o RAID 3 a sistemas com mais HDs, sendo que sempre
um armazenará os códigos de correção. Claro que este sistema funciona apenas
caso apenas um HD apresente existe um bit de paridade para cada 8 bits de dados,
enquanto no RAID 3 temos um bit extra para cada 4 bits de dados.
Você pode perguntar, como é possível recuperar todos os dados,
armazenados nos 4 HDs com apenas um HD de códigos de paridade. Na verdade, a
idéia por trás desta aparente mágica é bastante simples.
A paridade consiste em adicionar um bit adicional para cada grupo de bits.
Na memória RAM, existe um bit de paridade para cada 8 bits de dados, enquanto no
RAID 3 temos um bit extra para cada 4 bits de dados.
Caso dentro destes 4 bits exista um número par de bits 1, então o bit de
paridade é 0. Caso exista um número ímpar de bits 1, então o bit de paridade é 1:
313
Veja que graças ao bit de paridade é possível saber apenas que, dentro do
grupo de 4 bits existe um número par ou ímpar de bits 1. Mas, isso já é o suficiente
para recuperar qualquer um dos 4 bits que seja perdido, desde que sejam
respeitadas duas condições:
a) Que apenas um bit de cada grupo seja perdido
b) Que se saiba qual dos bits foi perdido
No RAID 3 cada um dos bits dentro de cada grupo fica guardado em um HD.
Quando um dos HDs pára de funcionar, a controladora sabe exatamente quais bits
foram perdidos e têm condições de recuperá-los com uma continha muito simples:
Na primeira linha temos dois bits 1 e um bit 0. Se o bit de paridade é 0,
significa que temos um número par de bits 1. Como já temos dois bits 1, então é
claro que o bit que está faltando é um zero. Na segunda linha temos dois bits 1 e um
bit 0. Como o bit de paridade é 1, significa que temos um número ímpar de bits 1.
Como temos apenas dois, significa que o bit perdido é um bit 1.
Tudo o que a controladora precisa fazer para recuperar os dados é repetir
este cálculo até recuperar todos os dados. Para um computador isto é bem simples.
O único problema é que quando um dos HDs pára de funcionar a máquina também
fica paralizada. Apenas depois que o HD for substituído e que a controladora tiver
tempo de terminar de recuperar os dados é que o sistema volta a funcionar
normalmente.
Em sistemas de operação crítica, onde a máquina não pode ficar fora do ar
por mais do que alguns segundos, este sistema não é o suficiente.
8.8.5 raid 4
314
Este modo é parecido com o RAID 3, novamente um dos discos é dedicado
à tarefa de armazenar os códigos de paridade, mas a forma como os dados são
gravados nos demais discos é diferente.
No RAID 3 os dados são divididos, sendo cada fragmento salvo em um disco
diferente. Isto permite ganhar velocidade tanto na gravação quanto na leitura dos
dados.
No RAID 4 os dados são divididos em blocos, pedaços bem maiores do que
no RAID 3. Com isto, é possível ler vários arquivos ao mesmo tempo, o que é útil em
algumas aplicações, porém o processo de gravação é bem mais lento que no RAID
3. O RAID 4 apresenta um bom desempenho em aplicações onde seja preciso ler
uma grande quantidade de arquivos pequenos. No RAID 4 o tempo de reconstrução
dos dados caso um dos HDs falhe é bem maior do que no RAID 3.
8.8.6 raid 5
É mais um sistema que baseia-se no uso de paridade para garantir a
integridade dos dados caso um HD falhe. A diferença sobre o RAID 3 é que ao invés
de dedicar um HD a esta tarefa, os dados de correção são espalhados entre os
discos. A vantagem sobre o RAID 3 é alcançar taxas de leitura um pouco mais altas,
pois será possível ler dados a partir de todos os HDs simultaneamente, entretanto as
gravações de dados são um pouco mais lentas.
O RAID 5 pode ser implementado com apartir de 3 discos. Apesar dos dados
de paridade serem espalhados pelos discos, o espaço esquivamente à um dos HDs
é consumido por eles. Usando 4 HDs de 20 GB cada um, teremos 60 GB para dados
e 20 GB para os códigos de paridade. Usando 8 HDs teremos 140 GB para dados e
os mesmos 20 GB para paridade, e assim por diante.
8.8.7 raid 6
315
É um padrão relativamente novo, suportado por apenas algumas
controladoras. É semelhante ao RAID 5, porém usa o dobro de bits de paridade,
garantindo a integridade dos dados caso até 2 dos HDs falhem ao mesmo tempo. Ao
usar 8 HDs de 20 GB cada um em RAID 6, teremos 120 GB de dados e 40 GB de
paridade.
8.8.8 raid 10
Este sistema combina características do RAID 0 e RAID 1, daí o nome. O
RAID 10 pode ser implementando em sistemas com 4 discos ou mais, sendo
obrigatório um número par (6, 8, etc.).
Metade dos discos armazena dados e a outra metade armazena uma cópia.
A metade que armazena dados é combinada, formando um sistema RAID 0,
aumentando a performance, porém mantendo a confiabilidade, já que temos cópias
de todos os dados. Usando 4 HDs de 20 GB em modo 10, teremos 40 GB de dados
e o dobro de desempenho que em um HD sozinho.
8.8.9 raid 53 (ou 5+3)
Ao contrário do que o nome sugere, este modo é uma combinação dos
modos 3 e 1. O RAID 53 pode ser implementado em sistemas com pelo menos 5
HDs. Os dois primeiros HDs formam um sistema RAID 3, com os dados distribuídos
entre eles. Os dois HDs seguintes formam um sistema RAID 0, enquanto o último
armazena códigos de paridade de todos. Este sistema apresenta um balanço entre
as boas taxas de transferência do RAID 3 e a boa performance ao ler vários
arquivos pequenos do RAID 0. Porém, não existe 100% de garantia de recuperar
todos os dados caso um dos HDs falhe. É um modo pouco usado.
8.9 TIPOS DE IMPLEMENTAÇÕES DE RAID VIA SOFTWARE
316
Para manter o acesso aos dados durante a perda de um único disco rígido, o
Windows 2000 Server fornece uma implementação de software de uma tecnologia
de tolerância a falhas conhecida como matriz redundante de discos independentes
(RAID). O RAID fornece tolerância a falhas implementando a redundância de dados.
Com a redundância de dados, um computador grava os dados em vários discos de
modo que, se um disco falhar, as informações ainda ficarão disponíveis.
Existem duas maneiras de implementar a tolerância a falhas no Windows
2000: uma implementação de RAID de software ou uma implementação de RAID de
hardware. O Windows 2000 provê três implementações de RAID de software.
Implementação de RAID de Software
Em uma implementação de RAID de software, o sistema operacional fornece
um mecanismo para garantir a redundância de dados. O Windows 2000 Server
oferece suporte a três tipos de RAID de software, conforme descrito nas seções a
seguir:
8.9.1 raid 0
O RAID 0 também é conhecido como Distribuição em Discos, onde um
volume armazena dados em faixas de dois ou mais discos físicos. Os dados de um
volume distribuído são alocados de forma alternada e uniforme nas faixas nesses
discos. Os volumes distribuídos oferecem o melhor desempenho de todos os tipos
de volume disponíveis no Windows 2000, mas não fornecem tolerância à falhas.
8.9.2 raid 1
O RAID 1 também é conhecido como Espelhamento de Disco. Nesta
implementação os dados são gravados em dois discos simultaneamente. Se um
disco falhar, o sistema usará os dados do outro disco para continuar a operação. O
Windows grava todos os dados no disco primário e no secundário ou espelhado, de
forma que apenas 50% do total de espaço em disco disponível pode ser usado.
317
8.9.3 raid 5
Os volumes RAID 5 compartilham dados em todos os discos de uma matriz.
O RAID nível 5 é exclusivo porque grava as informações de paridade em todos os
discos. Informações de paridade são as informações redundantes associadas a um
bloco de informações. No Windows 2000 Server, a paridade é um valor calculado
usado para reconstruir os dados depois de uma falha. O Windows 2000 obtém a
redundância de dados organizando um bloco de dados e suas informações de
paridade em diferentes discos na matriz.
8.10 IMPLEMENTAÇÃO DE RAID DE HARDWARE
Em uma implementação de hardware, a interface do controlador do disco
trata da criação e regeneração de informações redundantes. Alguns fornecedores de
hardware implementam a proteção de dados RAID diretamente no hardware, como
fazem com as placas controladoras da matriz de discos. Como esses métodos são
específicos de cada fornecedor e ignoram os drivers de software tolerantes a falhas
do sistema operacional, normalmente geram um melhor desempenho se
comparados às implementações de RAID de software. Além disso, as
implementações de RAID de hardware geralmente incluem recursos extras, como
hot swapping de discos rígidos com falhas e memória cache dedicada, para um
desempenho aprimorado.
Os seguintes pontos devem ser considerados para optar entre uma
implementação de RAID por software ou por hardware:
Ω A tolerância a falhas de hardware é mais cara do que a de
software;
Ω A tolerância a falhas de hardware geralmente faz com que o
computador tenha um desempenho mais rápido do que a tolerância a
falhas de software;
318
Ω As soluções de tolerância a falhas de hardware podem limitar as
opções de equipamento a um único fornecedor.
Ω As soluções de tolerância a falhas de hardware podem
implementar o hot swapping de discos rígidos para permitir a
substituição de um disco rígido com falhas sem que seja preciso
desligar o computador.
8.11 IMPLEMENTAÇÃO DE RAID 1 NO WINDOWS 2000: VOLUMES
ESPELHADOS.
Um volume espelhado usa o driver de tolerância a falhas (Ftdisk.sys) do
Windows 2000 Server para gravar os mesmos dados simultaneamente no volume de
cada membro em cada um dos dois discos físicos. Cada volume é considerado um
membro do volume espelhado. A implementação de um volume espelhado o ajuda a
assegurar que os dados não sejam perdidos no caso de falha de um membro do
volume espelhado.
Os volumes espelhados podem melhorar o desempenho de leitura, pois o
driver de tolerância a falhas lê a partir dos dois membros do volume de uma só vez.
Pode ocorrer uma pequena queda no desempenho de gravação, já que o driver de
tolerância a falhas deve gravar nos dois membros.
Quando um membro de um volume espelhado falhar, o desempenho voltará
ao normal, pois o driver de tolerância a falhas estará trabalhando com apenas uma
partição.
De forma resumida, as principais vantagens e desvantagens dos volumes
espelhados são:
Ω Oferecem suporte a volumes do tipo tabela de alocação de
arquivos (FAT) e a volumes do sistema de arquivos NTFS;
Ω Com eles, pode-se proteger as partições de sistema ou de
inicialização;
Ω Requerem dois discos rígidos;
Ω Têm um alto custo por megabyte porque apenas 50% dos discos
são utilizados para armazenamento de dados;
319
Ω Têm um bom desempenho de leitura e gravação;
Ω Usam menos memória do sistema se comparados aos volumes
RAID-5.
CONFIGURAÇÃO DE RAID 1
Utiliza-se o Create Volume Wizard no Computer Management para criar
volumes espelhados a partir de espaço não alocado em discos dinâmicos (são
necessários dois discos dinâmicos para criar um volume espelhado).
Para criar um volume espelhado a partir do espaço não alocado em dois
discos dinâmicos, basta clicar com o botão direito do mouse na área de espaço não
alocado e, em seguida, escolher Create Volume. Na página Select Volume Type
escolhe-se Mirrored volume para em seguida escolher os dois discos dinâmicos que
comporão o espelhamento. Para completar escolhe-se a letra de unidade e executa-
se o procedimento de formatação.
Para espelhar um volume existente em um disco dinâmico basta clicar com o
botão direito do mouse no volume que deseja-se espelhar e escolhe-se Add Mirror.
Por fim, seleciona-se o segundo disco e clica-se em Add Mirror.
CONFIGURAÇÃO DE RAID-5
Para criar um volume RAID-5 será necessário clicar com o botão direito do
mouse na área de espaço não alocado, escolher Create Volume, selecionar RAID-5
volume como o tipo de volume desejado e selecionar pelo menos três discos
dinâmicos na página Select Disks. Para finalizar será preciso ainda escolher uma
letra de unidade e formatar o volume.
RECUPERAÇÃO DE FALHAS EM VOLUMES ESPELHADOS
Quando um membro de um volume espelhado falha, o outro continua a
funcionar, mas não é mais tolerante a falhas. Para evitar a perda potencial de dados,
é necessário recuperar o volume espelhado o mais rapidamente possível.
320
O status do volume que falhou aparecerá como Failed Redundancy (Falha
de redundância) no Disk Management, e um dos discos será exibido como Offline,
Missing ou Online (Errors). O método usado para recuperar o volume espelhado
dependerá do status do disco.
Nota: Se o Windows 2000 não reparar o volume, talvez a única opção seja
excluí-lo. Isso ocorre em situações em que o disco está gravemente danificado ou
não pode ser reparado.
RECUPERANDO UM VOLUME EM UM DISCO IDENTIFICADO COMO
OFFLINE OU MISSING
Ω Certificar-se de que o disco está conectado ao computador e
ligado;
Ω No Disk Management, clicar com o botão direito d mouse no
disco identificado como Missing ou Offline e, em seguida, clicar em
Reactivate Disk.
O status do disco deverá retornar a Healthy e o volume espelhado deverá
ser regenerado automaticamente.
RECUPERANDO UM VOLUME ESPELHADO QUE FALHOU EM UM
DISCO IDENTIFICADO COMO ONLINE (ERRORS)
Ω Clicar com o botão direito do mouse no disco e, em seguida,
clicar em Reactivate Disk.
O status do volume deverá retornar a Healthy e o volume espelhado deverá
ser regenerado automaticamente.
SUBSTITUINDO UM DISCO E CRIANDO UM NOVO VOLUME
ESPELHADO
321
Se os procedimentos anteriores não reativarem o disco ou se o status do
volume não retornar a Healthy, será necessário substituir o disco que falhou e criar
um novo volume espelhado, seguindo estas etapas:
Ω Clicar com o botão direito do mouse no volume espelhado do
disco que falhou e, em seguida, clicar em Remove Mirror;
Ω Na caixa de diálogo Remove Mirror, clicar no disco que falhou e,
em seguida, clicar em Remove Mirror (uma confirmação será
solicitada);
Ω Clicar com o botão direito do mouse no volume que deseja-se
espelhar e, em seguida, clicar em Add Mirror;
Ω Selecionar o segundo disco do volume e clicar em Add Mirror.
RECUPERANDO UM VOLUME RAID-5 QUE FALHOU
Quando um membro de um volume RAID-5 falha, os outros membros
continuam a funcionar, embora o volume não seja mais tolerante a falhas. Para
evitar a perda potencial de dados, é necessário recuperar o volume RAID-5 o mais
rapidamente possível.
322
9 SERVIDORES
Este capítulo referente a servidores, terá como principal foco o porte:
máquinas robustas, onde você caro leitor terá uma visão bastante clara do que são e
fundamentalmente quais as características destas máquinas com relação aos
desktops.
Neste, faremos uma abordagem bastante técnica levando em conta sempre
o perfil de cada equipamento, consideramos mister apresentarmos características de
diversos fabricantes, até mesmo para fins de mercado onde poderemos ter uma
idéia de como as potências neste escopo da TI vem aperfeiçoando seus recursos
tecnológicos.
Em busca de alta performance????
Construir uma arquitetura com servidores capazes de atender a necessidade
atual, e futura, da empresa é mais do que uma arte, é uma exigência.
É uma realidade o crescente volume de informações gerado por novas
aplicações, que exigem maior capacidade para suportar diferentes naturezas como
dados, voz e imagem. Esse fato, associado aos sistemas legados, passa a ser um
problema na maior parte das organizações.
O desafio atual enfrentado pela indústria, portanto, é continuar produzindo
sistemas menores, mais leves e mais rápidos e, ao mesmo tempo, encontrar
melhores meios de gerenciar as complexidades das tecnologias computacionais.
É claro o esforço à segurança e ao gerenciamento de informações e de
dispositivos para a produção de sistemas mais flexíveis, de modo a torná-los
disponíveis aos usuários a qualquer tempo, em qualquer lugar. A virtualização é uma
forma de criar sistemas menos complexos que fazem a divisão dos subconjuntos de
sistemas em dispositivos mais gerenciáveis.
Assim, tecnologias implementadas no ambiente de TI devem garantir uma
estratégia de gerenciamento simplificada e centralizada, com o objetivo de aumentar
a eficiência dos profissionais e reduzir custos.
323
O maior interesse hoje não está somente nos recursos de armazenamento
dos aplicativos e sim no tempo de resposta, resultado, capacidade suficiente para
armazenamento de dados na medida em que a quantidade aumenta e ocorre
redução ou eliminação do tempo de desativação. Em resumo, os usuários estão
preocupados com a disponibilidade e o acesso a seus dados.
9.1 ARQUITETURA E TECNOLOGIA DE SERVIDOR
IBM eServer xSeries 236
9.1.1 processador intel xeon
O servidor IBM xSeries 236 suporta até dois processadores Intel Xeon
EM64T (Extended Memory 64-bit Tecnology) com alto poder de processamento e
abrindo caminho para uma tranquila migração de aplicações 32-bits para o ambiente
64-bits protegendo o investimento de hardware do cliente.
324
Esse processador é ideal para aplicações que demandam alto poder
computacional como dataMining ou Web Services. A tecnologia inovadora da Intel
permite que o clock de 3.0GHz e3.2Ghz juntamente com 1MB de cahce L2, 800MHz
de FSB e a capacidade dual, atenda as necessidades atuais das empresas.
Os processadores Xeon EM64T da Intel são equipados com cache L2 ECC
garantindo a integridade dos dados e reduzindo o downtime do servidor.
9.1.2 Memória DDR2 Chipkill
O servidor IBM xSeries 236 por padrão vem com oito slots de memória
DIMM, suportando até 16GB de memória ECC DDR2 400(Double Data Rate 2)
internamente.
325
Recursos adicionais de alta disponibilidade dos servidores IBM xSeries 236,
fazem parte do Active Memory, que nada mais é do que um conjunto de tecnologias
voltadas para reduzir ao máximo o tempo de parada do servidor.
Entre as tecnologias presentes no Active Memory, é possível encontrar:
Ω Online Spare Memory, que nada mais é doque uma
implementação semelhante de RAID-5 para módulos de memória.
Ω Memory Mirroring, permite espelhar os módulos de memória.
Ω ECC: Corrige erros de hardware e software a nível de bits .
Ω Chipkill: Distribui a informação detectada pelo recurso ECC nos
módulos de memória dox236, assim no caso de uma falha de
memória, as informações podem ser reconstruídas.
Com maior poder de processamento e suporta à extensões 64-bit e
memórias DDR2 o cliente pode processar as informações com maior rapidez e
eficiência.
9.1.3 Controladora SCSI Ultra320
O x236 é capaz de implementar RAID-0 e RAID-1 através da controladora
Adaptec AIC-7902 onboard de dois canais, sem a necessidade de uma placa
opcional para isso, diminuindo o custo de aquisição do servidor e liberando um slot
326
PCI para outras finalidades. O RAID-1 permite que o dois discos sejam espelhados,
e no caso de falha de um deles, o servidor continue operando normalmente.
O x236 também permite a configuração de um disco SCSI como“Hot-Spare”
através da controladora onboard. Níveis adicionais de redundância (RAID-5 por
exemplo) podem ser implementados através de controladoras ServeRAID opcionais
da IBM, como a ServeRAID-7k, que suporta canais internos e externos sem a
necessidade de ocupar um slot PCI.
A capacidade interna de armazenamento do x236 pode ser expandida de
seis para nove discos. O opcional 33P2751 converte as baias 1 e 2 de 5,25” do
servidor em três baias slin line para instalação de discos SCSI Ultra320 Hot-Swap.
9.1.4 Discos Hot-Swap SCSI Ultra320
327
O servidor IBM xSeries 236 possui a capacidade interna de instalação de até
seis discos Hot-Swap SCSI Ultra320. Utilizando discos de 146GB a capacidade
máxima interna, atualmente do x236 é de 880GB, e com a futura disponibilidade de
discos SCSI de maior capacidade, o servidor suportará terabytes de dados
internamente.
Discos SCSI Hot-Swap permitem rápido acesso, fácil instalação e
substituição dos discos, sem a necessidade utilização de ferramentas e de desligar o
servidor, essa tecnologia reduz o tempo de parada do servidor.
9.1.5 Light Path Diagnostic
O novo Light Path Diagnostics do servidor xSeries 236 possui acesso lateral
e dispensa a necessidade de abertura do servidor para sua visualização.
A função do Light Path Diagnostics é identificar com precisão e rapidez
componentes do x236 que apresentam defeito. O painel frontal do servidor identifica
328
inicialmente qual subsistema apresenta falha, (fontes, ventiladores, etc. Em seguida
um outro conjunto de leds, localizados ao lado de cada componente do servidor,
identifica com precisão qual deles apresenta defeito.
O Light Path Diagnostic consegue identificar a falha com precisão nos
componentes mais críticos do servidor, como processador, memória, VRM, discos,
fontes e ventiladores. Essa tecnologia não é opcional e acompanha todos os
modelos de servidores x236.
9.1.6 Floppy Drive e CD-ROM Drive
O servidor x236 por padrão já vem com um drive de CD-ROM de 48x
conectado internamente ao barramento IDE e um drive de disquete de 1.44MB.
Unidades óticas opcionais como CD-RW, DVD/CD-RW e MultiBurner
(gravadores de DVD) podem ser instaladas no servidor IBM xSeries 236.
329
Além da unidade de CD-ROM, ainda está disponível duas baias adicionais
de 5,25” que podem ser utilizadas para a instalação interna de unidades de fita para
backup. Por se tratar de duas baias internas, o x236 tem opções de instalação de
unidades DDS-5, DLT, LTO e SDLT.
9.1.7 Gerenciamento Integrado
O ISMP (Integrated Systems Management Processor) é padrão em todos os
sevidores IBM xSeries 236. Esse processador de gerenciamento integrado de
sistema é baseado no padrão IPMI e possui as seguintes funções:
Ω Automatic Server Restart (ASR)
Ω Monitoramento da temperatura interna
Ω Monitoramento de voltagem
Ω Monitoramento das fontes de energia
Ω Controle e monitoramento do ventiladores
Ω Update local de firmware
Ω Log de erros
9.1.8 Remote Supervisor Adapter
Além do ISMP a RSA-II SlimLine, um opcional que pode ser integrado ao
x236 em um slot específico (sem ocupar um slot PCI do servidor), pode ser utilizada
no caso da necessidade de funcionalidades extras como o controle remoto com
interface gráfica e acesso remoto ao drive de floppy e dvd-rom.
A RSA-II SlimLine possui um porta RJ45 de rede dedicada,garantindo assim
que a performance do servidor não seja afetada pelo gerenciamento.
330
RSA
9.1.9 Ventiladores Hot-Swap e Redundantes
O servidor IBM xSeries 236 possui ventiladores Hot-Swap e redundantes
que possuem a função de resfriar o x236 internamente. Os ventiladores podem ser
substituídos no caso de uma falha sem a necessidade de desligar o servidor.
Dois ventiladores externos e dois internos, redundantes e hot-swap
acompanham o x236 por padrão.
Ventiladores redundantes
Os ventiladores automaticamente ajustam a sua velocidade de acordo com a
temperatura interna do servidor. Quando a temperatura aumenta, os ventiladores
aumentam a rotação para manter a temperatura ideal. Quando a temperatura
abaixa, os ventiladores voltam ao normal, reduzindo a rotação.
331
Então por que simplesmente não mantemos a rotação dos ventiladores
sempre em 100% ????
Por vários motivos, como reduzir o nível de ruído, reduzir o desgaste do
ventilador e reduzir a energia consumida pelo servidor. Esses itens podem ser
relativamente insignificantes, mas quando temos um parque com vários servidores
em apenas uma localidade, pode ter certeza que eles farão a diferença.
9.1.10 fontes de energia hot-swap e redundantes
O x236 por padrão vem com apenas uma fonte hot-swap de 670W, essa
fonte é capaz de fornecer energia para todo o servidor, em sua configuração
máxima. A segunda fonte é opcional e, operando em redundância, dividem a carga e
no caso de uma falha, podem ser substituídas sem afetar a produção do servidor.
Fontes redundantes
Essas duas fontes são redundantes, portanto no caso de falha de uma
delas, a outra fonte de energia consegue suportar o servidor em sua configuração
máxima, enquanto a outra fonte é trocada.
332
9.1.11 Portas Externas
O servidor xSeries 236 possui as seguintes portas para conexão:
Ω Uma porta paralela
Ω Duas portas seriais
Ω Duas portas USB
Ω Uma porta ethernt para gerenciamento
Ω Duas portas gigabit Ethernet
Ω Mouse
Ω Keyboard
Ω Video port
Ω Saída RS485 para o adaptador IXA
Ω Saída SCSI externa
9.1.12 Dual Gigabit Ethernet
O x236 possue duas controladoras de rede 10/100/100Mbs onBoard através
do chipset Broadcom BCM5721. Por serem integradas na system board, as
controladoras Gigabit onboard da Broadcom são itens essenciais que contribuem no
tamanho reduzido do x236, pois elas não ocupam slots PCI.
Placas de rede opcionais com recursos Failover e Load balancing podem ser
instaladas através dos slots PCI do x236 aumentando assim a disponibilidade e
vazão de dados do servidor.
333
9.1.13 Softwares Gratuítos
ServerGuide
Cada servidor IBM xSeries é vendido com um CD chamado Server Guide. A
função do Server Guide é instalar de uma forma simples e automatizada o sistema
operacional, reduzindo o número de reinicializações necessárias durante a
instalação do S.O. agilizando o tempo de instalação.
Outra grande vantagem do Server Guide é que ele já instala e configura
automaticamente drivers de dispositivos do servidor como interfaces de vídeo, de
rede, etc...
UpdateXpress
O Update Xpress, um CD não acompanha o servidor, mas pode ser baixado
gratuitamente do site da de suporte da IBM, tem como função principal atualizar
todos os drivers e firmware dos dispositivos de um servidor IBM xSeries para as
últimas versões. Essa ferramenta é um grande recurso, pois além de eliminar a
necessidade de downloads pesados de atualizações de cada máquina, permite a
atualização de servidores que não tenham acesso à internet.
IBM Director
Com o servidor xSeries 236 é distribuído gratuitamente, o IBM Director*,
uma poderosa ferramenta de gerenciamento e alto valor agregado. O uso do IBM
Director na sua empresa ajuda a reduzir consideravelmente os custos através da:
Ω Redução de Downtime.
Ω Aumento da produtividade da equipe de I.T. e usuários finais.
Ω Redução de custos em serviços e suportes.
334
O IBM Director inclui o Director Agent que é, basicamente falando, um
conjunto de ferramentas que se integra à interface do IBM Director e pode trabalhar
em conjunto com o opcional Remote Supervisor Adapter ou outros sistemas de
gerenciamento presentes em servidores xSeries. Funções típicas de monitoramento
são:
Ω PFA em componentes críticos de hardware.
Ω Temperatura.
Ω Voltagem.
Ω Velocidade dos ventiladores.
Ω LEDs de diagnósticos.
• Módulo Básico – Incluído gratuitamente
A equipe de IT consegue, efetivamente, controle total dos servidores xSeries
através do acesso remoto:
Ω Realizar inventário e exibir informações detalhadas dos
componentes do sistema.
Ω Visualizar e deletar logs de eventos e de erros.
Ω Resetar ou desligar o servidor.
Configurar eventos que monitorem o status do servidor incluindo:
Ω POST time-out.
Ω Voltagem.
Ω Temperatura.
Administradores de IT podem visualizar as configurações e detalhes do
hardware de sistemas remotos e monitorar a utilização e performance de
componentes críticos do servidor, como Hard Disks, processadores e módulos de
memória.
335
Definir ações automáticas como:
Ω Enviar um e-mail ou mensagem para o pager do administrador
Ω Executar um comando ou programa
Ω Exibir uma mensagem de erro pop-up no console do IBM
Director
Monitorar via gráficos de utilização, recursos do servidor como:
Ω Memória
Ω Processadores
Ω Discos Rígidos
Identificar potenciais gargalos de performance e reagir pro ativamente,
prevenindo o tempo de parada.
O IBM Director permite a integração com outros softwares de gerenciamento
do mercado. Os recursos de gerenciamento avançado presentes nos servidores
xSeries podem ser acessados também por:
Ω Tvoli Enterprise e Tivoli NetView.
Ω Computer Associates CA Unicenter TNG
Ω HP OpenView
Ω Microsoft SMS
Ω Intel LANDesk Management Suite.
Os servidores xSeries 206 são acompanhados por ferramentas e programas
criados para facilitar a vida da equipe de IT.
336
9.1.14 Identificação Gabinete Servidor (Frontal)
337
9.1.15 Identificação Gabinete Servidor (traseira)
9.2 E COM OS SENHORES... AS MÁQUINAS
9.2.1 System x3500
338
Em ambientes distribuídos, servidores se propagam através de várias
localidades, entretanto com a necessidade de otimização do ambiente de IT e com
os desafios que o mesmo apresenta, alta disponibilidade é crucial. Os servidores
IBM System x3500 dual core possuem características da Xtended Design
xArchitecture, oferecendo alta performance e a disponibilidade necessária pelas
pequenas e médias empresas localmente ou remotamente. O x3500 permite que o
cliente utilize aplicações que se beneficiam de maior poder de endereçamento de
memória migrando para ambientes de 64-bit.
Oferecem até dois processadores Xeon Dual Core com tecnologia Hyper
Threading desenvolvidos com até 1333MHz de Front Side Bus (FSB), ou seja,
oferecem dois processadores com 4 núcleos desta forma temos quatro
processadores em dois, o que representa uma excelente opção para aqueles
clientes que buscam alta performance alem da necessidade de rodar múltiplas
aplicações simultaneamente. Alem de excelente performance, o servidor x3500
possui tecnologia Intel Extended Memory 64 bits, permitindo rodar aplicações 32-Bits
e 64-Bits simultaneamente, utiliza os mais novos pentes de memória ECC (Error
Checking and Correcting) PC2-5300 DDR2 (Doublé Data Rate) que aumentam
consideravelmente o desempenho e a estabilidade do servidor.
Para maiores níveis de disponibilidade o x3500 oferece também funções de
Hot Spare memory e espelhamento de memória (Mirroring Memory).
339
Possibilita expansão de memória em até 48GB e possui duas opções para
disco SAS (Serial Attached SCSI) ou SATA (Serial ATA), garantindo maior
capacidade de armazenamento interno, isto significa Mais discos = Mais
Peformance.
Também possui processadores de baixa voltagem, ou seja, impulsionam
menos power e produzem menos calor que processadores de alta voltagem, o que
auxilia na redução dos custos de energia.
9.2.2 System x3650
O servidor ideal para estruturas de e-business que requerem vários
servidores de aplicação, com maior capacidade de armazenamento interno e menor
utilização de espaço. Os servidores x3650 ocupam apenas 2U's de altura e
oferecem tudo que a sua aplicação precisa menos o volume típico dos servidores.
Os servidores IBM System x3650 oferecem processadores Dual Core,
incorporando características da Xtended Design xArchitecture e foram desenvolvidos
para oferecer proteção dos dados, alta performance, alta confiabilidade e alta
disponibilidade.
Oferecem até dois processadores Xeon Dual Core com tecnologia Hyper
Threading desenvolvidos com até 1333MHz de Front Side Bus (FSB), ou seja,
oferecem dois processadores com 4 núcleos desta forma temos quatro
processadores em dois, o que representa uma excelente opção para aqueles
clientes que buscam alta performance alem da necessidade de rodar multiplas
aplicações simultaneamente.
340
Além de excelente performance, o servidor x3650 possui tecnologia Intel
Extended Memory 64 bits, permitindo rodar aplicações 32-Bits e 64-Bits
simultaneamente, utiliza os mais novos pentes de memória ECC (Error Checking
and Correcting) PC2-5300 DDR2 (Doublé Data Rate) que aumentam
consideravelmente o desempenho e a estabilidade do servidor.
Para maiores níveis de disponibilidade o x3650 oferece também funções de
Hot Spare memory e espelhamento de memória (Mirroring Memory).
O x3650 é um servidor de apenas 2Us de altura e esta densidade oferece
grande valor agregado em ambientes de datacenter aonde o fator espaço é crucial.
Até 21 servidores x3650 podem ser alocados em um rack padrão de mercado de
42U (19”) totalizando 42 processadores, ou seja, isso significa simplicidade para
deployment, facilidade de balanceamento de performance, storage e I/O por rack.
Opcionalmente pode-se utilizar a tecnologia ACT (Advanced Connectivity
Tecnology). Essa tecnologia permite a redução da quantidade de cabos necessários
para interconexão dos servidores e consequentemente reduz os custos com
aquisição de cabos, alem disso reduz o tempo de instalação quando interconecta-se
vários servidores em um mesmo rack.
341
9.2.3 IBM System i 520
Descrição: O
Servidor IBM System i,
modelo 520, foi especialmente
projetado para atender quem
busca a integração de
aplicações e a simplicidade de gerenciamento. Nele, é possível consolidar,
simultaneamente, aplicações executadas nos principais sistemas operacionais do
mercado: i5/OS, Linux 32 e 64 bits, AIX 5L (Unix) e MS Windows.
Instalação e configuração: A instalação do hardware é realizada por
técnico IBM e a do software e aplicativos pelos seus parceiros de negócios. Para
novos usuários e administradores de sistemas, recomenda-se treinamento
específico.
Recursos: Conhecido no mercado por sua segurança e alta disponibilidade,
conta com recursos inerentes ao sistema operacional i5/OS como: arquitetura
orientada a objetos, que o torna “resistente a virus” de computador, SSL, VPN,
Intrusion Detection e outras features integradas, serviços de criptografia e
certificação digital criados com o código do produto. Outro importante é o
Technology Independent Machine Interface (TIMI), exclusivo da arquitetura dos
servidores IBM System i.
342
Design: Disponível na cor preta em formato padrão torre ou rack. Os
modelos torre possuem dimensões reduzidas, ocupando pouco espaço em
pequenas configurações. O rack pode ser acoplado a outros que seguem
padronização de mercado e são sugeridos para configurações média e grande.
Interface: Ditada por cada sistema operacional do servidor.
Compatibilidade: Suporta aplicações desenvolvidas para os sistemas
operacionais i5/OS, AIX 5.2/5.3, Linux Power PC.
Eles podem ser tradicionais como RPG e Cobol, ou seguir tendências atuais
como XML, SOA, AJAX, Java, PHP etc.
Escalabilidade: Vertical e Horizontal. O modelo 520 escala até dois
processadores Power5+ , com performance entre 600 CPW e 7100 CPW. CPW
(Commercial Processing Workload) é uma medição de desempenho, baseada em
avaliação de desempenho interno da IBM, utilizando as configurações máximas.
Diferencial: O IBM System i520 é conhecido como o all in one, por ser
servidor, storage, software, gerenciamento e segurança criados e testados para
operarem em conjunto como uma orquestra musical. Seus destaques são: prover
infra-estrutura simples, fl exível e com a capacidade adequada para aplicações
transacionais; Banco de Dados DB2 UDB integrado e com gerenciamento altamente
automatizado e gerenciamento simples de banco de dados; escalabilidade que
permite implementar e integrar novas funções e aplicativos, para atender
necessidades futuras; rápida implementação e baixo custo de propriedade (TCO).
343
9.2.4 Servidores Itautec ZX400
PERFORMANCE, SEGURANÇA E ALTA DISPONIBILIDADE PARA
APLICAÇÕES DE GRANDE PORTE
Principais características: Até 4 processadores, Pedestal ou rack 6U,
Discos SCSI hot plug, Recursos de redudância de disco, fonte e ventilação,
Principais Aplicações: Grandes Bancos de Dados, Cluster de alta
disponibilidade, BI·Data-mining e ERP.
Descrição: O Servidor ZX400 da Itautec atinge os mais altos índices de
disponibilidade. Ele foi desenvolvido para oferecer o gerenciamento de todos os
itens críticos de hardware, com indicação de pré-falha, log de erro e acesso remoto.
344
9.2.5 Servidor LR100
Mercado: Pequenas empresas, Servidor departamental, Servidor de
loja/filial.
Aplicação:
• Servidor de impressão e arquivos
• Web Server (Front end)
• Servidor de e-mail de pequeno porte.
Principais Características:
• Suporta um processador AMD Opteron de dois núcleos da nova série 1200
(AM2),
• Suporta até 8GB de memória DDR2 533MHz, 667MHz e 800MHz
• Suporta expansões com slot padrão PCI-E x1 (total de 4 slots sendo 1
compartilhado)
• Opções para até 4 discos fixos SATA 3.0Gb/s ou SCSI
• Não requer ferramentas para troca de periféricos e expansões (tool less)
• Interface de vídeo integrada, 1 interface de rede Gigabit.
345
9.2.6 Servidor MX201
Mercado: Médias e grandes empresas
Aplicação:
• Aplicações de alta disponibilidade
• Web Server de grande porte (front end)
• E-mail server de médio porte
• Database Server de médio porte Servidor MX201 (PedestaServidor MX201
(Pedestal Mid-Range)
Principais Características:
• Suporta processadores séries 5000, 5100 dual-core e 5300 quad-core
• Suporta até 32GB de memória FB-DIMM 533MHz ou 667MHz
• Suporta expansões com VORW padrão PCI-X e PCI-E (total de 6 slots)
• Opções para até 4 discos fixos ou até 8 discos KRW_VZDS__ SATA, SCSI
ou SAS
• Opção de fontes redundantes hot swap ou fixa
• Opção de conversão para UDFN com 4U de altura
• Ventiladores redundantes e KRW_VZDS
• Não requer ferramentas para troca de expansões e periféricos (WRRO
OHVV)
346
• Gerenciamento IPMI 2.0 com KVM IP e 9LUWXDO_0HGLD (opcional)
9.2.7 Servidores ZX400 e ZX440
• Quad processor – Dual-Core (Família Intel Xeon 7100)
• De 4x Xeon 3.0 GHz/ 4M L3/ 800MHz (7120M) a 4x Xeon 3.4 GHz/ 16M L3
/ 800MHz (7140M)
• Até duas vezes mais performance que a geração anterior
• Chipset Intel E8501
• Até 64GB memória em 16 slots (modulos de 512Mb à 4Gb DDR-2 400MHz
DIMM PC3200 ECC Registred x8 SDDC)
• Quatro placas de memória Hotplug e HotSwap (5.3 GB/s)
• Memory Scrub, Spare Bank, Mirroring e Memory RAID.
• 7 Slots PCI (4x PCI Xpress Hotplug; 1x PCI-X 133MHz Hotplug e 2x PCI-X
100).
• Opções Pedestal e Rack 4U altura
• Até dez discos SCSI U320 Hotplug e Hotswap
• DVD- Slim
• Duas baias livres half-height
• Duas fontes redundantes (1+1)
• Alimentação automática 110/220V com redundância de conexão
• Seis ventiladores redundantes (5 +1)
347
9.2.8 Storage Itautec FT1630
Aplicações
Ω Alta densidade de dados
Ω Near line (backup)
Ω BD – Não transacionais
Ω Armazenamento vídeo e imagens
Vantagens
Ω Rack 3U
Ω FC2 / SATA II (ext/int)
Ω Capacidade para até 16 discos SATA
Ω Capacidade máxima de armazenamento: 8 TB
Ω Ferramentas de administração e gerenciamento via web
(Controladora RAID, Ventiladores, Fontes e Discos)
Ω Expansão on-line de discos.
348
10 REFERÊNCIAS BIBLIOGRÁFICAS
“50 Years of Computing”, IEEE Computer, vol. 29, no. 10, pp. 24-111, 1996.
“The Next 50 Years: Our Hopes, Our Visions, Our Plans”, Communications
of the ACM, vol. 40, no. 2, pp. 29-142, 1997.
Taub, H., "Circuitos Digitais e Microprocessadores", McGraw-Hill, 1984.
Torres, G. “Hardware – Curso Completo”, 4a. edição, Axcel Books, 2001.
MEYER, Marilyn; Baber, Roberta; BERGER, Bryan. Nosso futuro e o
Computador. Porto Alegre, Bookman, 2000.
NORTON, Peter. Introdução à Informática. Tradução: Maria Cláudia Santos
Ribeiro Ratto. São Paulo: Makron Books, 1996.
TANENBAUM, Andrew S. Computer Networks. Fourth Edition. Prentice Hall
PTR, 2003. 829p.
Stallings, William, Operating Systems,Ed. Acmillan Publishing Company,
1992.
Tanenbauum, Andrew S., Organização Estruturada de Computadores, Ed.
Campus, 1993.
Silberschatz, Abraham e Galvin, Peter B., Operating Systems Concepts, Ed.
Addison-Wesley Publishing Company, 1994.
STALLINGS, W. Arquitetura e Organização de Computadores, Tradução da
5ª Edição, Prentice-Hall, 2002.
349
TANENBAUM, A.S. Organização Estruturada de Computadores, Tradução
da 4a Edição, LTC,2001.
Weber, Raul F. “Fundamentos deArquitetura de Computadores”. 2a. Edição.
Sagra-Luzzatto, 2001
KORTH, Henry F.; SILBERSCHATZ, Abraham; SUDARSHAN, S.. Sistemas
de Bancos de Dados. 3ª ed., São Paulo: MAKRON Books. 1998. Cap.8, p. 284-296.
NAVATHE, Samkant; ELMASTRI, Ramez. Fundamentals of Database
Systems. Addison-Wesley - world student series
RAMAKRISHNAN, Raghu. Database Management Systems. McGraw-Hill
ROSCH , Winn L. Desvendando o Hardware do PC, Volume II, Editora
Campus.
Manual de Hardware Completo – Carlos E. Morimoto, págs. 245 a 268.
Revista PC & Cia. nº 11, págs. 12 a 16.
Revista PC & Cia. nº 13, págs. 40 a 42.
Revista PC & Cia. nº 14, págs. 32 e 33; 44 e 45.
Revista PC & Cia. nº 15, págs. 9 a 17.
Revista PC & Cia. nº 18, págs. 52 a 57.
Revista PC & Cia. nº 19, págs. 18 a 21.
Revista PC & Cia. nº 22, págs. 25 a 29.
Revista PC & Cia. nº 26, págs. 12 a 20.
350
FREEDMAN, Alan. Dicionário de informática. São Paulo: Makron Books.,
1995.
MANOEL, Edson e FERREIRA, Luis. Linux Clustering with CSM and GPFS
– http://www.redbooks.ibm.com/ redpieces/pdfs/sg246601.pdf, (Out/2007).
ZEM, J. L. Um Cluster de Computadores de Uso Geral. In: Congresso
Nacional de Tecnologia da Informação e Comunicação, 2004, Florianópolis. Anais
do Congresso Nacional de Tecnologia da Informação e Comunicação. São Paulo :
Editora IDETI - Eventos em Tecnologia da Informação, 2004. p. 15-15.
SCHNEIDER, Márcio Ricardo. Desmistificando a alta disponibilidade. Novo
Hamburgo-RS: 2003. 81p. Monografia (Bacharelado em ciência da computação) –
Instituto de Ciências exatas e tecnológicas, Feevale, 2003.
BUYYA, Rajkumar: High. Performance Cluster Computing: Architectures and
Systems. Volume 1. New Jersey : Prentice-Hall, 1999. 849p.
ALECRIM, Emerson. Cluster: Principais conceitos. Info Wester, 2004.
Disponível em: <www.infowester.com/cluster.php>. Acesso em: 18 mar. 2006.
ANDERSON, T.; LEE, P. A. Fault tolerance -principles and practice.
Englewood Cliffs, Prentice-Hall, 1981.
LAPRIE, J. C.; Dependability: von concepts to limits. In: Proceedings of the
IFIP International Workshop on Dependable Computing and its Applications. DCIA
98, Johannesburg, South Africa, January 12-14, 1998. p. 108-126.
VON NEWMANN, J. Probabilistic logics and the synthesis of reliable
organisms from unreliable components. In: Automata Studies, Shannon & McCarthy
eds. Princeton Univ. Press, 1956. p. 43-98.
WEBER, R. F.; WEBER, T. S. Um experimento prático em programação
diversitária. In: III Simpósio em Sistemas de Computadores Tolerantes a Falhas,
SCTF, Rio de Janeiro, 20-22 set. Anais. Rio de Janeiro, 1989. p. 271-290.
351
Weber, T.; Jansch-Pôrto, I.; Weber, R. Fundamentos de tolerância a falhas.
Vitória: SBC/UFES, 1990. (apostila preparada para o IX JAI - Jornada de Atualização
em Informática, no X Congresso da Sociedade Brasileira de Computação).
Fontes da web:
Acessadas entre os meses de agosto e outubro de 2007.
www.intel.com
www.ibm.com
www.hp.com
www.meiobit.com
www.idgnow.com.br
www.nextg.com.br
www.top500.org
www.w3c.org
www.timasters.com.br
www.itautec.com.br
www.blackbox.com
352
Top Related