domingo, 8 de novembro de 2009
O futuro chegou?
Artigo indispensável no mundo de hoje, os computadores surgem em versões cada vez mais avançadas e com novidades que antes eram vistas somente em filmes de ficção científica. Máquinas cada dia mais incrementadas, impressoras ultravelozes e com maior definição, notebooks cada vez menores e jogos muito reais. Além disso, as brigas entre as grandes empresas continuam acirradas. Todas querendo conquistar o mercado e, conseqüentemente, o consumidor. Nesta matéria, apresentamos o que você já pode ter em sua casa para entrar no novo milênio equipado com o que há de mais pós-moderno na micro-informática. O futuro chegou!
Alcance e interferência
As placas Wi-Fi também são placas Ethernet. As diferenças com relação às placas cabeadas se restringem às camadas 1 e 2 do modelo OSI, ou seja na camada física (representados pelos transmissores e antenas) e link de dados (a modulação do sinal, encriptação via WPA ou WEP, correção de erros e outras funções executadas pelo chipset placa). Do nível 3 em diante temos o TCP/IP e as demais camadas da rede, que funcionam da mesma forma que em uma rede cabeada. Com relação à transmissão dos dados, a principal diferença é que em uma rede wireless o meio de transmissão (o ar) é compartilhado por todos os clientes conectados ao ponto de acesso, como se todos estivessem ligados ao mesmo cabo coaxial. Isso significa que apenas uma estação pode transmitir de cada vez, e que todas as estações dentro da área de cobertura recebem todos os pacotes transmitidos da rede, independentemente do destinatário. Isso faz com que a segurança dentro de uma rede wireless seja uma questão sempre bem mais delicada que em uma rede cabeada. O número máximo de clientes simultâneos suportados pelo ponto de acesso varia de acordo com o fabricante e o firmware usado. Muitos pontos de acesso 802.11b antigos eram limitados a 30 clientes, mas os atuais suportam um número maior. O grande problema é que a banda disponível é compartilhada entre todos os clientes, de forma que a velocidade prática da rede cai para níveis cada vez mais baixos conforme novos clientes são conectados. Uma solução para áreas onde é necessário atender a um grande número de clientes é utilizar múltiplos pontos de acesso. Ao serem configurados com o mesmo SSID, eles formam uma única rede, de forma que os clientes passam a automaticamente se conectar ao ponto de acesso que oferecer o melhor sinal. Se o objetivo é melhorar a taxa de transferência da rede, o ideal é conectar os pontos de acesso usando cabos de rede e configurá-los para utilizar canais diferentes (veja detalhes a seguir), de forma que eles possam realmente transmitir simultaneamente, sem interferir entre si. Em situações onde a prioridade é aumentar o alcance da rede, é possível também utilizar repetidores wireless, que permitem estender o sinal do ponto de acesso principal, sem que seja necessário puxar um cabo de rede até eles. Outra característica das redes wireless é que o alcance da rede varia de forma brutal de acordo com os obstáculos pelo caminho e com o tipo de antenas usadas, entre outros fatores.
De uma forma geral, o alcance prometido pelos fabricantes para as redes 802.11b ou 802.11g são 100 pés para ambientes fechados e 500 pés para ambientes abertos, o que equivale a, respectivamente, 30 e 150 metros. Devido ao uso de mais transmissores e mais antenas, o As placas Wi-Fi também são placas Ethernet. As diferenças com relação às placas cabeadas se restringem às camadas 1 e 2 do modelo OSI, ou seja na camada física (representados pelos transmissores e antenas) e link de dados (a modulação do sinal, encriptação via WPA ou WEP, correção de erros e outras funções executadas pelo chipset placa). Do nível 3 em diante temos o TCP/IP e as demais camadas da rede, que funcionam da mesma forma que em uma rede cabeada. Com relação à transmissão dos dados, a principal diferença é que em uma rede wireless o meio de transmissão (o ar) é compartilhado por todos os clientes conectados ao ponto de acesso, como se todos estivessem ligados ao mesmo cabo coaxial. Isso significa que apenas uma estação pode transmitir de cada vez, e que todas as estações dentro da área de cobertura recebem todos os pacotes transmitidos da rede, independentemente do destinatário. Isso faz com que a segurança dentro de uma rede wireless seja uma questão sempre bem mais delicada que em uma rede cabeada. O número máximo de clientes simultâneos suportados pelo ponto de acesso varia de acordo com o fabricante e o firmware usado. Muitos pontos de acesso 802.11b antigos eram limitados a 30 clientes, mas os atuais suportam um número maior. O grande problema é que a banda disponível é compartilhada entre todos os clientes, de forma que a velocidade prática da rede cai para níveis cada vez mais baixos conforme novos clientes são conectados. Uma solução para áreas onde é necessário atender a um grande número de clientes é utilizar múltiplos pontos de acesso. Ao serem configurados com o mesmo SSID, eles formam uma única rede, de forma que os clientes passam a automaticamente se conectar ao ponto de acesso que oferecer o melhor sinal. Se o objetivo é melhorar a taxa de transferência da rede, o ideal é conectar os pontos de acesso usando cabos de rede e configurá-los para utilizar canais diferentes (veja detalhes a seguir), de forma que eles possam realmente transmitir simultaneamente, sem interferir entre si. Em situações onde a prioridade é aumentar o alcance da rede, é possível também utilizar repetidores wireless, que permitem estender o sinal do ponto de acesso principal, sem que seja necessário puxar um cabo de rede até eles. Outra característica das redes wireless é que o alcance da rede varia de forma brutal de acordo com os obstáculos pelo caminho e com o tipo de antenas usadas, entre outros fatores.
De uma forma geral, o alcance prometido pelos fabricantes para as redes 802.11b ou 802.11g são 100 pés para ambientes fechados e 500 pés para ambientes abertos, o que equivale a, respectivamente, 30 e 150 metros. Devido ao uso de mais transmissores e mais antenas, o novo padrão 802.11n oferece um alcance um pouco maior, prometendo 70 metros em ambientes fechados e 250 metros em campo aberto. Entretanto, estes valores são apenas médias estimadas, tiradas em testes padronizados. Em situações reais, podemos chegar a extremos, como links de longa distância, de 30 km e clientes que não conseguem manter uma transmissão estável com um ponto de acesso a apenas 6 ou 8 metros de distância. Os três fatores que explicam diferenças tão brutais são: a) O ganho das antenas instaladas no ponto de acesso e no cliente b) A potência dos transmissores c) Os obstáculos e fontes de interferência presentes no ambiente As antenas usadas por padrão na maioria dos pontos de acesso, placas e notebooks são antenas dipole com ganho de apenas 2 ou 2.2 dBi, mas existem no mercado antenas com até 24 dBi. Existem ainda casos de antenas de uso restrito, que podem superar a marca dos 30 dBi de ganho. O "ganho" da antena diz respeito ao quanto ela consegue concentrar o sinal transmitido. Quanto maior o ganho, mais concentrado é o sinal e maior a distância que ele consegue percorrer. Para efeito de comparação, uma antena de 22 dBi transmite um sinal 100 vezes mais concentrado do que uma antena de 2 dBi. Em seguida temos a questão da potência dos transmissores usados nas placas e nos pontos de acesso, que é medida em milliwatts. Um ponto de acesso típico utiliza um transmissor de 56 milliwatts (17.5 dBm) ou de 63 milliwatts (18 dBm), mas o valor varia de acordo com o modelo e o fabricante (alguns modelos chegam a oferecer 400 milliwatts) e o sinal pode ser amplificado para até 1 watt usando um amplificador externo. Usar uma antena de maior ganho tem um efeito similar a aumentar a potência de transmissão do sinal e vice-versa. É justamente a combinação do uso de antenas de alto ganho (em muitos casos combinadas com amplificadores) dos dois lados da conexão, com um caminho livre de obstáculos, que permite a criação de links de longa distância. Por outro lado, em redes domésticas você raramente usa amplificadores ou substitui as antenas do ponto de acesso ou dos clientes e é quase impossível oferecer um caminho livre de obstáculos. Como o sinal wireless utiliza uma potência muito baixa, qualquer obstáculo significativo causa uma grande perda, o que nos leva ao outro extremo, os casos em que o sinal mal consegue percorrer uma distância de poucos metros. As maiores inimigas do sinal são superfícies metálicas, como grades, janelas, portas metálicas, lajes, vigas e até mesmo tintas com pigmentos metálicos. O metal reflete a maior parte do sinal (propriedade que é explorada por muitas antenas), deixando apenas uma pequena parte passar. Em seguida temos materiais densos, como concreto e pedra. Paredes leves, feitas com tijolo furado (tijolo baiano) absorvem muito menos sinal do que paredes de construções antigas, feitas com tijolos maciços, enquanto lajes ou vigas de concreto com armação metálica absorvem mais do que ambas. O efeito é cumulativo, de forma que quanto mais paredes pelo caminho, mais fraco é o sinal que chega do outro lado.
De uma forma geral, o alcance prometido pelos fabricantes para as redes 802.11b ou 802.11g são 100 pés para ambientes fechados e 500 pés para ambientes abertos, o que equivale a, respectivamente, 30 e 150 metros. Devido ao uso de mais transmissores e mais antenas, o As placas Wi-Fi também são placas Ethernet. As diferenças com relação às placas cabeadas se restringem às camadas 1 e 2 do modelo OSI, ou seja na camada física (representados pelos transmissores e antenas) e link de dados (a modulação do sinal, encriptação via WPA ou WEP, correção de erros e outras funções executadas pelo chipset placa). Do nível 3 em diante temos o TCP/IP e as demais camadas da rede, que funcionam da mesma forma que em uma rede cabeada. Com relação à transmissão dos dados, a principal diferença é que em uma rede wireless o meio de transmissão (o ar) é compartilhado por todos os clientes conectados ao ponto de acesso, como se todos estivessem ligados ao mesmo cabo coaxial. Isso significa que apenas uma estação pode transmitir de cada vez, e que todas as estações dentro da área de cobertura recebem todos os pacotes transmitidos da rede, independentemente do destinatário. Isso faz com que a segurança dentro de uma rede wireless seja uma questão sempre bem mais delicada que em uma rede cabeada. O número máximo de clientes simultâneos suportados pelo ponto de acesso varia de acordo com o fabricante e o firmware usado. Muitos pontos de acesso 802.11b antigos eram limitados a 30 clientes, mas os atuais suportam um número maior. O grande problema é que a banda disponível é compartilhada entre todos os clientes, de forma que a velocidade prática da rede cai para níveis cada vez mais baixos conforme novos clientes são conectados. Uma solução para áreas onde é necessário atender a um grande número de clientes é utilizar múltiplos pontos de acesso. Ao serem configurados com o mesmo SSID, eles formam uma única rede, de forma que os clientes passam a automaticamente se conectar ao ponto de acesso que oferecer o melhor sinal. Se o objetivo é melhorar a taxa de transferência da rede, o ideal é conectar os pontos de acesso usando cabos de rede e configurá-los para utilizar canais diferentes (veja detalhes a seguir), de forma que eles possam realmente transmitir simultaneamente, sem interferir entre si. Em situações onde a prioridade é aumentar o alcance da rede, é possível também utilizar repetidores wireless, que permitem estender o sinal do ponto de acesso principal, sem que seja necessário puxar um cabo de rede até eles. Outra característica das redes wireless é que o alcance da rede varia de forma brutal de acordo com os obstáculos pelo caminho e com o tipo de antenas usadas, entre outros fatores.
De uma forma geral, o alcance prometido pelos fabricantes para as redes 802.11b ou 802.11g são 100 pés para ambientes fechados e 500 pés para ambientes abertos, o que equivale a, respectivamente, 30 e 150 metros. Devido ao uso de mais transmissores e mais antenas, o novo padrão 802.11n oferece um alcance um pouco maior, prometendo 70 metros em ambientes fechados e 250 metros em campo aberto. Entretanto, estes valores são apenas médias estimadas, tiradas em testes padronizados. Em situações reais, podemos chegar a extremos, como links de longa distância, de 30 km e clientes que não conseguem manter uma transmissão estável com um ponto de acesso a apenas 6 ou 8 metros de distância. Os três fatores que explicam diferenças tão brutais são: a) O ganho das antenas instaladas no ponto de acesso e no cliente b) A potência dos transmissores c) Os obstáculos e fontes de interferência presentes no ambiente As antenas usadas por padrão na maioria dos pontos de acesso, placas e notebooks são antenas dipole com ganho de apenas 2 ou 2.2 dBi, mas existem no mercado antenas com até 24 dBi. Existem ainda casos de antenas de uso restrito, que podem superar a marca dos 30 dBi de ganho. O "ganho" da antena diz respeito ao quanto ela consegue concentrar o sinal transmitido. Quanto maior o ganho, mais concentrado é o sinal e maior a distância que ele consegue percorrer. Para efeito de comparação, uma antena de 22 dBi transmite um sinal 100 vezes mais concentrado do que uma antena de 2 dBi. Em seguida temos a questão da potência dos transmissores usados nas placas e nos pontos de acesso, que é medida em milliwatts. Um ponto de acesso típico utiliza um transmissor de 56 milliwatts (17.5 dBm) ou de 63 milliwatts (18 dBm), mas o valor varia de acordo com o modelo e o fabricante (alguns modelos chegam a oferecer 400 milliwatts) e o sinal pode ser amplificado para até 1 watt usando um amplificador externo. Usar uma antena de maior ganho tem um efeito similar a aumentar a potência de transmissão do sinal e vice-versa. É justamente a combinação do uso de antenas de alto ganho (em muitos casos combinadas com amplificadores) dos dois lados da conexão, com um caminho livre de obstáculos, que permite a criação de links de longa distância. Por outro lado, em redes domésticas você raramente usa amplificadores ou substitui as antenas do ponto de acesso ou dos clientes e é quase impossível oferecer um caminho livre de obstáculos. Como o sinal wireless utiliza uma potência muito baixa, qualquer obstáculo significativo causa uma grande perda, o que nos leva ao outro extremo, os casos em que o sinal mal consegue percorrer uma distância de poucos metros. As maiores inimigas do sinal são superfícies metálicas, como grades, janelas, portas metálicas, lajes, vigas e até mesmo tintas com pigmentos metálicos. O metal reflete a maior parte do sinal (propriedade que é explorada por muitas antenas), deixando apenas uma pequena parte passar. Em seguida temos materiais densos, como concreto e pedra. Paredes leves, feitas com tijolo furado (tijolo baiano) absorvem muito menos sinal do que paredes de construções antigas, feitas com tijolos maciços, enquanto lajes ou vigas de concreto com armação metálica absorvem mais do que ambas. O efeito é cumulativo, de forma que quanto mais paredes pelo caminho, mais fraco é o sinal que chega do outro lado.
Tipos de placas
Com relação às placas, é possível encontrar tanto placas PC Card, Express Mini ou mini-PCI, para notebooks, quanto placas PCI e USB para micros desktop. Existem inclusive placas ultra-compactas, que podem ser instaladas em um slot SD, destinadas a palmtops. Praticamente todos os notebooks à venda atualmente, muitos modelos de palmtops e até mesmo smartphones incluem transmissores wireless integrados. Hoje em dia, parece inconcebível comprar um notebook sem wireless, da mesma forma que ninguém mais imagina a idéia de um PC sem disco rígido, como os modelos vendidos no início da década de 80. Apesar disso, é bastante raro um notebook que venha com uma placa wireless "onboard". Quase sempre é usada uma placa Mini-PCI (uma versão miniaturizada de uma placa PCI tradicional, que usa um encaixe próprio) ou Express Mini (a versão miniaturizada do PCI Express), que pode ser substituída, assim como qualquer outro componente. Desde que não exista nenhuma trava ou incompatibilidade por parte do BIOS, você pode perfeitamente substituir a placa que veio pré-instalada. Existem vários modelos de placas mini-pci no mercado, mas elas não são um componente comum, de forma que você só vai encontrá-las em lojas especializadas. É possível também substituir a placa que acompanha o notebook por outro modelo, melhor ou mais bem suportado no Linux. Não se engane pela foto. As placas mini-pci são muito pequenas, quase do tamanho de uma caixa de fósforos e os conectores a antena são quase do tamanho de uma cabeça de alfinete. Eles são frágeis, por isso é preciso ter cuidado ao plugá-los na placa. O fio branco vai sempre no conector no canto da placa e o preto no conector mais ao centro, como na foto. Quase sempre, o notebook tem uma chave ou um botão que permite ligar e desligar o transmissor wireless. Antes de testar, verifique se ele está ativado. Embora as placas mini-pci sejam componentes tão padronizados quanto as placas PC Card, sempre existe a possibilidade de algumas placas específicas não serem compatíveis com seu notebook. O ideal é sempre testar antes de comprar, ou comprar em uma loja que aceite trocar a placa por outra em caso de problemas. As antenas não vão na própria placa, mas são montada na tampa do monitor, atrás do LCD e o sinal vai até a placa através de dois cabos, que correm dentro da carcaça do notebook. Isso visa melhorar a recepção, já que quando o notebook está aberto, as antenas no topo da tela ficam em uma posição mais elevada, o que melhora a recepção. Notebooks com placas 802.11b ou 802.11g utilizam duas antenas, enquanto os com placas 802.11n tipicamente utilizam três: Isso faz com que as placas Mini-PCI e Express Mini levem uma certa vantagem sobre as placas wireless PC Card ou USB em termos de recepção. As placas PC Card precisam ser muito compactas, por isso invariavelmente possuem uma antena muito pequena, com pouca sensibilidade. As antenas incluídas nos notebooks, por sua vez, são invariavelmente muito maiores, o que garante uma conexão muito mais estável, com um alcance muito maior e ajuda até mesmo na autonomia das baterias (já que é possível reduzir a potência do transmissor).
A exceção fica por conta das placas PC Card com saídas para antenas externas, como esta Senao NL-2511CD da foto a seguir. Ela é uma placa 802.11b, que era muito usada para fazer wardriving durante o boom inicial das redes wireless, quando a maioria das redes wireless ainda eram desprotegidas, ou utilizavam o WEP, que podia ser quebrado rapidamente. Hoje em dia ela não teria muita utilidade, já que está limitada a 11 megabits e não oferece suporte a WPA: Muitos notebooks antigos, fabricados a partir de 2001/2002 que ainda não incluem placas wireless já possuem o slot mini-pci e a antena, permitindo que você compre e instale uma placa mini-pci, ao invés de ficar brigando com o alcance reduzido das placas PC Card: Temos em seguida as placas wireless USB, que devido à praticidade e baixo custo estão se tornando cada vez mais populares. O principal motivo é que elas são baratas e fáceis de instalar (já que basta plugar na porta USB) e você pode utilizar a mesma placa wireless tanto no desktop quanto no notebook. Existem tanto placas com antena interna, como este modelo da D-Link, quanto com antenas externas destacáveis, como no modelo abaixo. Nesses casos é possível inclusive substituir a antena por outra de maior ganho, melhorando a recepção e permitindo que você se conecte a pontos de acesso muito mais distantes: As placas com antena interna geralmente sofrem com uma recepção ruim, pois as antenas são, na verdade, simples trilhas na placa de circuito, que oferecem pouco ganho: As com antena externa são melhores, já que antena oferece um maior ganho e você pode ajustar a posição da antena para obter a melhor recepção, mas é preciso tomar cuidado ou comprar, pois existem muitos casos de placas com antenas falsas, onde a antena externa é apenas um enfeite de plástico, que não é sequer conectado à placa. É o mesmo que acontece com muitos adaptadores Bluetooth.
A exceção fica por conta das placas PC Card com saídas para antenas externas, como esta Senao NL-2511CD da foto a seguir. Ela é uma placa 802.11b, que era muito usada para fazer wardriving durante o boom inicial das redes wireless, quando a maioria das redes wireless ainda eram desprotegidas, ou utilizavam o WEP, que podia ser quebrado rapidamente. Hoje em dia ela não teria muita utilidade, já que está limitada a 11 megabits e não oferece suporte a WPA: Muitos notebooks antigos, fabricados a partir de 2001/2002 que ainda não incluem placas wireless já possuem o slot mini-pci e a antena, permitindo que você compre e instale uma placa mini-pci, ao invés de ficar brigando com o alcance reduzido das placas PC Card: Temos em seguida as placas wireless USB, que devido à praticidade e baixo custo estão se tornando cada vez mais populares. O principal motivo é que elas são baratas e fáceis de instalar (já que basta plugar na porta USB) e você pode utilizar a mesma placa wireless tanto no desktop quanto no notebook. Existem tanto placas com antena interna, como este modelo da D-Link, quanto com antenas externas destacáveis, como no modelo abaixo. Nesses casos é possível inclusive substituir a antena por outra de maior ganho, melhorando a recepção e permitindo que você se conecte a pontos de acesso muito mais distantes: As placas com antena interna geralmente sofrem com uma recepção ruim, pois as antenas são, na verdade, simples trilhas na placa de circuito, que oferecem pouco ganho: As com antena externa são melhores, já que antena oferece um maior ganho e você pode ajustar a posição da antena para obter a melhor recepção, mas é preciso tomar cuidado ou comprar, pois existem muitos casos de placas com antenas falsas, onde a antena externa é apenas um enfeite de plástico, que não é sequer conectado à placa. É o mesmo que acontece com muitos adaptadores Bluetooth.
REDE WIRELESS – Tutorial
Para redes mais simples, onde você precise apenas compartilhar o acesso à internet entre poucos micros, todos com placas wireless, você pode ligar o modem ADSL (ou cabo) direto ao ponto de acesso. Alguns pontos de acesso trazem um switch de 4 ou 5 portas embutido, permitindo que você crie uma pequena rede cabeada sem precisar comprar um hub/switch adicional. Com a miniaturização dos componentes e o lançamento de controladores que incorporam cada vez mais funções, tornou-se comum o desenvolvimento de pontos de acesso que incorporam funções adicionais. Tudo começou com modelos que incorporavam um switch de 4 ou 8 portas que foram logo seguidos por modelos que incorporam modelos com funções de roteador, combinando o switch embutido com uma porta WAN, usada para conectar o modem ADSL ou cabo, de onde vem a conexão. Estes modelos são chamados de wireless routers (roteadores wireless). O ponto de acesso pode ser então configurado para compartilhar a conexão entre os micros da rede (tanto os ligados nas portas do switch quanto os clientes wireless), com direito a DHCP e outros serviços. Na maioria dos casos, estão disponíveis apenas as funções mais básicas, mas muitos roteadores incorporam recursos de firewall, VPN e controle de acesso. Por estranho que possa parecer, as funções adicionais aumentam pouco o preço final, pois devido à necessidade de oferecer uma interface de configuração e oferecer suporte aos algoritmos de encriptação (RC4, AES, etc.), os pontos de acesso precisam utilizar controladores relativamente poderosos. Com isso, os fabricantes podem implementar a maior parte das funções extras via software, ou utilizando controladores baratos. Isso faz com que comprar um roteador wireless saia bem mais barato do que comprar os dispositivos equivalentes separadamente. A única questão é mesmo se você vai utilizar ou não as funções extras. Existem ainda roteadores wireless que incluem um modem ADSL, chamados de "ADSL Wireless Routers". Basicamente, eles incluem os circuitos do modem ADSL e do roteador wireless na mesma placa, e rodam um firmware que permite configurar ambos os dispositivos. O link ADSL passa então a ser a interface WAN, que é compartilhada com os clientes wireless e com os PCs ligados nas portas do switch. O quinto conector de rede no switch é então substituído pelo conector para a linha de telefone (line), como neste Linksys WAG54G: Embora mais raros, você vai encontrar também roteadores com modems 3G integrados (chamados de Cellular Routers ou 3G Routers), que permitem conectar via EVDO (Vivo) ou UMTS/EDGE/GPRS (Claro, Tim e outras), usando um plano de dados. O modem pode ser tanto integrado diretamente à placa principal quanto (mais comum) instalado em um slot PC-Card. A segunda opção é mais interessante, pois permite que você use qualquer placa.
Rede wireless - Introdução
Rede wireless - Introdução Nos últimos anos as redes wireless caíram de preço e se tornaram extremamente populares. Configurar uma rede wireless envolve mais passos do que uma rede cabeada e um número muito maior de escolhas, incluindo o tipo de antenas e o sistema de encriptação a utilizar, sem falar no grande volume de opções para otimizar a conexão presentes na interface de administração do ponto de acesso. Este é o primeiro de uma série de tutoriais onde estudaremos todos os detalhes sobre o funcionamento e a configuração das redes wireless. Carlos E. Morimoto - 02/03/2009 O grande problema em utilizar cabos é que o custo do cabeamento cresce exponencialmente junto com o número de clientes e a distância a cobrir. Montar uma rede entre 3 ou 4 micros em um escritório acaba saindo barato, pois você precisa apenas de um switch e alguns metros de cabos, mas cabear uma rede com 500 estações, incluindo diversos andares de um prédio (por exemplo) acaba sendo muito caro. Além disso, uma rede cabeada oferece pouca flexibilidade; se você precisar mudar alguns micros de lugar ou adicionar novas estações à rede, vai precisar alterar o cabeamento. Existem ainda muitas situações onde simplesmente não é viável utilizar cabos, como no caso de prédios antigos, onde não existem canaletas disponíveis e em situações onde é necessário interligar pontos distantes, como dois escritórios situados em dois prédios diferentes por exemplo, onde você precisaria adquirir uma linha dedicada entre os dois pontos, com a empresa de telefonia local (o que é caro) ou criar uma VPN, via internet (o que resultaria em uma conexão lenta e com muita latência). Nos últimos anos as redes wireless caíram de preço e se tornaram extremamente populares. Configurar uma rede wireless envolve mais passos do que uma rede cabeada e um número muito maior de escolhas, incluindo o tipo de antenas e o sistema de encriptação a utilizar, sem falar no grande volume de opções para otimizar a conexão presentes na interface de administração do ponto de acesso. A topologia básica
Manutenção de Computadores – Uma Oportunidade
Hoje, há uma grande necessidade de técnicos bem qualificados na área de manutenção de computadores . Por isso mesmo, é muito importante entender que essa é a hora de agarrarem-se as oportunidades que aparecerem e continuarão aparecendo ainda por muito tempo. Os cursos são oferecidos em quase todas as cidades e, nas maiores, chegam a se acotovelarem num mesmo bairro quase uns sobre os outros.
No entanto, essa fartura de ofertas de cursos pode não significar um alto nível de ofertas de qualidade educacional. E, ser formado num desses cursos pode significar apenas perda de tempo e de dinheiro. O ideal é buscar instituições de ensino de renome e cursos registrados no ministério da educação. Só assim o seu diploma terá valor legalmente e você estará apto a participar de recrutamentos para trabalhar no mercado formal como técnico de manutenção de computadores. Um bom curso técnico abrirá as portas das melhores empresas que estão sempre em busca de gente qualificada e muito bem formada. Um curso sem qualificação ou de má reputação no mercado, sepultará qualquer chance que você pudesse ter muito antes dela sequer se apresentar a você como uma possibilidade.
Por mais incrível que possa parecer, no Brasil, ainda parece não haver o entendimento de que o técnico é muito mais necessário para o momento que o país vive do que o formando universitário. Por isso mesmo, as vagas para bons cursos técnicos de montagem e manutenção de computadores são insuficientes para suprir toda a demanda que existe atualmente. Daí o surgimento e a proliferação de cursos oportunistas que simplesmente não se preocupam com a qualidade do ensino e a adequada formação de seus alunos. O que fatalmente, contribui para denegrir uma classe profissional inteira. Uma vez que um mal profissional que atue desastrosamente, causa muito mais prejuízos do que um profissional competente causa benefícios para a reputação da classe.
Um bom curso técnico de manutenção de computadores será a porta de entrada para um jovem formando no mercado de trabalho. Uma vez conquistada a vaga, bastará que ele se dedique, se desenvolva profissionalmente e, já sendo bem remunerado, aí sim busque a universidade para aprimorar os seus conhecimentos e desenvolver novas habilidades. E essa deveria ser a ordem natural das coisas. Mas ainda falta-nos esse entendimento. E com isso, muitos dos que cursam universidades caríssimas, acabam amargando o desemprego ou aceitando trabalhar numa área fora da que escolheram.
Um outro detalhe importante, é que o curso técnico é voltado para a prática propriamente dita do trabalho de manutenção de computadores. Logo, você pode perguntar a um estudante universitário que tenha feito um curso técnico anteriormente e ele lhe responderá claramente que aprendeu coisas totalmente diferentes no curso técnico; que não lhe foram ensinadas na universidade. E isso é muito simples de justificar. As aptidões e os objetivos que se querem atingir com ambos os cursos são diferentes.
Assim, ao escolher como vai encarar a dura luta por um emprego num mercado de trabalho voraz e sempre faminto por qualificações; pense num curso técnico em manutenção de computadores e abra para você mesmo um grande leque de oportunidades promissoras.
No entanto, essa fartura de ofertas de cursos pode não significar um alto nível de ofertas de qualidade educacional. E, ser formado num desses cursos pode significar apenas perda de tempo e de dinheiro. O ideal é buscar instituições de ensino de renome e cursos registrados no ministério da educação. Só assim o seu diploma terá valor legalmente e você estará apto a participar de recrutamentos para trabalhar no mercado formal como técnico de manutenção de computadores. Um bom curso técnico abrirá as portas das melhores empresas que estão sempre em busca de gente qualificada e muito bem formada. Um curso sem qualificação ou de má reputação no mercado, sepultará qualquer chance que você pudesse ter muito antes dela sequer se apresentar a você como uma possibilidade.
Por mais incrível que possa parecer, no Brasil, ainda parece não haver o entendimento de que o técnico é muito mais necessário para o momento que o país vive do que o formando universitário. Por isso mesmo, as vagas para bons cursos técnicos de montagem e manutenção de computadores são insuficientes para suprir toda a demanda que existe atualmente. Daí o surgimento e a proliferação de cursos oportunistas que simplesmente não se preocupam com a qualidade do ensino e a adequada formação de seus alunos. O que fatalmente, contribui para denegrir uma classe profissional inteira. Uma vez que um mal profissional que atue desastrosamente, causa muito mais prejuízos do que um profissional competente causa benefícios para a reputação da classe.
Um bom curso técnico de manutenção de computadores será a porta de entrada para um jovem formando no mercado de trabalho. Uma vez conquistada a vaga, bastará que ele se dedique, se desenvolva profissionalmente e, já sendo bem remunerado, aí sim busque a universidade para aprimorar os seus conhecimentos e desenvolver novas habilidades. E essa deveria ser a ordem natural das coisas. Mas ainda falta-nos esse entendimento. E com isso, muitos dos que cursam universidades caríssimas, acabam amargando o desemprego ou aceitando trabalhar numa área fora da que escolheram.
Um outro detalhe importante, é que o curso técnico é voltado para a prática propriamente dita do trabalho de manutenção de computadores. Logo, você pode perguntar a um estudante universitário que tenha feito um curso técnico anteriormente e ele lhe responderá claramente que aprendeu coisas totalmente diferentes no curso técnico; que não lhe foram ensinadas na universidade. E isso é muito simples de justificar. As aptidões e os objetivos que se querem atingir com ambos os cursos são diferentes.
Assim, ao escolher como vai encarar a dura luta por um emprego num mercado de trabalho voraz e sempre faminto por qualificações; pense num curso técnico em manutenção de computadores e abra para você mesmo um grande leque de oportunidades promissoras.
HDs – APOSTILA COMPLETA
HDs – APOSTILA COMPLETA:
Sem dúvida, o disco rígido foi um dos componentes que mais evoluiu na história da informática. O primeiro disco rígido (o IBM 350) foi construído em 1956 e era formado por um conjunto de nada menos que 50 discos de 24 polegadas de diâmetro, com uma capacidade total de 4.36 MB (5 milhões de caracteres, com 7 bits cada um), algo espantoso para a época. Comparado com os discos atuais, este pioneiro custava uma verdadeira fortuna: 35 mil dólares. Porém, apesar de inicialmente serem extremamente caros, os discos rígidos foram tornando-se populares nos sistemas corporativos, pois forneciam um meio rápido de armazenamento de dados. Foram produzidas cerca de 1000 unidades do 350 entre 1956 e 1961, quando a produção foi descontinuada em favor de versões mais modernas. Esta foto rara, cortesia do museu digital da IBM dá uma idéia das suas dimensões:
Como você pode ver, o IBM 350 não era exatamente um "disco rígido" dentro da concepção que temos hoje em dia. O gabinete tinha 1.70 metros de altura e quase o mesmo de comprimento e pesava quase uma tonelada.
Na época ele era chamado de "unidade de disco" (termo ainda usado hoje em dia por alguns) e podia ser acoplado a diversos computadores produzidos pela IBM. O termo "disco rígido" só surgiu duas décadas depois, junto com os modelos mais compactos.
. HDs – APOSTILA COMPLETA Página 2 de 95 CRÉDITOS - AUTORIA: Carlos E. Morimoto – OBRA: Hardware, o Guia Definitivo COMPILAÇÃO, DIAGRAMAÇÃO, FORMATAÇÃO: Marcelo Souza, marcelogerais@hotmail.com , Belo Horizonte/MG
De lá pra cá, tivemos uma evolução notável. Hoje em dia os HDs já ultrapassaram a marca de 1 TB, utilizam gravação perpendicular e interfaces SATA 300. São brutalmente mais rápidos que os modelos antigos e também mais baratos. Mesmo com o barateamento da memória Flash, os HDs ainda continuam imbatíveis na hora de armazenar grandes quantidades de dados.
Como um HD funciona Dentro do disco rígido, os dados são gravados em discos magnéticos, chamados de platters. O nome "disco rígido" vem justamente do fato de os discos internos serem extremamente rígidos. Os platters são compostos de duas camadas. A primeira é chamada de substrato, e nada mais é do que um disco metálico, feito de ligas de alumínio. Mais recentemente, alguns fabricantes passaram a utilizar também vidro, que oferece algumas vantagens, como a maior dureza, embora também seja mais difícil de se trabalhar. Os primeiros HDs com discos de vidro foram os IBM Deskstar 75GXP, lançados em 2001. Independentemente do material usado, o disco precisa ser completamente plano. Como os discos giram a grandes velocidades e as cabeças de leitura trabalham extremamente próximas da superfície magnética, qualquer variação seria fatal. Para atingir a perfeição necessária, o disco é polido em uma sala limpa, até que se torne perfeitamente plano. Vem então a parte final, que é a colocação da superfície magnética nos dois lados do disco. Como a camada magnética tem apenas alguns microns de espessura, ela é recoberta por uma fina camada protetora, que oferece alguma proteção contra pequenos impactos. Os discos são montados em um eixo também feito de alumínio, que deve ser sólido o suficiente para evitar qualquer vibração dos discos, mesmo a altas rotações. Este é mais um componente que passa por um processo de polimento, já que os discos devem ficar perfeitamente presos e alinhados. No caso de HDs com vários discos, eles são separados usando espaçadores, novamente feitos de ligas de alumínio. Finalmente, temos o motor de rotação, responsável por manter uma rotação constante. O motor é um dos maiores responsáveis pela durabilidade do disco rígido, pois uma grande parte das falhas graves provém justamente do motor. Os HDs mais antigos utilizavam motores de 3.600 rotações por minuto, enquanto que atualmente são utilizados motores de 5.400, 7.200 ou 10.000 RPM.
Nos HDs de notebook ainda são comuns motores de 4.200 RPM, mas os de 5.400 RPM já são maioria.
HDs – APOSTILA COMPLETA Página 3 de 95 CRÉDITOS - AUTORIA: Carlos E. Morimoto – OBRA: Hardware, o Guia Definitivo COMPILAÇÃO, DIAGRAMAÇÃO, FORMATAÇÃO: Marcelo Souza, marcelogerais@hotmail.com , Belo Horizonte/MG
Embora não seja o único, a velocidade de rotação é sem dúvida o fator que influencia mais diretamente no desempenho. Para ler e gravar dados no disco, são usadas cabeças de leitura eletromagnéticas (heads) que são presas a um braço móvel (arm), o que permite seu acesso a todo o disco. O braço de leitura é uma peça triangular, também feita de ligas de alumínio, para que seja ao mesmo tempo leve e resistente. O mecanismo que movimenta o braço de leitura é chamado de actuator. Nos primeiros discos rígidos, eram usados motores de passo para movimentar os braços e cabeças de leitura. Eles são o mesmo tipo de motor usado nos drives de disquete, onde ao receber um impulso elétrico o motor move o braço por uma curta distância, correspondente ao comprimento de uma trilha. O problema é que eles eram muito suscetíveis a problemas de desalinhamento e não permitiam densidades de gravação muito altas. Os discos contemporâneos (qualquer coisa acima de 80 MB) utilizam um mecanismo bem mais sofisticado para essa tarefa, composto por um dispositivo que atua através de atração e repulsão eletromagnética, sistema chamado de voice coil. Basicamente temos um eletroímã na base do braço móvel, que permite que a placa controladora o movimente variando rapidamente a potência e a polaridade do ímã. Apesar de parecer suspeito à primeira vista, esse sistema é muito mais rápido, preciso e confiável que os motores de passo. Para você ter uma idéia, os HDs do início da década de 80, com motores de passo, utilizavam apenas 300 ou 400 trilhas por polegada, enquanto um Seagate ST3750640AS (de 750 GB) atual utiliza nada menos do que 145.000. Aqui temos um diagrama mostrando os principais componentes do HD:
HDs – APOSTILA COMPLETA Página 4 de 95 CRÉDITOS - AUTORIA: Carlos E. Morimoto – OBRA: Hardware, o Guia Definitivo COMPILAÇÃO, DIAGRAMAÇÃO, FORMATAÇÃO: Marcelo Souza, marcelogerais@hotmail.com , Belo Horizonte/MG
Para que o HD possa posicionar a cabeça de leitura sobre a área exata referente à trilha que vai ser lida, existem sinais de feedback gravados na superfícies do disco, que orientam o posicionamento da cabeça de leitura. Eles são sinais magnéticos especiais, gravados durante a fabricação dos discos (a famosa formatação física), que são protegidos através de instruções de bloqueio incluídas no firmware do HD contra alteração posterior. Esses sinais eliminam os problemas de desalinhamento que existiam nos primeiros HDs. Ao ler um arquivo, a controladora posiciona a cabeça de leitura sobre a trilha onde está o primeiro setor referente a ele e espera que o disco gire até o setor correto. Este tempo inicial, necessário para iniciar a leitura, é chamado de tempo de acesso, e mesmo os HDs atuais de 7.200 RPM fica em torno de 12 milésimos de segundo, o que é uma eternidade em se tratando de tempo computacional. O HD é relativamente rápido ao ler setores seqüenciais, mas ao ler vários pequenos arquivos espalhados pelo HD, o desempenho pode cair assustadoramente. É por isso que existem programas desfragmentadores, que procuram reorganizar a ordem dos arquivos, de forma que eles sejam gravados em setores contínuos. Outro dado interessante é a maneira como as cabeças de leitura lêem os dados, sem tocar na camada magnética. Se você tiver a oportunidade de ver um disco rígido aberto, verá que, com os discos parados, as cabeças de leitura são pressionadas levemente em direção ao disco, tocando-o com uma certa pressão. Aqui temos o braço de leitura de um HD, depois de removido. Veja que mesmo sem o disco magnético entre elas, as duas cabeças de leitura pressionam-se mutuamente:
Apesar disso, quando os discos giram à alta rotação, forma-se uma espécie de colchão de ar, que repele a cabeça de leitura, fazendo com que ela fique sempre a alguns nanômetros de distância dos discos.
HDs – APOSTILA COMPLETA Página 5 de 95 CRÉDITOS - AUTORIA: Carlos E. Morimoto – OBRA: Hardware, o Guia Definitivo COMPILAÇÃO, DIAGRAMAÇÃO, FORMATAÇÃO: Marcelo Souza, marcelogerais@hotmail.com , Belo Horizonte/MG
É o mesmo princípio utilizado na asa de um avião; a principal diferença neste caso é que a cabeça de leitura é fixa, enquanto os discos é que se movem, mas, de qualquer forma, o efeito é o mesmo. Como veremos a seguir, os HDs não são fechados hermeticamente, muito menos a vácuo, pois é necessário ar para criar o efeito. Esta foto mostra a cabeça de leitura "flutuando" sobre o disco em movimento. A distância é tão curta que mesmo ao vivo você tem a impressão de que a cabeça está raspando no disco, embora na realidade não esteja. Como a cabeça de leitura se movimenta rapidamente durante a operação do disco, é muito difícil tirar fotos. Para conseguir tirar esta, precisei "trapacear", desmontando o actuator e suavemente movendo a cabeça da área de descanso para o meio do disco. :)
Os discos magnéticos são montados diretamente sobre o eixo do motor de rotação, sem o uso de correias ou qualquer coisa do gênero. É justamente este design simples que permite que os discos girem a uma velocidade tão grande. Embora mais potente e muito mais durável, o motor de rotação usado nos HDs é similar aos usados nos coolers. Nos HDs antigos, eram usados motores sleeve bearing, o sistema mais simples e menos durável, que foi usado nos HDs de 3600 RPM. Em seguida, foram adotados motores ball-bearing, onde são usados rolamentos para aumentar a precisão e a durabilidade.
HDs – APOSTILA COMPLETA Página 6 de 95 CRÉDITOS - AUTORIA: Carlos E. Morimoto – OBRA: Hardware, o Guia Definitivo COMPILAÇÃO, DIAGRAMAÇÃO, FORMATAÇÃO: Marcelo Souza, marcelogerais@hotmail.com , Belo Horizonte/MG
Nos HDs modernos, é utilizado o sistema fluid-dynamic bearing, onde os rolamentos são substituídos por um fluído especial, que elimina o atrito, reduzindo o ruído e o nível de vibração. Aqui temos o mesmo HD da foto anterior completamente desmontado, mostrando o interior do motor de rotação:
Assim como a maioria dos modelos de baixa capacidade, este HD utiliza um único disco, mas a maioria dos modelos utiliza dois, três ou quatro, que são montados usando espaçadores. O HD possui duas cabeças de leitura para cada disco (uma para cada face), de forma que um HD com 4 discos utilizaria 8 cabeças de leitura, presas ao mesmo braço móvel. Embora usar mais discos permita construir HDs de maior capacidade, não é comum que os fabricantes utilizem mais de 4, pois a partir daí torna-se muito difícil (e caro) produzir componentes com a precisão necessária para manter todos os discos alinhados. Antigamente, era comum que HDs de alta capacidade (e alto custo :), sobretudo os destinados a servidores, possuíssem 6, ou até mesmo 12 discos, mas eles saíram de moda a partir da década de 90, devido à baixa demanda. Desde então, os fabricantes padronizaram a produção em torno dos HDs com até 4 discos e quem precisa de mais capacidade compra vários e monta um sistema RAID. No caso dos servidores, é muito comum o uso de racks, com um grande número de HDs SAS ou SATA.
Naturalmente, qualquer HD aberto fora de uma sala limpa acaba sendo impregnado por partículas de poeira e por isso condenado a apresentar badblocks e outros defeitos depois de alguns minutos de operação.
HDs – APOSTILA COMPLETA Página 7 de 95 CRÉDITOS - AUTORIA: Carlos E. Morimoto – OBRA: Hardware, o Guia Definitivo COMPILAÇÃO, DIAGRAMAÇÃO, FORMATAÇÃO: Marcelo Souza, marcelogerais@hotmail.com , Belo Horizonte/MG
Todo HD é montado e selado em um ambiente livre de partículas, as famosas salas limpas. Apesar disso, eles não são hermeticamente fechados. Em qualquer HD, você encontra um pequeno orifício para entrada de ar (geralmente escondido embaixo da placa lógica ou diretamente sob a tampa superior), que permite que pequenos volumes de ar entrem e saiam, mantendo a pressão interna do HD sempre igual à do ambiente. Esse orifício é sempre protegido por um filtro, que impede a entrada de partículas de poeira. Orifício de ventilação do HD
Devido a isso, a pressão do ar tem uma certa influência sobre a operação do HD. Os HDs são normalmente projetados para funcionar a altitudes de até 3.000 metros acima do nível do mar. Em altitudes muito elevadas, a pressão do ar é menor, comprometendo a criação do colchão de ar. Para casos extremos (uso militar, por exemplo), existem HDs pressurizados, que podem trabalhar a qualquer altitude. Internamente, o HD possui um segundo filtro, que filtra continuamente o ar movimentado pelos discos. Ele tem a função de capturar as partículas que se desprendam dos componentes internos durante o uso, devido a desgaste ou choques diversos.
HDs – APOSTILA COMPLETA Página 8 de 95 CRÉDITOS - AUTORIA: Carlos E. Morimoto – OBRA: Hardware, o Guia Definitivo COMPILAÇÃO, DIAGRAMAÇÃO, FORMATAÇÃO: Marcelo Souza, marcelogerais@hotmail.com , Belo Horizonte/MG
Aqui temos uma foto de um, preso num dos cantos da parte interna do HD: Filtro interno
Enquanto o HD está desligado, as cabeças de leitura ficam em uma posição de descanso. Elas só saem dessa posição quando os discos já estão girando à velocidade máxima. Para prevenir acidentes, as cabeças de leitura voltam à posição de descanso sempre que não estão sendo lidos dados, apesar dos discos continuarem girando. É justamente por isso que às vezes, ao sofrer um pico de tensão, ou o micro ser desligado enquanto o HD está sendo acessado, surgem setores defeituosos. Ao ser cortada a energia, os discos param de girar e é desfeito o colchão de ar, fazendo com que as cabeças de leitura possam vir a tocar os discos magnéticos. Para diminuir a ocorrência desse tipo de acidente, nos HDs modernos é utilizado um sistema que recolhe as cabeças de leitura automaticamente para a área de descanso quando a energia é cortada (tecnologia chamada de auto-parking). A área de descanso é também chamada de "landing zone" e engloba algumas das trilhas mais centrais do disco, uma área especialmente preparada para receber o impacto do "pouso" das cabeças de leitura.
Sem dúvida, o disco rígido foi um dos componentes que mais evoluiu na história da informática. O primeiro disco rígido (o IBM 350) foi construído em 1956 e era formado por um conjunto de nada menos que 50 discos de 24 polegadas de diâmetro, com uma capacidade total de 4.36 MB (5 milhões de caracteres, com 7 bits cada um), algo espantoso para a época. Comparado com os discos atuais, este pioneiro custava uma verdadeira fortuna: 35 mil dólares. Porém, apesar de inicialmente serem extremamente caros, os discos rígidos foram tornando-se populares nos sistemas corporativos, pois forneciam um meio rápido de armazenamento de dados. Foram produzidas cerca de 1000 unidades do 350 entre 1956 e 1961, quando a produção foi descontinuada em favor de versões mais modernas. Esta foto rara, cortesia do museu digital da IBM dá uma idéia das suas dimensões:
Como você pode ver, o IBM 350 não era exatamente um "disco rígido" dentro da concepção que temos hoje em dia. O gabinete tinha 1.70 metros de altura e quase o mesmo de comprimento e pesava quase uma tonelada.
Na época ele era chamado de "unidade de disco" (termo ainda usado hoje em dia por alguns) e podia ser acoplado a diversos computadores produzidos pela IBM. O termo "disco rígido" só surgiu duas décadas depois, junto com os modelos mais compactos.
. HDs – APOSTILA COMPLETA Página 2 de 95 CRÉDITOS - AUTORIA: Carlos E. Morimoto – OBRA: Hardware, o Guia Definitivo COMPILAÇÃO, DIAGRAMAÇÃO, FORMATAÇÃO: Marcelo Souza, marcelogerais@hotmail.com , Belo Horizonte/MG
De lá pra cá, tivemos uma evolução notável. Hoje em dia os HDs já ultrapassaram a marca de 1 TB, utilizam gravação perpendicular e interfaces SATA 300. São brutalmente mais rápidos que os modelos antigos e também mais baratos. Mesmo com o barateamento da memória Flash, os HDs ainda continuam imbatíveis na hora de armazenar grandes quantidades de dados.
Como um HD funciona Dentro do disco rígido, os dados são gravados em discos magnéticos, chamados de platters. O nome "disco rígido" vem justamente do fato de os discos internos serem extremamente rígidos. Os platters são compostos de duas camadas. A primeira é chamada de substrato, e nada mais é do que um disco metálico, feito de ligas de alumínio. Mais recentemente, alguns fabricantes passaram a utilizar também vidro, que oferece algumas vantagens, como a maior dureza, embora também seja mais difícil de se trabalhar. Os primeiros HDs com discos de vidro foram os IBM Deskstar 75GXP, lançados em 2001. Independentemente do material usado, o disco precisa ser completamente plano. Como os discos giram a grandes velocidades e as cabeças de leitura trabalham extremamente próximas da superfície magnética, qualquer variação seria fatal. Para atingir a perfeição necessária, o disco é polido em uma sala limpa, até que se torne perfeitamente plano. Vem então a parte final, que é a colocação da superfície magnética nos dois lados do disco. Como a camada magnética tem apenas alguns microns de espessura, ela é recoberta por uma fina camada protetora, que oferece alguma proteção contra pequenos impactos. Os discos são montados em um eixo também feito de alumínio, que deve ser sólido o suficiente para evitar qualquer vibração dos discos, mesmo a altas rotações. Este é mais um componente que passa por um processo de polimento, já que os discos devem ficar perfeitamente presos e alinhados. No caso de HDs com vários discos, eles são separados usando espaçadores, novamente feitos de ligas de alumínio. Finalmente, temos o motor de rotação, responsável por manter uma rotação constante. O motor é um dos maiores responsáveis pela durabilidade do disco rígido, pois uma grande parte das falhas graves provém justamente do motor. Os HDs mais antigos utilizavam motores de 3.600 rotações por minuto, enquanto que atualmente são utilizados motores de 5.400, 7.200 ou 10.000 RPM.
Nos HDs de notebook ainda são comuns motores de 4.200 RPM, mas os de 5.400 RPM já são maioria.
HDs – APOSTILA COMPLETA Página 3 de 95 CRÉDITOS - AUTORIA: Carlos E. Morimoto – OBRA: Hardware, o Guia Definitivo COMPILAÇÃO, DIAGRAMAÇÃO, FORMATAÇÃO: Marcelo Souza, marcelogerais@hotmail.com , Belo Horizonte/MG
Embora não seja o único, a velocidade de rotação é sem dúvida o fator que influencia mais diretamente no desempenho. Para ler e gravar dados no disco, são usadas cabeças de leitura eletromagnéticas (heads) que são presas a um braço móvel (arm), o que permite seu acesso a todo o disco. O braço de leitura é uma peça triangular, também feita de ligas de alumínio, para que seja ao mesmo tempo leve e resistente. O mecanismo que movimenta o braço de leitura é chamado de actuator. Nos primeiros discos rígidos, eram usados motores de passo para movimentar os braços e cabeças de leitura. Eles são o mesmo tipo de motor usado nos drives de disquete, onde ao receber um impulso elétrico o motor move o braço por uma curta distância, correspondente ao comprimento de uma trilha. O problema é que eles eram muito suscetíveis a problemas de desalinhamento e não permitiam densidades de gravação muito altas. Os discos contemporâneos (qualquer coisa acima de 80 MB) utilizam um mecanismo bem mais sofisticado para essa tarefa, composto por um dispositivo que atua através de atração e repulsão eletromagnética, sistema chamado de voice coil. Basicamente temos um eletroímã na base do braço móvel, que permite que a placa controladora o movimente variando rapidamente a potência e a polaridade do ímã. Apesar de parecer suspeito à primeira vista, esse sistema é muito mais rápido, preciso e confiável que os motores de passo. Para você ter uma idéia, os HDs do início da década de 80, com motores de passo, utilizavam apenas 300 ou 400 trilhas por polegada, enquanto um Seagate ST3750640AS (de 750 GB) atual utiliza nada menos do que 145.000. Aqui temos um diagrama mostrando os principais componentes do HD:
HDs – APOSTILA COMPLETA Página 4 de 95 CRÉDITOS - AUTORIA: Carlos E. Morimoto – OBRA: Hardware, o Guia Definitivo COMPILAÇÃO, DIAGRAMAÇÃO, FORMATAÇÃO: Marcelo Souza, marcelogerais@hotmail.com , Belo Horizonte/MG
Para que o HD possa posicionar a cabeça de leitura sobre a área exata referente à trilha que vai ser lida, existem sinais de feedback gravados na superfícies do disco, que orientam o posicionamento da cabeça de leitura. Eles são sinais magnéticos especiais, gravados durante a fabricação dos discos (a famosa formatação física), que são protegidos através de instruções de bloqueio incluídas no firmware do HD contra alteração posterior. Esses sinais eliminam os problemas de desalinhamento que existiam nos primeiros HDs. Ao ler um arquivo, a controladora posiciona a cabeça de leitura sobre a trilha onde está o primeiro setor referente a ele e espera que o disco gire até o setor correto. Este tempo inicial, necessário para iniciar a leitura, é chamado de tempo de acesso, e mesmo os HDs atuais de 7.200 RPM fica em torno de 12 milésimos de segundo, o que é uma eternidade em se tratando de tempo computacional. O HD é relativamente rápido ao ler setores seqüenciais, mas ao ler vários pequenos arquivos espalhados pelo HD, o desempenho pode cair assustadoramente. É por isso que existem programas desfragmentadores, que procuram reorganizar a ordem dos arquivos, de forma que eles sejam gravados em setores contínuos. Outro dado interessante é a maneira como as cabeças de leitura lêem os dados, sem tocar na camada magnética. Se você tiver a oportunidade de ver um disco rígido aberto, verá que, com os discos parados, as cabeças de leitura são pressionadas levemente em direção ao disco, tocando-o com uma certa pressão. Aqui temos o braço de leitura de um HD, depois de removido. Veja que mesmo sem o disco magnético entre elas, as duas cabeças de leitura pressionam-se mutuamente:
Apesar disso, quando os discos giram à alta rotação, forma-se uma espécie de colchão de ar, que repele a cabeça de leitura, fazendo com que ela fique sempre a alguns nanômetros de distância dos discos.
HDs – APOSTILA COMPLETA Página 5 de 95 CRÉDITOS - AUTORIA: Carlos E. Morimoto – OBRA: Hardware, o Guia Definitivo COMPILAÇÃO, DIAGRAMAÇÃO, FORMATAÇÃO: Marcelo Souza, marcelogerais@hotmail.com , Belo Horizonte/MG
É o mesmo princípio utilizado na asa de um avião; a principal diferença neste caso é que a cabeça de leitura é fixa, enquanto os discos é que se movem, mas, de qualquer forma, o efeito é o mesmo. Como veremos a seguir, os HDs não são fechados hermeticamente, muito menos a vácuo, pois é necessário ar para criar o efeito. Esta foto mostra a cabeça de leitura "flutuando" sobre o disco em movimento. A distância é tão curta que mesmo ao vivo você tem a impressão de que a cabeça está raspando no disco, embora na realidade não esteja. Como a cabeça de leitura se movimenta rapidamente durante a operação do disco, é muito difícil tirar fotos. Para conseguir tirar esta, precisei "trapacear", desmontando o actuator e suavemente movendo a cabeça da área de descanso para o meio do disco. :)
Os discos magnéticos são montados diretamente sobre o eixo do motor de rotação, sem o uso de correias ou qualquer coisa do gênero. É justamente este design simples que permite que os discos girem a uma velocidade tão grande. Embora mais potente e muito mais durável, o motor de rotação usado nos HDs é similar aos usados nos coolers. Nos HDs antigos, eram usados motores sleeve bearing, o sistema mais simples e menos durável, que foi usado nos HDs de 3600 RPM. Em seguida, foram adotados motores ball-bearing, onde são usados rolamentos para aumentar a precisão e a durabilidade.
HDs – APOSTILA COMPLETA Página 6 de 95 CRÉDITOS - AUTORIA: Carlos E. Morimoto – OBRA: Hardware, o Guia Definitivo COMPILAÇÃO, DIAGRAMAÇÃO, FORMATAÇÃO: Marcelo Souza, marcelogerais@hotmail.com , Belo Horizonte/MG
Nos HDs modernos, é utilizado o sistema fluid-dynamic bearing, onde os rolamentos são substituídos por um fluído especial, que elimina o atrito, reduzindo o ruído e o nível de vibração. Aqui temos o mesmo HD da foto anterior completamente desmontado, mostrando o interior do motor de rotação:
Assim como a maioria dos modelos de baixa capacidade, este HD utiliza um único disco, mas a maioria dos modelos utiliza dois, três ou quatro, que são montados usando espaçadores. O HD possui duas cabeças de leitura para cada disco (uma para cada face), de forma que um HD com 4 discos utilizaria 8 cabeças de leitura, presas ao mesmo braço móvel. Embora usar mais discos permita construir HDs de maior capacidade, não é comum que os fabricantes utilizem mais de 4, pois a partir daí torna-se muito difícil (e caro) produzir componentes com a precisão necessária para manter todos os discos alinhados. Antigamente, era comum que HDs de alta capacidade (e alto custo :), sobretudo os destinados a servidores, possuíssem 6, ou até mesmo 12 discos, mas eles saíram de moda a partir da década de 90, devido à baixa demanda. Desde então, os fabricantes padronizaram a produção em torno dos HDs com até 4 discos e quem precisa de mais capacidade compra vários e monta um sistema RAID. No caso dos servidores, é muito comum o uso de racks, com um grande número de HDs SAS ou SATA.
Naturalmente, qualquer HD aberto fora de uma sala limpa acaba sendo impregnado por partículas de poeira e por isso condenado a apresentar badblocks e outros defeitos depois de alguns minutos de operação.
HDs – APOSTILA COMPLETA Página 7 de 95 CRÉDITOS - AUTORIA: Carlos E. Morimoto – OBRA: Hardware, o Guia Definitivo COMPILAÇÃO, DIAGRAMAÇÃO, FORMATAÇÃO: Marcelo Souza, marcelogerais@hotmail.com , Belo Horizonte/MG
Todo HD é montado e selado em um ambiente livre de partículas, as famosas salas limpas. Apesar disso, eles não são hermeticamente fechados. Em qualquer HD, você encontra um pequeno orifício para entrada de ar (geralmente escondido embaixo da placa lógica ou diretamente sob a tampa superior), que permite que pequenos volumes de ar entrem e saiam, mantendo a pressão interna do HD sempre igual à do ambiente. Esse orifício é sempre protegido por um filtro, que impede a entrada de partículas de poeira. Orifício de ventilação do HD
Devido a isso, a pressão do ar tem uma certa influência sobre a operação do HD. Os HDs são normalmente projetados para funcionar a altitudes de até 3.000 metros acima do nível do mar. Em altitudes muito elevadas, a pressão do ar é menor, comprometendo a criação do colchão de ar. Para casos extremos (uso militar, por exemplo), existem HDs pressurizados, que podem trabalhar a qualquer altitude. Internamente, o HD possui um segundo filtro, que filtra continuamente o ar movimentado pelos discos. Ele tem a função de capturar as partículas que se desprendam dos componentes internos durante o uso, devido a desgaste ou choques diversos.
HDs – APOSTILA COMPLETA Página 8 de 95 CRÉDITOS - AUTORIA: Carlos E. Morimoto – OBRA: Hardware, o Guia Definitivo COMPILAÇÃO, DIAGRAMAÇÃO, FORMATAÇÃO: Marcelo Souza, marcelogerais@hotmail.com , Belo Horizonte/MG
Aqui temos uma foto de um, preso num dos cantos da parte interna do HD: Filtro interno
Enquanto o HD está desligado, as cabeças de leitura ficam em uma posição de descanso. Elas só saem dessa posição quando os discos já estão girando à velocidade máxima. Para prevenir acidentes, as cabeças de leitura voltam à posição de descanso sempre que não estão sendo lidos dados, apesar dos discos continuarem girando. É justamente por isso que às vezes, ao sofrer um pico de tensão, ou o micro ser desligado enquanto o HD está sendo acessado, surgem setores defeituosos. Ao ser cortada a energia, os discos param de girar e é desfeito o colchão de ar, fazendo com que as cabeças de leitura possam vir a tocar os discos magnéticos. Para diminuir a ocorrência desse tipo de acidente, nos HDs modernos é utilizado um sistema que recolhe as cabeças de leitura automaticamente para a área de descanso quando a energia é cortada (tecnologia chamada de auto-parking). A área de descanso é também chamada de "landing zone" e engloba algumas das trilhas mais centrais do disco, uma área especialmente preparada para receber o impacto do "pouso" das cabeças de leitura.
Assinar:
Comentários (Atom)