Podemos dizer que toda a nossa civilização depende do armazenamento de dados em discos magnéticos. Mesmo com toda a evolução dos SSDs de da memória Flash, eles respondem por apenas uma fração de 1% do armazenamento global de dados, e são usados predominantemente em smartphones e notebooks descolados. O grosso do armazenamento de dados, nos locais onde ele realmente é mais importante, como no caso dos datacenters, é mesmo feito em HDs magnéticos. Não apenas os HDs são importantes, mas também o crescimento contínuo da capacidade deles é essencial, já que no momento em que a capacidade dos HDs parar de crescer, serviços de armazenamento, e-mail, etc. deixarão de aceitar clientes, pois precisarão dedicar todos os recursos a simplesmente armazenar os dados que já estão lá, substituindo os HDs defeituosos.
A capacidade de um HD é determinada por basicamente dois fatores: a tecnologia utilizada, que determina sua densidade e o diâmetro dos discos, que determina a área útil de gravação.
A densidade de gravação dos HDs tem aumentado de forma surpreendente, com a introdução de sucessivas novas técnicas de fabricação. Para você ter uma ideia, no IBM 350 os discos eram simplesmente pintados usando uma tinta especial contendo limalha de ferro, um processo bastante primitivo. Com o passar do tempo, passou a ser usado o processo de eletroplating, que é semelhante à eletrólise usada para banhar bijuterias a ouro. Esta técnica não permite uma superfície muito uniforme e justamente por isso só funciona em discos de baixa densidade. Ela foi usada até o final da década de 80.
A técnica usada atualmente (chamada de sputtering) é muito mais precisa. Nela, a superfície magnética é construída depositando grãos microscópicos de forma incrivelmente uniforme. Quanto menores os grãos, mais fina e sensível é a superfície, permitindo densidades de gravação mais altas.
A densidade de gravação de um HD é medida em gigabits por polegada quadrada. Os HDs fabricados na segunda metade de 2006, por exemplo, utilizavam em sua maioria discos com densidade de 100 gigabits (ou 12.5 GB) por polegada quadrada. Neles, cada bit era armazenado em uma área magnética com aproximadamente 200×50 nanômetros (uma área pouco maior que a de um transistor nos processadores fabricados numa técnica de 0.09 micron) que era composta por apenas algumas centenas de grãos magnéticos. Estes grãos medem apenas alguns nanômetros e são compostos por ligas de cobalto, cromo, platina, boro e outros materiais raros, muito longe da limalha de ferro utilizada pelos pioneiros.
Considerando que os discos giram a 7200 RPM e a cabeça de leitura lê os dados a mais de 50 MB/s (quando lendo setores sequenciais), atingir densidades como as atuais é simplesmente impressionante. Este esquema mostra como funciona o processo de escrita e gravação em um HD:
Como você pode ver, a cabeça é composta por dois dispositivos separados, um para gravação e outro para leitura. O dispositivo de gravação é similar a um eletroímã, onde é utilizada eletricidade para criar o campo magnético usado para realizar a gravação. Nos primeiros HDs, tínhamos um filamento de cobre enrolado sobre um corpo de ferro. Nos HDs atuais, os materiais usados são diferentes, mas o princípio de funcionamento continua o mesmo.
O dispositivo de leitura, por sua vez, faz o processo oposto. Quando ele passa sobre os bits gravados, capta o campo magnético emitido por eles, através de um processo de indução (nos HDs antigos) ou resistência (nos atuais), resultando em uma fraca corrente, que é posteriormente amplificada.
O dispositivo de leitura é protegido por um escudo eletromagnético, que faz com que ele capte apenas o campo magnético do bit que está sendo lido, e não dos seguintes. Você pode notar que não existe isolamento entre os dispositivos de leitura e gravação. Isso acontece porque apenas um deles é usado de cada vez.
Note que essa divisão existe apenas nos HDs modernos, que utilizam cabeças de leitura/gravação MR ou GMR. Nos antigos, que ainda utilizavam cabeças de leitura de ferrite, o mesmo dispositivo fazia a leitura e a gravação.
O grande problema é que, assim como em outras áreas da informática, a tecnologia avançou até o ponto em que se começou a atingir os limites físicos da matéria. Em um HD, a área referente a cada bit armazenado funciona como um minúsculo ímã, que tem sua orientação magnética alterada pela cabeça de leitura. Quando ela é orientada em um sentido temos um bit 1 e no sentido oposto temos um bit 0. A área da superfície utilizada para a gravação de cada bit é chamada de “magnetic element”, ou elemento magnético.
A partir de um certo ponto, a área de gravação torna-se tão pequena que a orientação magnética dos bits pode ser alterada de forma aleatória pela própria energia térmica presente no ambiente (fenômeno chamado de superparamagnetismo), o que faz com que a mídia deixe de ser confiável.
A tecnologia usada nos HDs fabricados até a primeira metade de 2007 é chamada de gravação longitudinal (longitudinal recording), onde a orientação magnética dos bits é gravada na horizontal, de forma paralela à mídia. O problema é que a partir dos 100 gigabits por polegada quadrada, tornou-se muito difícil aumentar a densidade de gravação, o que acelerou a migração para o sistema de gravação perpendicular (perpendicular recording), onde a orientação magnética passa a ser feita na vertical, aumentando muito a densidade dos discos.
Estima-se que, utilizando gravação longitudinal, seria possível atingir densidades de no máximo 200 gigabits por polegada, o que limitaria a capacidade dos HDs de 3.5” a cerca de 1 TB. Usando a gravação perpendicular por sua vez, os fabricantes já estão se aproximando da marca de 1 terabit por polegada, que dará origem a HDs para desktop de até 6 TB.
Na gravação perpendicular, a mídia de gravação é composta de duas camadas. Inicialmente temos uma camada de cromo, que serve como um indutor, permitindo que o sinal magnético gerado pelo dispositivo de gravação “atravesse” a superfície magnética, criando um impulso mais forte e, ao mesmo tempo, como uma espécie de isolante entre a superfície de gravação e as camadas inferiores do disco.
Ele poderia (até certo ponto) ser comparado à camada extra usada nos processadores fabricados com tecnologia SOI (Silicon On Insulator), onde uma camada isolante é criada entre os transistores e o wafer de silício, reduzindo a perda de elétrons e, consequentemente, o consumo elétrico do processador.
Sobre a camada de cromo, são depositados os grãos magnéticos. A diferença é que agora eles são depositados de forma que a orientação magnética seja vertical, e não horizontal. A cabeça de leitura e gravação também é modificada, de forma a serem capazes de lidar com a nova orientação:
Embora pareça uma modificação simples, o uso da gravação perpendicular em HDs foi uma conquista técnica notável. Em termos comparativos, seria como se a NASA conseguisse enviar uma missão tripulada até Marte.
O processo de gravação perpendicular foi adotado rapidamente por todos os principais fabricantes. O primeiro foi a Fujitsu, que lançou um HD de 1.8″ com gravação perpendicular ainda em 2005. A próxima foi a Seagate que, em abril de 2006, anunciou o Barracuda 7200.10, um disco de 3.5″ com 750 GB. Em agosto de 2006 a Fujitsu anunciou um HD de 2.5″ com 160 GB, e em janeiro de 2007 a Hitachi anunciou o Deskstar 7K1000, um HD de 3.5″ com 1 TB, que utilizava um design incomum, com 5 platters em vez dos 4 comumente usados.
Estima-se que a gravação perpendicular possa evoluir até a marca de 1 terabit por polegada quadrada (uma marca já bem próxima, já que em marços de 2012 já temos no mercado HDs com densidades de até 630 gigabits), mas a partir daí o caminho se torna nebuloso, como especialistas divergindo sobre os reais limites da tecnologia. É um consenso entretanto que a tecnologia não ultrapassará os 2 terabits, o que colocaria uma data final na evolução dos HDs, com consequências desastrosas para todo o mercado de servidores e hospedagem (especialmente para os serviços de armazenamento de arquivos na nuvem) que baseiam todo o seu plano de negócios na perspectiva de que a capacidade dos HDs continuará a dobrar a cada 18 meses.
A tecnologia seguinte é o HAMR (heat-assisted magnetic recording, ou gravação magnética assistida por calor) que foi demonstrado pela Seagate em março de 2012. Em resumo, o principal fator que limita o crescimento da capacidade dos HDs é o limite para a miniaturização dos bits magnéticos na superfície do disco. A partir de um certo ponto o sinal magnético se torna muito fraco e passa a ser influenciado pelos bits adjacentes, eliminando qualquer possibilidade de armazenamento confiável de dados.
O HAMR permite o uso de compostos magnéticos de maior densidade como ligas de ferro e magnésio (com um magnetismo mais “forte” e com isso menos suscetíveis à influência dos vizinhos), o que por sua vez permite o uso de bits magnéticos menores e a obtenção de densidades mais altas.
O grande problema com o uso destes materiais é o fato de eles apresentarem uma resistência muito maior à alteração do estado magnético, o que normalmente tornaria necessário reduzir muito a velocidade de rotação dos discos (e consequentemente o desempenho) para que as operações de escrita pudessem ser executadas.
A solução para o problema foi a inclusão de um pequeno laser na cabeça de leitura, que aquece rapidamente o trecho da superfície magnética que está prestes a ser gravado, alterando as propriedades do material e permitindo que a gravação seja realizada com um desempenho competitivo. Uma vez que a superfície esfria, a gravação se torna bastante estável, permitindo que os dados sejam lidos da forma convencional. Esta imagem da Seagate ilustra as mudanças:
Os primeiros HDs baseados no HAMR devem chegar ao mercado em 2013 ou 2014, com uma densidade de 1 terabit por polegada e capacidades na casa dos 6 TB para os HDs de 3.5 e 2 TB para os de 2.5″. Entretanto, em teoria a tecnologia pode evoluir até os 10 terabits por polegada quadrada, o que possibilitaria o desenvolvimento de HDs de até 60 TB, assegurando a continuidade da lei de Moore no armazenamento por pelo menos mais uma década.
A principal dificuldade no uso do HAMR é o desenvolvimento do laser, que precisa não apenas ser extremamente miniaturizado e oferecer um baixo consumo de energia e dissipação de calor, mas, principalmente, oferecer um foco muito preciso, inferior a 100 nm. Para atingir esta marca, a tecnologia da Seagate abandona o uso de lentes e adota o uso de uma antena óptica construída a partir de um minúsculo fragmento de ouro, que é capaz de concentrar a luz do laser na medida necessária. A foto da esquerda abaixo mostra a antena capturada com a ajuda de um microscópio eletrônico: ela meda apenas 50 nm na parte mais larga e cerca de 5 nm na ponta:
A antena é montada dentro da cabeça de leitura e gravação (a imagem da direita), dando origem ao aparato necessário para realizar a leitura e gravação dos dados.
Como mostrei no tutorial sobre a queda na qualidadade da memória Flash, o futuro para os SSDs de grande capacidade é nebuloso, já que as técnicas que estão sendo empregadas pelos fabricantes para reduzir os custos estão minando a qualidade da memória Flash. Os HDs magnéticos por sua vez continuam evoluindo em capacidade ainda sem sinais de esgotamento. No final, provavelmente quem irá levar a melhor serão os HDs híbridos, que apresentam um grande ganho em termos de velocidade de acesso e um bom desempenho como disco de boot em troca da inclusão de um pequeno bloco de memória Flash SLC, juntando o melhor dos dois mundos.
Deixe seu comentário