Twarde dyski

Technologia produkcji twardych dysków cały czas się rozwija. Nowe rozwiązania nieustannie przesuwają fizyczną granicę gęstości zapisu.

Technologia produkcji twardych dysków cały czas się rozwija. Nowe rozwiązania nieustannie przesuwają fizyczną granicę gęstości zapisu.

Krótszy czas dostępu, większa przepustowość i wyższa gęstość zapisu przy malejących cenach 1 GB nie są niczym niezwykłym w wypadku twardych dysków. Po okresie ulepszania i dopracowywania technologii opracowano też nowe, które z upływem czasu zaczynają być stosowane w produktach seryjnych. Nie wydaje się, aby w dającej się przewidzieć przyszłości tempo rozwoju miało się zmniejszyć.

W końcu jednak kiedyś zostanie osiągnięta granica klasycznej technologii twardych dysków lub dalsze jej rozwijanie stanie się zbyt drogie. Wówczas pojawią się pamięci optyczne, holograficzne lub ferroelektryczne, które pomieszczą jeszcze więcej danych w jeszcze mniejszej przestrzeni.

Rosnące koszty badań i rozwoju, a także niskie marże na gotowe wyroby powodują coraz więcej fuzji przedsiębiorstw z tej branży. Dotyczy to zarówno producentów wyrobów finalnych, jak i kooperantów.

Status i cele krótkoterminowe

Rozwój - gęstość zapisu twardych dysków i możliwy rozwój przy rocznym wzroście (CGR) o 60 lub 100 procent (źródło - IBM).

Rozwój - gęstość zapisu twardych dysków i możliwy rozwój przy rocznym wzroście (CGR) o 60 lub 100 procent (źródło - IBM).

Pojemność twardych dysków oscyluje obecnie wokół 60 do 80 GB na jeden talerz. Głowice zapisujące i odczytujące poruszają się w odległości nawet mniejszej niż 25 nm od powierzchni talerzy. Testowe systemy firmy Axsys mogą pozycjonować głowice z dokładnością do 0,3 µm w stosunku do ścieżki.

Napęd Seagate Barracuda 180 - do połowy 2002 roku największy twardy dysk produkowany seryjnie - ma pojemność 180 GB, na dwunastu talerzach i przy wysokości 1,6 cala (około 40 mm). Pojedynczy talerz ma pojemność

15 GB, co daje gęstość zapisu ok. 20 GB/cal2. Gęstość ścieżek wynosi ok. 31 200 ścieżek/cal, zaś gęstość zapisu - ok. 490 000 bitów/cal. Nowsze dyski o pojemności do 300 GB mają już tylko cztery talerze.

Prędkość obrotowa dysków produkowanych seryjnie sięga 15 000 obrotów/minutę, przy czym średnica talerzy takich dysków, wynosząca 2,5 cala, jest mniejsza, niż wskazywałaby na to obudowa o wielkości 3,5 cala. W ten sposób zapobiega się odkształceniom zewnętrznej części talerzy w wyniku działania ogromnych sił odśrodkowych.

Porównanie wielkości bloków

Porównanie wielkości bloków

Znawcy przedmiotu twierdzą, że prędkość obrotową można jeszcze znacznie zwiększyć. W przyszłości będą stosowane jednak nie łożyska kulkowe, lecz ślizgowe, z olejem lub powietrzem w roli środka smarnego. Obecnie są już napędy z łożyskami ślizgowymi smarowanymi płynem. Dodatkowa korzyść wynikająca z zastosowania łożysk ślizgowych to cichsza praca napędów.

Przed dwoma laty pewne amerykańskie czasopismo opracowało wraz z producentami talerzy i podzespołów koncepcję hipotetycznego napędu o gęstości zapisu 50 GB/cal<sup>2</sup>. Dwanaście talerzy dawało teoretyczną pojemność 900 GB. Dla każdego talerza odpowiadałoby to 75 GB oraz 600 000 bitów/cal i 84 000 ścieżek/cal. Przy prędkości obrotowej 10 000 obr./min. można by uzyskać transfer rzędu 120 MB/s. Autorzy tego studium przypuszczają, że taki napęd mógłby być wkrótce produkowany, jednak w cenie nie do zaakceptowania. Napędy z wieloma talerzami są nie tylko droższe, ale też wymagają silników o większej mocy.

Mimo tak szybkiego rozwoju analiza sytuacji od roku 1996 pokazuje, że wydłuża się okres pomiędzy uzyskaniem efektów laboratoryjnych a ich wdrożeniem do produkcji. Najwyraźniej, coraz trudniej jest przełożyć wyniki badań na masową produkcję.

Wielkość bloku a pojemność dysku

Stosunkowo prostym sposobem zwiększenia pojemności przyszłych napędów dyskowych jest zwiększenie wielkości bloku. W większości dysków stosowanych dziś w komputerach PC używa się bloków o wielkości 512 B. W systemach uniksowych i linuksowych stosuje się również bloki o wielkości 1 lub 2 KB.

Rozdrobnienie przestrzeni dyskowej wymaga bardzo wiele pamięci wewnętrznej do zarządzania blokami. Producenci zalecają więc zwiększenie bloków najpierw do 4 KB. Tylko ta jedna zmiana może spowodować zwiększenie pojemności o ok. 25 procent. Analiza udziału kodu ECC, bitów synchronizacyjnych i danych zarządczych daje następujące zależności:

Wprowadzenie nowych standardów będzie wymagało długich okresów przejściowych. Tradycyjne systemy operacyjne, jak Windows, mogą w tej chwili operować tylko na małych blokach, 512 B.

Gęstość danych podwaja się co rok

Idealny - perfekcyjny nośnik magnetyczny jako cel badań.

Idealny - perfekcyjny nośnik magnetyczny jako cel badań.

Producenci cały czas starają się zwiększyć gęstość danych na talerzach magnetycznych. Od pierwszego twardego dysku (IBM RAMAC z roku 1956) gęstość danych zwiększyła się niemal liniowo z 1 Kb/cal<sup>2</sup> do ponad 1 Mb/cal<sup>2</sup> w roku 1970. W latach 1990-2000 gęstość danych zwiększyła się od niecałych 100 Mb/cal<sup>2</sup> do 10 Gb/cal2. Obecnie są prototypy laboratoryjne o gęstości zapisu i odczytu rzędu 100 Gb/cal2 (głowica i talerz). W roku 2002 firma Fujitsu poinformowała, że opracowała głowicę GMR, która może odczytywać dane zapisane z gęstością 300 Gb/cal<sup>2</sup>. W technice GMR prąd odczytu płynie poprzecznie do płaszczyzny głowicy (CPP = Current Perpendicular to Plane). Nie poinformowano jednak do tej pory o opracowaniu stosownej głowicy zapisującej.

Na początku lat dziewięćdziesiątych średnioroczna stopa wzrostu (CGR) gęstości zapisu wynosiła 60 procent zaś od roku 1997 wzrosła do 100 procent. Od pewnego czasu obserwujemy jednak spowolnienie tempa wzrostu.

Nieustannie dotąd przesuwana bariera superparamagnetyczna wynosi obecnie około 1000 Gb/cal<sup>2</sup>. W publikacji IBM z maja 2000 roku widziano ją na poziomie zaledwie 40 Gb/cal<sup>2</sup>. Prawdopodobnie jednak uda się ją przesunąć aż do poziomu pojedynczego spinu elektronu. Inna teoria na temat przypuszczalnej granicy możliwości zapisu magnetycznego odwołuje się do energii cieplnej. Dopóki energia magnetyczna magnesu elementarnego jest większa ponad 50-krotnie od jego energii cieplnej w temperaturze pokojowej, dopóty taki magnes elementarny uznawany jest za stabilny (przez ok. 10 lat).

Gdzie jest bariera superparamagnetyczna?

Jedną z przyczyn końca zapisu magnetycznego jest bariera superparamagnetyczna, górna granica możliwej gęstości zapisu. Za jej przyczynę uznaje się niestabilność termiczną.

Komórki pamięci na powierzchni talerza magnetycznego składają się wielu tysięcy pojedynczych magnesów elementarnych. W trakcie zapisu wymusza się na nich określoną polaryzację (inną dla ZERA i JEDYNKI). W wyniku pobudzenia termicznego niektóre z tych cząsteczek magnetycznych zmieniają polaryzację. W dłuższym okresie cała komórka może utracić swoje właściwości, gdy wszystkie domeny magnetyczne spolaryzują się w przypadkowy sposób. Uznaje się, że trwałość zapisu na twardych dyskach wynosi dziesięć lat, choć zwykle nie są używane aż tak długo.

Tego rodzaju procesy fizyczne zależą od materiałów, temperatury, technologii produkcji i materiałów wiążących. Dlatego bariera superparamagnetyczna nie jest wielkością stałą. Do tej pory była ciągle przesuwana w wyniku zastosowania lepszych materiałów i metod produkcji.


Zobacz również