Pamięć na talerzu

Wielu uważa, że pamięć flash stanie się gwoździem do trumny starzejących się twardych dysków. Tymczasem szuflady projektantów pełne są udoskonaleń starej technologii zapisu informacji na obracających się talerzach.


Wielu uważa, że pamięć flash stanie się gwoździem do trumny starzejących się twardych dysków. Tymczasem szuflady projektantów pełne są udoskonaleń starej technologii zapisu informacji na obracających się talerzach.

Pierwszy dysk Winchester miał talerze pokryte tlenkiem żelaza. Stąd brał się ich rdzawy kolor.

Pierwszy dysk Winchester miał talerze pokryte tlenkiem żelaza. Stąd brał się ich rdzawy kolor.

Od lat pięćdziesiątych ubiegłego wieku komputery zmieniły się nie do poznania. W tamtych czasach możliwość siedzenia przy pececie umieszczonym na biurku lub kolanach wydawała się równie fantastyczna, jak podróż międzygwiezdna. Od czasu wynalezienia w latach siedemdziesiątych układów scalonych poszła w odstawkę większość elektromechanicznego żelastwa. Tylko jedno urządzenie przetrwało kilka technologicznych rewolucji. Mowa, oczywiście, o twardych dyskach, których zasada działania niewiele zmieniła się od momentu ich powstania, a mimo to są dzisiaj elementem wyposażenia nawet najnowocześniejszego komputera. W 1956 roku zadebiutował IBM 350, wykorzystujący pięćdziesiąt talerzy o 24-calowej średnicy. Do zapisu i odczytu służyły dwie głowice, przymocowane do ramion, które zapewniały dostęp do miejsc znajdujących się bliżej i dalej od osi obrotu. Dzisiejsze dyski mogą zapamiętywać nieporównywalnie większą ilość danych na dużo mniejszej powierzchni, ale dalej wykorzystuje się talerze i ramiona sterowane serwomechanizmem.

Warto prześledzić ich historię i zastanowić się, jak długo jeszcze części peceta, jako jedyne przypominające budową bardziej epokę pary i elektryczności niż czasy mikroelektroniki, będą odgrywać rolę najważniejszej pamięci masowej. Czy sędziwy dysk typu Winchester stanie przed plutonem egzekucyjnym, czy też nowe udoskonalenia spowodują jego ułaskawienie?

Droga na biurko

Mechaniczne zasady działania twardych dysków pozostają takie same przez ostatnie 50 lat. Zmieniają się tylko liczby. Talerze z modelu IBM 350 wirowały w tempie 1200 obrotów na minutę, dzisiaj nawet najszybsze napędy do wielkich komputerów nie przekraczają 15 tysięcy, a największa ich część, przeznaczona do popularnych pecetów, kręci się dwukrotnie wolniej. Z tego punktu widzenia trudno mówić o oszałamiającej prędkości rozwoju, typowej dla innych obszarów informatyki.

Nieśpiesznie skracał się także czas dostępu. W latach sześćdziesiątych było to 800 milisekund, czyli zaledwie sto razy wolniej od dzisiejszych napędów. Największą innowacją z tamtych lat były głowice zapisu/odczytu, fruwające tuż nad powierzchnią dysku na "łożysku powietrznym". Ten pomysł, wykorzystywany do dzisiaj, po raz pierwszy pojawił się w modelu IBM 1301 w 1962 roku. We współczesnych dyskach głowice krążą nad talerzami na wysokości tysiąc razy mniejszej od grubości ludzkiego włosa. Dlatego otwieranie obudowy dysku nie jest najlepszym pomysłem, nawet drobinki kurzu mogłyby poważnie utrudnić jego pracę.

Szczelne zamknięcie obudowy i kilka innych rozwiązań, dzięki którym twardy dysk zaczął przypominać współczesne napędy, wprowadzono po raz pierwszy w słynnych modelach Winchester, w roku 1973. Zmniejszenie zanieczyszczenia pozwoliło przybliżyć głowicę do talerza i poprawić jej czułość. Winchester był nazwą roboczą systemu 3340 z IBM, ale równie ważne ulepszenia pojawiły się w 1970 roku w jego poprzedniku, 3330, zwanym Merlin. Silnik krokowy, napędzający dotąd głowice odczytu i zapisu, zastąpiono rozwiązaniem z cewką, przypominającym układ magnetodynamiczny, stosowany w głośnikach (voice coil). Równie ważne było wprowadzenie systemu korekcji błędów, który pozwalał na używanie talerzy z niewielkimi nieprawidłowościami na powierzchni.

Wadą napędzania przez silnik krokowy był stały skok ruchu głowicy. Kiedy talerz wpadał w wibracje lub rozszerzał się pod wpływem ciepła, nie można było skorygować tych mikrozmian, ścieżka wypadała spod głowicy, pojawiały się błędy, które mogły uczynić dysk nieczytelnym. Inaczej w napędzie voice coil - wykorzystywano pomocnicze informacje zapisane na powierzchni talerza do ustawienia głowicy możliwie dokładnie nad ścieżką, dzięki czemu kompensowano rozszerzalność termiczną, pełzanie, efekty starzenia i inne tego rodzaju.

Do najważniejszych pomysłów umożliwiających powiększanie pojemności twardych dysków należy korekcja błędów. Rezygnacja z obowiązku bezbłędnego zapisu pozwoliła wykorzystywać w roli pamięci talerze z mniej doskonałą powierzchnią magnetyczną. Dzięki temu można było rozluźnić reżim technologiczny i obniżyć koszty produkcji. Umożliwiło to także rozszerzenie pojemności dysku, bo chociaż zagęszczenie zapisu powiększało liczbę błędów, to jednak był już system, który sobie z tym radził.

Do roku 1980 twarde dyski były wielkie i drogie, jednym słowem - poza zasięgiem przeciętnego użytkownika komputera. Wówczas firma Shugart Technology (obecnie Seagate) wprowadziła do produkcji model ST-506 z talerzami o 5,25-calowej średnicy. Co prawda, mieścił tylko 5 MB, ale był pierwszym dyskiem mniejszym od pralki automatycznej. Jego następca, dwukrotnie pojemniejszy ST-412, znalazł się na liście wyposażenia dodatkowego IBM PC XT, przechodząc do historii jako pierwszy twardy dysk produkowany do peceta. Od tego momentu technologie z pogranicza zapisu magnetycznego i mechanicznego serwomechanizmu zaczęły podlegać ciągłym usprawnieniom. Chociaż trudno wśród nich wybrać jedno najbardziej rewolucyjne, to jednak kumulowanie drobnych udoskonaleń pozwoliło na kilkusetkrotne zagęszczenie zapisu na tej samej powierzchni.

Kodowanie

Wprowadzanie coraz bardziej wymyślnego kodowania danych także przyczyniło się do powiększania pojemności twardych dysków. W ST-506 używano systemu zwanego Modified Frequency Modulation (MFM), zresztą tego samego, co w dyskietkach. Tak jak w innych systemach FM, znanych chociażby z radiowego UKF-u, informacje zapisuje się za pomocą niewielkich modulacji częstotliwości. Modyfikacja tradycyjnego FM pozwoliła na zapisywanie dwa razy więcej danych na tej samej powierzchni. To samo usprawnienie przyczyniło się do wprowadzenia pierwszych popularnych 5,25-calowych dyskietek double-density o pojemności 360 KB.

Ewolucja rozmiaru i pojemności twardych dysków

Ewolucja rozmiaru i pojemności twardych dysków

Kodowanie Run Length Limited (RLL) poprawiło w tej materii jeszcze więcej. RLL zaczęło być używane od późnych lat osiemdziesiątych w twardych dyskach, CD, DVD i bardziej zaawansowanych napędach optycznych. Kodowanie to zapobiega błędnym odczytom długich sekwencji zer, które w dotychczasowym systemie trudno było dokładnie policzyć i często wypadło ich za mało lub zbyt wiele. Przewaga RLL polegała na niekodowaniu każdej przerwy miedzy zerami, w odróżnieniu od MFM. Dzięki temu także wzrosła gęstość zapisu, nawet o 50 procent.

W większości twardych dysków nadal używa się kodowania RLL, ale od 1991 roku zostało uzupełnione o technologię nazwaną Partial Response Maximum Likelihood (PRML). Chodzi tutaj o przekształcenie słabego analogowego sygnału z magnetycznego dysku w dużą różnicę między zerem a jedynką. Mamy do czynienia ze skomplikowanym systemem pracującym z całymi sekwencjami sygnałów w połączeniu z próbkowaniem, przetwarzaniem i detekcją, wykorzystującym statystykę do wybrania najbardziej prawdopodobnego ciągu danych z odczytanego odcinka. System pozwala na wiarygodną interpretację sygnałów słabszych niż dotąd i w konsekwencji na dalsze powiększenie gęstości powierzchniowej zapisu o 30-40 procent.