Gigadyski do raportu

Przejęcie przez Maxtora działu HDD firmy Quantum czy niedawna rezygnacja Fujitsu z napędów 3,5-calowych wyraźnie potwierdzają, że twarde dyski to wyjątkowo trudny biznes. Mimo to klienci wciąż muszą wybierać między kilkudziesięcioma różnymi modelami o zbliżonych parametrach.

Przejęcie przez Maxtora działu HDD firmy Quantum czy niedawna rezygnacja Fujitsu z napędów 3,5-calowych wyraźnie potwierdzają, że twarde dyski to wyjątkowo trudny biznes. Mimo to klienci wciąż muszą wybierać między kilkudziesięcioma różnymi modelami o zbliżonych parametrach.

Parametry techniczne i wyniki testów twardych dysków

Parametry techniczne i wyniki testów twardych dysków

Dla ułatwienia decyzji w laboratorium PCWK przetestowaliśmy 31 modeli twardych dysków pochodzących z sześciu firm: Fujitsu, IBM, Maxtor (wraz z Quantum), Samsung, Seagate oraz Western Digital. Najmniejszy z napędów ma 10 GB pojemności, największe dyski oferują aż 80 GB miejsca, aczkolwiek w sprzedaży dostępne są także modele 100 GB. Średnia pojemność dzisiejszego twardego dysku to 40 GB, lecz wyraźnie widać przesuwanie się tej wielkości w kierunku 60 GB. Coraz mniejszy jest przy tym koszt archiwizacji 1 MB danych, będący stosunkiem ceny urządzenia do jego pojemności; za te same pieniądze co rok temu dziś kupisz znacznie większe napędy.

Wzrost pojemności jest zasługą zwiększającej się z roku na rok gęstości powierzchniowej, czyli stopnia upakowania danych na jednostce powierzchni, wyrażanego zwykle w gigabitach na cal kwadratowy. Typowy dysk peceta - tzn. mieszczący się w obudowie o wysokości 1 cala - zbudowany jest bowiem z jednego lub kilku talerzy (maksymalnie 4 lub 5), nad których powierzchnią poruszają się głowice zapisująco-odczytujące.

W zależności od użytej gęstości powierzchniowej jeden talerz może mieć dziś 20, 30 lub 40 GB pojemności, przy czym podawana wartość obejmuje obie strony. Stosując odpowiednią konfigurację talerzy i głowic, uzyskuje się różne pojemności, np. mając talerz 40 GB i jedną głowicę, otrzymasz dysk 20 GB. Dwie głowice wykorzystują już pełną pojemność talerza, natomiast w dysku wyposażonym w 3 takie talerze i 5 głowic otrzymasz 100 GB.

Jak widać, wzrost gęstości powierzchniowej umożliwia uzyskanie większych pojemności przy tej samej liczbie talerzy. Skraca się też czas dostępu do blisko sąsiadujących ze sobą danych, ponieważ głowica pokonuje mniejszą drogę.

Nic dziwnego, że w laboratoriach producentów wciąż trwa wyścig o jak największe upakowanie informacji. Koncernowi IBM udało się opracować technologię ochrzczoną roboczo "pixie dust", która pozwoli uzyskać gęstość około 100 Gb/cal2 (dla porównania, dzisiejsze modele używają 20-40 Gb/cal2). To oznacza, że w ciągu mniej więcej dwóch lat mogą się pojawić dyski o pojemności nawet 400 GB. W dalszej przyszłości zmiana sposobu zapisu pojedynczych bitów na magnetycznym podłożu ma zapewnić pojemności rzędu jednego terabajta (1000 GB). Po drodze do tak gigantycznych dysków trzeba jednak pokonać duchy przeszłości: ograniczenia interfejsu ATA.

Więcej naraz

Test twardych dysków

Test twardych dysków

Wszystkie testowane dyski wyposażono w interfejs ATA/100, zwany także UltraATA 5 lub UltraDMA 5. Umożliwia on przesyłanie danych z dysku do komputera z maksymalną prędkością 100 MB/s, jeśli pozwala na to kontroler IDE w pececie. Praktycznie każdy komputer (albo płyta główna) kupiony w ciągu ostatniego roku, półtora ma kontroler pracujący w trybie ATA/100. Jeśli masz maszynę ze starszą wersją interfejsu, dysk ATA/100 nie odmówi współpracy, jedynie ograniczy maksymalny transfer do 66 (ATA/66) lub 33 (ATA/33) MB/s. Mając tylko jeden twardy dysk, w codziennych zastosowaniach nie powinieneś odczuć żadnej zmiany wydajności, jako że przepustowość interfejsu ustalana jest zawsze na wyrost i ma znaczenie wówczas, gdy na jednym kontrolerze pracują dwa urządzenia.

Okazuje się jednak, że już wkrótce ATA/100 nie wystarczy. Dyski są coraz szybsze i większe, a interfejs staje się powoli wąskim gardłem ich komunikacji z jeszcze szybszymi procesorami i pamięciami.

W obecnej postaci interfejs ATA nie jest w stanie obsługiwać dysków większych niż 137 GB, a szybkością nie dorównuje przepustowości magistrali PCI. Pierwszy problem wynika ze sposobu adresowania danych, w którym do wskazania położenia sektora na dysku stosuje się 28 bitów. Ponieważ sektor zawiera 512 bajtów informacji, to po przeliczeniu (2 do potęgi 28 razy 512) okaże się, że maksymalnie można zaadresować 128 GB danych, co w jednostkach stosowanych przez producentów odpowiada napędom o pojemności 137 GB.

Rozwiązaniem ma być adresowanie z użyciem 48 bitów, dzięki któremu maksymalna obsługiwana przez interfejs ATA pojemność dysku wzrośnie do aż 144 petabajtów (milionów gigabajtów). W nowej specyfikacji z 256 do 65536 zwiększy się też liczba sektorów, które za jednym razem system będzie mógł pobrać z dysku, co ułatwi transfer dużej ilości danych, np. z plików wideo. Zmodernizowany standard będzie oczywiście wymagał nowych kontrolerów, dysków i modyfikacji BIOS-ów, pozostaną natomiast gniazda i okablowanie. Nie wiadomo, czy zmiana ta zostanie połączona ze znacznie prostszą do wykonania operacją zwiększenia przepustowości interfejsu do 133 MB/s. Niektórzy producenci, jak VIA Technologies, przedstawili już bowiem pierwsze układy kontrolerów zgodne z szybkim ATA/133, nie czekając na decyzje amerykańskiego komitetu normalizacyjnego ANSI T13 w sprawie zmiany sposobu adresowania.

Na tym interfejsowe zawirowania się nie kończą. W połowie 2002 roku zadebiutuje całkowicie nowy standard łączenia dysków z komputerem, zwany Serial ATA. Szerokie kable wstęgowe zostaną zastąpione przewodami i wtyczkami podobnymi do kabli PS/2 od klawiatury czy myszy, zniknie koszmar zworek, a urządzenia będzie można podłączać do siebie w czasie pracy peceta - jak w USB.

Na dodatek transfer wzrośnie początkowo do 150 MB/s, by w trzecim wcieleniu interfejsu osiągnąć 600 MB/s. Wygląda więc na to, że w przyszłym roku producenci dysków i komputerów oraz klienci będą mieli poważny dylemat: ATA/133 czy Serial ATA.

Tymczasem prawdopodobnie już około roku 2004 może wrócić problem bariery adresowania, niezwiązany jednak z interfejsem ATA, lecz z ograniczeniami systemów operacyjnych. Większość z nich, w tym Linux, Mac OS 9.x i wszystkie Windows (włącznie z 64-bitowym XP/64), używają adresowania 32-bitowego, które wystarczy "tylkoŇ do dysków mniejszych niż 2200 GB. Na szczęście do tego czasu powstaną zapewne nowe wersje systemów, uwzględniające przejście na schemat 48-bitowy.

Na wysokich obrotach

Ocena końcowa

Ocena końcowa

Bardzo istotnym parametrem twardych dysków jest ich szybkość obrotowa, czyli prędkość, z jaką kręcą się talerze

pod głowicami. Nietrudno się domyślić, że im większa, tym więcej danych jest odczytywanych w jednostce czasu, a głowica szybciej dociera do właściwego sektora w poszukiwaniu informacji.

Większość testowanych napędów charakteryzuje się prędkością 7200 obr./min; tylko 11 modeli rozpędza swe talerze do 5400 obr./min. Nasze testy potwierdziły lepszą wydajność dysków o większej szybkości obrotowej - pierwszy z modeli 5400 obr./min znalazł się dopiero na 18. miejscu.

Producenci twardych dysków na razie nie zapowiadają dalszego zwiększania obrotów, ponieważ wiąże się to z poważną modyfikacją mechaniki napędów. Aż dwukrotnie większą szybkość - 15000 obr./min - oferują natomiast niektóre modele dysków SCSI przeznaczone do zastosowań korporacyjnych: serwerów czy macierzy. W połączeniu ze znacznie większą przepustowością interfejsu UltraSCSI 160 w stosunku do IDE, daje to nie tylko rewelacyjne czasy dostępu, ale również wyższe wartości transferu danych (patrz ramka "Dyski do specjalnych poruczeń)".


Zobacz również