Sieciowe minimum

W serwerach do sieci domowych zaczyna się stosować gigabitowy Ethernet, dyski z szeregowym interfejsem i DDR RAM. Ale większość producentów woli części z wyprzedaży.


W serwerach do sieci domowych zaczyna się stosować gigabitowy Ethernet, dyski z szeregowym interfejsem i DDR RAM. Ale większość producentów woli części z wyprzedaży.

Zadaniem serwera zainstalowanego w domu lub niewielkiej firmie jest udostępnienie swoich gigabajtów użytkownikom sieci. To naturalne miejsce, gdzie powinny być przechowywane informacje, po które sięga się z różnych komputerów. Oczywiście, wspólne pliki mogą być magazynowane w poszczególnych maszynach i udostępniane w sieci, ale ten system wymagałby nieustannego zasilania całej grupy pecetów, byłby też bardzo podatny na awarie. Zamiast tego można wykorzystać jeden niewielki serwer o znikomym apetycie na prąd i miejsce.

Intelinet SA300 jako jedyny z dwudyskowych NAS-ów umożliwiał zbudowanie obu konfiguracji RAID-u. I nie wymagał do tego identycznych dysków.

Intelinet SA300 jako jedyny z dwudyskowych NAS-ów umożliwiał zbudowanie obu konfiguracji RAID-u. I nie wymagał do tego identycznych dysków.

Taki serwer NAS, czyli Network Attached Storage albo zwyczajnie dyski sieciowe, to pomysł sprzed dwudziestu lat, ale ówczesne rozwiązania, nastawione na niezawodność, są zbyt drogie na przeciętne potrzeby. Dlatego trwa upraszczanie sprzętu i oprogramowania, a jest z czego rezygnować. Klasyczny serwer wywodzi się wprost z peceta. Najpierw zabrano monitor i klawiaturę, potem inne peryferia, ale z punktu widzenia struktury połączeń dalej była to magistrala między mostkiem północnym, z procesorem i pamięcią, oraz południowym, przeznaczonym do obsługi urządzeń wymagających niższego transferu, m.in. twardych dysków. Można korzystać z tego szkieletu i udoskonalać same układy sterujące albo konstruować bardziej wyspecjalizowane, lepiej dostosowane do specyfiki serwerów, od których wymaga się w zasadzie tylko szybkiego i niezawodnego transferu między interfejsami dyskowymi a sieciowymi.

Ocena końcowa

Ocena końcowa

Oczywiście, wypieranie sprzętu uniwersalnego, ale specjalnie zaprogramowanego na specyficzne potrzeby takiego transferu przez bardziej wyspecjalizowane układy, będzie ekonomicznie uzasadnione dopiero po przekroczeniu ilościowego minimum. Ten moment właśnie nadszedł. Już w ubiegłym roku ukazały się pierwsze układy, połączenie procesora z chipsetem i mostkami, czasem także z pamięcią, kontrolerem dysków albo sieciowym: Broadcom BCM-4780 oraz jeszcze starszy NDAS 2011 firmy XiMeta. Zwłaszcza ten drugi zrobił wrażenie. Za niewiele ponad 200 zł udostępniono układ serwerowy o bardzo dużej wydajności i w postaci obudowy twardego dysku. Można grymasić, że jego maksymalna wydajność (440 Mb/s) jest za niska na potrzeby gigabitowego Ethernetu, ale przecież na drugim końcu tego łącza nie ma jeszcze dysków mogących obsłużyć podobny transfer.

Opłacalność

Opłacalność

Inna rzecz, że Koreańczycy ułatwili sobie zadanie, rezygnując z obsługi protokołu TCP/IP, który uznali za zbyt pracochłonny i pamięciożerny. Nowy protokół, zwany LPX (Lean Packet eXchange), nie kieruje się numerem IP, ale sprzętowym adresem MAC. Spłaszczenie wielowarstwowej architektury zmniejszyło zapotrzebowanie na pamięć nawet tysiąckrotnie. Przestały być potrzebne osobne układy RAM, wystarczają dwa bufory po 64 KB do odczytu i zapisu, wbudowane w układ.

Rezygnacja z TCP/IP na rzecz prostszego protokołu ma także negatywne konsekwencje. Nie można zainstalować serwera FTP czy WWW, nie działają wirtualne sieci prywatne (VPN). Trzeba by uruchomić "normalny" komputer obsługujący TCP/IP i dopiero z niego udostępnić pliki na serwerze sieciowym. To dość karkołomny pomysł. Nie wszystkim użytkownikom nawet najmniejszych sieci to ograniczenie odpowiada. Wychodząc z tego założenia XiMeta wyznaczyła granicę uproszczeń programowych, której nie będziemy przekraczać, przynajmniej w tym sezonie. Nowe układy sterujące są sprzętowo co najmniej tak samo sprawne, ale programowo żadne z rozwiązań nie rezygnuje z TCP/IP, chociaż dokonują w nim nie zawsze szczęśliwych uproszczeń. O ich potrzebie świadczą wyniki testów tajwańskiego QNAP TS-101. Ten NAS jest przedstawicielem innej koncepcji rozwoju, przyśpieszenia tempa bez najmniejszej rezygnacji z funkcjonalności. Ma wydajniejsze peryferia, gigabitowy Ethernet i obsługę dysków SATA 300, a mimo to pozostaje wolniejszy od XiMety - interfejsowo cofniętej o jedno pokolenie - nie tyle w czystym transferze, ile w narzutach na obsługę pojedynczego pliku. Ta powolność wydaje się ceną za zachowanie kompletnej funkcjonalności protokołu TCP/IP.

Z nowych procesorów poza Free-scale MPC8241 w QNAP jest jeszcze Oxford OXE800SE w "książce" Western Digitalu, który tym samym rezygnował z Broadcoma, Toshiba TMPR4925 w Intelinetach z serii Server Appliance, które łączą funkcję serwera i huba, i wreszcie najbardziej tajemniczy Marvell 88F5182, który napędza zwycięzcę testu, SC101T NetGeara.

Bezpiecznie

Na schemacie układu Oxford OXE800SE znajdziemy dobrze znane 
z peceta magistrale i kontrolery, tyle że w jednym chipie. Tylko ARM 926 
jest prawdziwym procesorem.

Na schemacie układu Oxford OXE800SE znajdziemy dobrze znane

z peceta magistrale i kontrolery, tyle że w jednym chipie. Tylko ARM 926

jest prawdziwym procesorem.

Serwery kojarzą się nie tylko z szybkością, ale i bezpieczeństwem, czyli zaczynają wchodzić w grę struktury wielodyskowe albo przynajmniej jakiś rezerwowy nośnik, chociażby pamięć USB, na którym można dublować krytyczne dane. Od ubiegłego roku wiele się poprawiło pod tym względem. Widać to najbardziej po NetGearze, który w 2006 roku pokazał jakiś rwący się koszmar, a obecnie pomysł na nowy procesor i oprogramowanie dopracowano i teraz funkcjonuje całkiem sprawnie. Wadą tego rozwiązania jest brak przyśpieszającego RAID 0, mamy tylko mirroring. Za to nie ma warunku identyczności, dyski mogą być różne, jednakowe muszą być tylko partycje na nich. Obudowa pobiera z DHCP niespodziewanie dużą pulę adresów IP, z których dwa przyporządkowuje dyskom, a resztę wykorzystuje na swoje potrzeby. Jednak ten dziwoląg działa. Przeprowadziliśmy test wydajności konfiguracji z RAID-em i bez niego i w wypadku NetGeara wynik nieźle pasuje do teoretycznych dywagacji. Kopiowanie jednego pliku na serwer trwa w konfiguracji mirrorowej dwukrotnie dłużej. Kiedy w grę wchodzą mniejsze porcje danych, transfery w obu trybach przedłużają się o podobną, dość dużą liczbę sekund. W przeciwnym kierunku (odczyt z serwera), praktycznie trwa tyle samo niezależnie od tego, czy dane pochodzą z jednego czy obu dysków.

Test wydajności konfiguracji RAID

Test wydajności konfiguracji RAID

Mniej zgodne z teorią są wyniki prób z obudową Server Appliance SA300 Intelinetu. Tam utworzyliśmy obie dostępne struktury RAID, na poziomie zerowym i pierwszym. Okazało się, że różnica wydajności zapisu między konfiguracjami raidowymi jest o wiele mniejsza niż poprzednio, a tempo odczytu - prawie takie samo. W efekcie zabezpieczenie przed uszkodzeniem dysku w tym urządzeniu jest, poza kosztem samego napędu, prawie bezpłatne. Niestety, serwer nie zalicza się do najszybszych.

Obudowy XiMety, chociaż tylko jednodyskowe, także dają szansę na zbudowanie macierzy. Każdy twardziel trzeba podłączyć do osobnego NAS-u i dopiero z takich kompletów utworzyć strukturę. Jednak w tej sytuacji dyski dzieli daleka droga, łączą się dopiero przez router, dlatego macierz zbudowana w opisany sposób nie może działać bardzo wydajnie.