Strefa mocy

Z serwerami na co dzień większość z nas ma niewiele do czynienia. To jednak dzięki nim działa Internet, one obsługują systemy pocztowe wewnątrz firmy i realizują mnóstwo innych pożytecznych zadań. W małych firmach prędzej czy później działania informatyczne należy uporządkować i nadać im nowy kierunek - zwykle jest to czas na zakup serwera.

Z serwerami na co dzień większość z nas ma niewiele do czynienia. To jednak dzięki nim działa Internet, one obsługują systemy pocztowe wewnątrz firmy i realizują mnóstwo innych pożytecznych zadań. W małych firmach prędzej czy później działania informatyczne należy uporządkować i nadać im nowy kierunek - zwykle jest to czas na zakup serwera.

Dwa procesory wyraźnie podnoszą wydajność, jeśli system operacyjny potrafi to wykorzystać.

Dwa procesory wyraźnie podnoszą wydajność, jeśli system operacyjny potrafi to wykorzystać.

Właściwie każdy komputer typu PC wyposażony w kartę sieciową mógłby pełnić funkcję serwera sieciowego - tak się przynajmniej wydaje na pierwszy rzut oka. Gdy jednak dokładniej przeanalizować wymagania, jakim musi sprostać idealny serwer, wówczas okazuje się, że domowy pecet nie bardzo się nadaje do tej roli.

Przede wszystkim zdecydowana większość serwerów musi pracować 24 godziny na dobę przez 7 dni w tygodniu i wszystkie podzespoły muszą wytrzymać takie obciążenie. Narażone na uszkodzenia są zwłaszcza komponenty zawierające liczne elementy mechaniczne, przede wszystkim twarde dyski, ale również wentylatory czy zasilacze.

Dobry serwer również szybko i bezproblemowo realizuje żądania użytkowników. Gdy z jego danych korzystają dwie, trzy osoby, wówczas nie ma problemów. Gdy jednak ich liczba wzrasta do kilkunastu czy kilkudziesięciu, wtedy trzeba zastosować specjalne rozwiązania, które będą w stanie obsłużyć takie obciążenie. Wyobraźmy sobie, że kilku pracowników firmy wykorzystuje serwer do przerzucania dużych plików, podczas gdy kilku innych korzysta z zainstalowanej na serwerze bazy danych. Jeśli baza danych zajmie 100 procent czasu procesora, wówczas dane będą przesyłane bardzo powoli.

Wreszcie, gdyby doszło jednak do awarii, konstrukcja serwera musi zapewniać jak najszybsze wykrycie jej źródła i możliwość wymiany uszkodzonego podzespołu. Równie istotne jest, aby pozwalał w łatwy sposób wykonywać kopie zapasowe danych na wszelkie przewidziane i nieprzewidziane wypadki. Przyjrzyjmy się zatem szczegółowo konstrukcji nowoczesnego serwera.

Płyta główna, procesor, pamięć

Pamięć z korekcją błędów ECC różni się wyglądem od standardowych modułów, znanych z domowych pecetów.

Pamięć z korekcją błędów ECC różni się wyglądem od standardowych modułów, znanych z domowych pecetów.

Czasy, gdy budowa serwera opierała się na zwykłej płycie głównej, takiej jak w domowym pececie, przeszły już do historii. Obecnie niemal wszystkie serwery wykorzystują bardzo wyspecjalizowane płyty główne, które pod wieloma względami różnią się od tych, które widujemy na co dzień.

Wszystkie dostarczone do testów urządzenia zbudowano na podstawie płyt dwuprocesorowych, choć nie wszystkie wykorzystują drugi procesor (wówczas w dodatkowym gnieździe trzeba umieścić specjalną zaślepkę). Biorąc pod uwagę określony w teście przedział cenowy, nie dziwi to, że producenci zgodnie zdecydowali się wykorzystać procesory Pentium III. Zastosowanie Pentium III Xeon zdecydowanie podnosi koszty serwera, a z kolei dwuprocesorowa platforma AMD dopiero wkracza na rynek i nie zdążyła wywalczyć sobie jeszcze należytej pozycji.

Co ciekawe, wcale nie Intel jest głównym dostawcą chipsetów do serwerowych płyt głównych, przynajmniej w segmencie tanich urządzeń. Na tym polu prym wiedzie niewielka, założona w 1994 roku firma ServerWorks, która wyprodukowała już trzy generacje chipsetów z rodziny ServerSet: pierwsza przeznaczona była do procesorów Pentium Pro, druga do Pentium II, a trzecia do Pentium III. Biorąc pod uwagę, że firma zatrudnia zaledwie 85 osób, należy uznać, że odniosła niesłychany sukces (ponad 2 miliony sprzedanych chipsetów).

Charakterystyczne cechy chipsetu ServerSet III LE to m.in. obsługa maksymalnie dwóch procesorów (w wersji HE - czterech), 4 GB pamięci z zaawansowaną korekcją błędów (ECC), 2 szyn PCI 64 bity/66 MHz oraz 5 szyn 64 bity/33 MHz. Chipset jest kompatybilny ze standardem SMBus, który definiuje zasady zdalnego zarządzania serwerem.

Jedynym konkurentem w tym segmencie jest chipset 440GX Intela, oparty na niezwykle niegdyś popularnym 440BX. Jego parametry są jednak wyraźnie gorsze - dość powiedzieć, że obsługuje tylko 2 GB pamięci i pracuje z szyną systemową taktowaną z częstotliwością 100 MHz, podczas gdy ServerSet III wykorzystuje szynę 133 MHz.

Łatwy dostęp do dysków docenisz w chwili, gdy trzeba będzie zwiększyć możliwości serwera.

Łatwy dostęp do dysków docenisz w chwili, gdy trzeba będzie zwiększyć możliwości serwera.

Wszystkie płyty główne z chipsetem ServerSet III wykorzystują pamięć typu SDRAM 133 w postaci modułów DIMM. Od pamięci znanych z domowych pecetów różni je wbudowany mechanizm korekcji błędów (ECC). Jak wiadomo, informacja elektroniczna przechowywana jest w postaci ciągu zer i jedynek. Gdy dane są przesyłane pomiędzy różnymi podzespołami (np. pamięcią i procesorem), zawsze istnieje niewielkie prawdopodobieństwo, że dojdzie do przekłamania. Przykładowo, na skutek zakłóceń elektrostatycznych zero zostanie odczytane jako jedynka. W zwykłym pececie spowoduje to mniej lub bardziej poważne zakłócenia pracy (łącznie z zawieszeniem się). W przypadku serwera jest to niedopuszczalne. Aby uniknąć takich problemów, do przesyłanych danych dodaje się specjalne wartości kontrolne, które razem z danymi tworzą ustalone wzorce. Jeśli system ECC wykryje, że przesyłane dane są niezgodne z listą ustalonych wzorców, to znaczy, że wystąpił błąd. Próba jego naprawy polega na porównaniu, który z prawidłowych wzorców jest najbardziej podobny do niewłaściwego ciągu danych. Gdy taki wzorzec zostanie znaleziony, zastępuje błędne dane.

Minimalną rozsądną wielkością pamięci jest 256 MB, ponieważ na serwerze często uruchomionych jest wiele niezależnych, pamięciożernych wątków. Utrata wydajności przy zastosowaniu tylko 128 MB pamięci widoczna byłaby niezależnie od modelu wykorzystania serwera (serwer aplikacji, plików czy WWW).

Charakterystyczną cechą serwerowych płyt głównych jest wykorzystanie podwójnej magistrali PCI. Jedna z nich przejmuje wszystkie operacje związane z przesyłaniem danych z mostka południowego i do niego, a druga realizuje pozostałe funkcje, znane ze zwykłych pecetów.

Skoro jesteśmy przy magistrali PCI, trzeba wspomnieć o technologii opracowanej przez Compaqa, a stosowanej przez większość producentów. Chodzi o HotPlug PCI - mechanizm pozwalający wymienić uszkodzoną kartę PCI bez wyłączania serwera. Korzyści z takiego rozwiązania najłatwiej wyjaśnić na przykładzie. Jeśli w serwerze pracują dwie karty sieciowe, zazwyczaj stanowią swoisty tandem - gdy dojdzie do awarii jednej, wówczas druga niezauważalnie dla użytkowników przejmuje jej funkcje (w urządzeniach Intela funkcja ta nazywa się AFT). W tym czasie administrator może wymienić uszkodzoną kartę na sprawną, nie wyłączając serwera ani na sekundę.

Niestety, w przedziale cenowym ustalonym na użytek niniejszego testu, jedynie serwer IBM wykorzystywał technologię HotPlug PCI.

Co jeszcze na płycie głównej?

Wydajne chłodzenie ma kluczowe znaczenie dla bezawaryjnego działania serwera.

Wydajne chłodzenie ma kluczowe znaczenie dla bezawaryjnego działania serwera.

Wiele względów przemawia za tym, aby z płytą główną serwera zintegrować jak najwięcej podzespołów. Przede wszystkim gwarantuje to całkowitą zgodność użytych komponentów. Ewentualne problemy ze zgodnością mogłyby spowodować niestabilną pracę serwera. Po drugie, pozwala to zaoszczędzić miejsce w obudowie i poprawia cyrkulację powietrza. Po trzecie wreszcie, integracja oznacza obniżenie kosztów.

Najczęściej z płytą główną zintegrowana zostaje karta graficzna. Prawie zawsze wykorzystywane są dość proste układy wyprodukowane przez ATI lub S3, współpracujące z 8 MB pamięci. W niektórych serwerach jest złącze AGP, pozwalające zainstalować inną kartę graficzną, jednak nie zawsze (np. IBM nie zawierał złącza AGP).

Często spotyka się również zintegrowany kontroler SCSI (Ultra160 SCSI). Służy przede wszystkim do podłączenia twardych dysków, jeśli w serwerze nie został zainstalowany dodatkowy kontroler, z lepszymi parametrami. Prawie każda płyta główna serwera jest również wyposażona w zintegrowaną kartę sieciową 10/100 Mb/s.


Zobacz również