Niezawodne systemy komputerowe

Niezależnie od tego, czy chodzi o publiczny serwer internetowy, firmowy serwer plików czy komputer sterujący produkcją, awaria oznacza stratę finansową i utratę prestiżu. A przecież zabezpieczenie komputera przed awarią możliwe jest już przy stosunkowo niewielkich nakładach.

Niezależnie od tego, czy chodzi o publiczny serwer internetowy, firmowy serwer plików czy komputer sterujący produkcją, awaria oznacza stratę finansową i utratę prestiżu. A przecież zabezpieczenie komputera przed awarią możliwe jest już przy stosunkowo niewielkich nakładach.

Wraz z rozwojem Internetu sprawność serwerów stała się sprawą publiczną - wizerunek przedsiębiorstwa tworzy się lub upada w zależności od dostępności kombinacji sprzętu i oprogramowania. Awarie są bardzo dolegliwe i mogą w krótkim czasie spowodować zmniejszenie obrotów i odpływ klientów. Również awaria sprzętu wykorzystywanego na wewnętrzne potrzeby firmy oznacza przerwę w pracy i może powodować duże koszty. Rozwiązaniem są systemy odporne na awarię. Niestety, profesjonalni dostawcy tego rodzaju sprzętu żądają za niego sum, które mogą przyprawić o zawrót głowy. Granicę 50 tysięcy euro można przekroczyć już na dzień dobry.

Zaangażowany w swoją pracę administrator systemu na pewno zada sobie pytanie, czy nie można taniej zapewnić sobie bezpieczeństwa. Otóż można - nawet standardowy komputer, który ma pełnić funkcję serwera, można zamienić stosunkowo niewielkim kosztem w całkiem bezpieczny system. Warunek - trzeba znać jego słabe punkty, wymagające modyfikacji.

Źródła problemów to: awarie sprzętu, brak zasilania, błędy oprogramowania i ataki z zewnątrz. W tej części zajmiemy się wyłącznie trzema pierwszymi problemami. Ich rozwiązaniem są niedrogie systemy RAID, niezawodne zasilacze, nadmiarowe karty sieciowe i oprogramowanie gwarantujące dostępność. Statystyki pokazują, że główną przyczyną awarii są zasilacze sieciowe i twarde dyski. O bezpieczeństwie systemów decydują też całkiem niepozorne drobiazgi.

Diabeł tkwi w szczegółach

W wypadku sprzętu powtarzają się głównie dwie przyczyny awarii - usterki mechaniczne i kłopoty z chłodzeniem. Defekty mechaniczne to wadliwy styk elementów elektrycznych w wyniku zanieczyszczenia lub korozji, a także zużycia obracających się części, a więc twardych dysków, napędów CD-ROM i licznych wentylatorów.

Ciągły przepływ powietrza przez komputer wywołuje efekt odkurzacza - zassane drobiny kurzu osadzają się na stykach i z czasem zaczynają być źródłem problemów, szczególnie podczas instalacji nowych podzespołów. Jednocześnie zanieczyszczenia pogarszają chłodzenie podzespołów. Obudowy lepszej jakości wyposażone są w filtry włókninowe na otworach zasysających powietrze. Od czasu do czasu należy je czyścić, w przeciwnym razie zwiększone opory przepływu mogą doprowadzić do przegrzania komputera.

Serwer zamknięty w chłodzonej i pyłoszczelnej obudowie jest bezpieczny.

Serwer zamknięty w chłodzonej i pyłoszczelnej obudowie jest bezpieczny.

Powodem przegrzania jest najczęściej uszkodzenie wentylatorów, dlatego warto stosować sprawdzone rozwiązania - czujniki temperatury wewnątrz obudowy komputera i wentylatory z wyjściem tachometrycznym. Gdy wentylator ulegnie uszkodzeniu lub spadną jego obroty, komputer podniesie alarm. Równie ważny jest właściwy dobór wentylatorów. Doświadczenie pokazuje, że nawet zwykły komputer biurkowy może obecnie pobierać w szczycie ponad 250 W, które przecież muszą w końcu opuścić obudowę. Za małe wentylatory, zanieczyszczenia i niewłaściwe rozmieszczenie podzespołów wewnątrz obudowy - na przykład złe prowadzenie płaskich kabli i ciasno upakowane szybkie twarde dyski - powodują gwałtowne zużycie i starzenie się podzespołów.

Wysoka temperatura skraca żywotność urządzeń. Jeżeli podzespół zaprojektowany do pracy w otoczeniu o temperaturze 25ĽC pracuje w temperaturze 50ĽC, jego projektowany czas pracy skraca się o połowę. Pierwsze usterki mogą wystąpić już po dwóch latach. To często spotykany problem twardych dysków.

Jeżeli w upalne letnie dni komputer smaży się we własnym sosie, awaria jest niejako z góry zaprogramowana. Dlatego profesjonalne serwery pracują zwykle w kosztownych, klimatyzowanych pomieszczeniach. Jeżeli takie rozwiązanie jest za drogie, można zastosować chłodzone obudowy serwerowe. W takiej izolowanej obudowie serwer czuje się jak w lodówce.

Niedrogie systemy RAID

Awarie twardych dysków są szczególnie dotkliwe, ponieważ wiążą się z utratą danych. Systemy RAID z nadmiarowym zapisem na wielu dyskach chronią przed utratą danych. Dodatkową ich zaletą jest większa wydajność, wynikająca z równoległych procesów zapisu i odczytu. Z kolei ich wadą są wyższe koszty nośników pamięci i specjalnych kontrolerów RAID. Wady są stosunkowo niewielkie, jeżeli uwzględnić na przykład koszty ręcznego odtworzenia danych z kopii zapasowych. Ale uwaga: systemy RAID nie chronią przed utratą danych w wyniku ich skasowania lub ataku wirusa!

Najprostszy system RAID to dysk lustrzany, czyli RAID-1. W tym wypadku dane zapisywane są jednocześnie na dwóch identycznych dyskach. Mimo rozrzutnego gospodarowania przestrzenią dyskową jest to stosunkowo korzystne rozwiązanie, ponieważ nie obciąża zasobów komputera obliczaniem sum kontrolnych. Obecnie dostępne są również kontrolery RAID do dysków IDE, pozwalające koszt rozwiązania utrzymać na umiarkowanym poziomie. Kontroler ATA/100 RAID PCI kosztuje ok. 150 zł, dlatego kontrolery IDE-RAID można polecić również amatorom filmów wideo i graczom, których komputery pracują pod kontrolą Windows 98.

W wypadku szybkiego interfejsu IDE bardzo ważna jest długość kabli. Szczególnej ostrożności wymaga stosowanie wymiennych kieszeni na twarde dyski, gdyż styki utrudniają transfer danych. W razie wątpliwości należy poszukać zestawu, który był testowany pod tym kątem.

Wydajność operacji zapisu macierzy RAID-1 jest taka sama, jak pojedynczego dysku, gdyż dane są zapisywane na oba dyski jednocześnie. Podczas odczytu dane pobierane są po połowie z każdego dysku, a rzeczywista szybkość odczytu zwiększa się o współczynnik 1,6-1,8.

W macierzy RAID-0 dane nie są zapisywane w sposób lustrzany na dwóch dyskach, lecz dzielone między dyski. Uzyskuje się wówczas również wzrost wydajności zapisu, ale kosztem bezpieczeństwa danych. Wyniki pomiarów można znaleźć w naszym artykule na temat Ultra-ATA/100. Wynika z nich, że maksymalny transfer napędu IBM Deskstar 75 GXP w macierzy RAID-0 z dwóch dysków wzrósł z 36 do 72 MB/s. Transfer przy odczycie zwiększył się z 13,5 do 20,9 MB/s.

Kontrolery Fasttrak firmy Promise umożliwiają podłączenie czterech napędów IDE w układzie RAID-10 (wymawiaj: jeden-zero). Stosuje się tu tzw. striping, czyli podział danych na części zapisywane jednocześnie na dyskach oraz na koniec zapis lustrzany. Podział danych pomiędzy napędy daje duży wzrost wydajności, z kolei zapis lustrzany pozwala zachować bezpieczeństwo danych.


Zobacz również