Jedna płyta, cztery procesory

Jak podwoić, a nawet czterokrotnie zwiększyć wydajność komputera? Należy zastosować płytę umożliwiającą współpracę dwóch procesorów.

Jak podwoić, a nawet czterokrotnie zwiększyć wydajność komputera? Należy zastosować płytę umożliwiającą współpracę dwóch procesorów.

Płyty główne pozwalające na zamontowanie dwóch procesorów nie są nowością, jednak większość użytkowników komputerów osobistych tylko o nich słyszała. Dotychczas ich stosowanie miało sens jedynie w serwerach oraz niektórych stacjach roboczych służących do tworzenia złożonej grafiki 3D. Czy płyty główne pozwalające na korzystanie z dwóch procesorów mają przyszłość?

Płyty główne, które zawierają dwie podstawki do procesorów (w specjalnej wersji), są znacznie droższe od zwykłych, a często również wymagają pamięci z korekcją błędów, która jest nie tylko droższa, ale i wolniejsza.

Były już przeznaczone dla użytkowników mniej wymagających płyty dwuprocesorowe, np. Asus A7M266-D. Producent wprawdzie zalecał stosowanie pamięci ECC, jednak po włożeniu jednego bądź dwóch modułów bez korekcji błędów także działała bez problemu.

Serwerowa na zewnątrz

Blisko dwa lata temu AMD rozpoczęło sprzedaż serwerowych procesorów z rodziny Opteron, które wprowadziły sporo zmian w swoim segmencie. Do ich najważniejszych zalet zaliczało się rozszerzenie architektury procesora tak, żeby była zgodna z najpopularniejszymi procesorami na rynku (x86), ale jednocześnie omijała kilka ograniczeń w dotychczasowych układach. Opterony pozwalają na adresowanie 1 TB (1024 GB) pamięci bez stosowania żadnych sztuczek powodujących spadek wydajności. Pozwalają też przetwarzać dwukrotnie więcej danych w tym samym czasie. Zintegrowanie kontrolera pamięci z procesorem pozwoliło nie tylko na znaczne przyspieszenie działania, ale także na uproszczenie konstrukcji układów sterujących do tych procesorów. Kolejną, nie mniej istotną zaletą jest ograniczenie pobierania energii oraz wytwarzania ciepła dzięki dostosowywaniu szybkości pracy do chwilowego zapotrzebowania układu.

Konstruktorzy płyt głównych do serwerów i stacji roboczych modyfikują niektóre elementy tak, żeby płyty zmieściły się w ciasnych obudowach.

Konstruktorzy płyt głównych do serwerów i stacji roboczych modyfikują niektóre elementy tak, żeby płyty zmieściły się w ciasnych obudowach.

W Opteronach funkcje zarządzające konfiguracją wieloprocesorową wbudowano bezpośrednio w procesor, dzięki czemu efektywne współdziałanie układów nie wymaga stosowania specjalnych wersji chipsetów, a tym samym budowanie płyt głównych, które mogą obsługiwać od dwóch do ośmiu procesorów jest proste.

Obecne płyty serwerowe przeznaczone do procesorów Opteron zawierają gniazdo Socket 940, które ma o jeden otwór więcej niż gniazda do procesorów Athlon 64 przeznaczonych do komputerów domowych. Mogą dzięki temu korzystać z modułów pamięci z kontrolą korekcji błędów ECC (Error Correcting Code). Jest to jedna z pierwszych, niemal najważniejsza różnica między płytami głównymi do serwerów i stacji roboczych, a zwykłymi płytami do pecetów.

Płyty główne do serwerów różnią się od płyt do stacji roboczych nieco innym zestawem wyposażenia. Przede wszystkim zawierają zintegrowany układ graficzny, który umożliwia uruchomienie komputera bez instalowania dodatkowej karty graficznej. Dobre płyty serwerowe zawierają także kontrolery macierzowe z interfejsem SCSI oraz więcej niż jeden interfejs Gigabit Ethernet. Różnią się ponadto rozmieszczeniem poszczególnych elementów na płycie oraz ich wysokością (muszą się zmieścić w niskich obudowach). Na najbardziej zaawansowanych, ale i najrzadziej spotykanych płytach przeznaczonych do najmniejszych obudów, tzw. rackowych, moduły pamięci umieszcza się pod kątem ostrym (umożliwiają to odpowiednio zamontowane podstawki). To rozwiązanie rzadko stosowane, ponieważ układy chłodzące procesory zazwyczaj są wyższe i nad modułami pamięci pozostaje wolne miejsce. Również radiatory chłodzące układy sterujące mogą mieć specjalne kształty, np. wycięcie pozwalające im zmieścić się pod napędami optycznymi bądź dyskami.

Płyty główne do serwerów muszą być niezawodne, dlatego są wyposażone najczęściej w chłodzenie pasywne, dostosowane do pracy w ekstremalnych warunkach, natomiast w płytach do stacji roboczych nie jest to już wymagane i dlatego mogą być tańsze. Kolejną funkcją oferowaną przez dobre płyty główne jest tzw. chip kill - rozwiązanie pozwalające na wymianę uszkodzonego elementu (pamięci, procesora) bez wyłączania serwera.

Serwerowa od środka

Opłacalność

Opłacalność

Zazwyczaj BIOS płyty serwerowej pozwala na zdalne zarządzanie serwerem przez port szeregowy, dlatego nie trzeba podłączać monitora w razie awarii bądź rekonfiguracji parametrów serwera.

Najlepsze płyty główne zawierają także specjalne rejestry pozwalające na śledzenie takich zdarzeń, jak włączenie i wyłączenie komputera, problemy w dowolnym urządzeniu peryferyjnym czy próby nieautoryzowanego zalogowania się do komputera.

Płyt głównych do serwerów i stacji roboczych w zasadzie nie można przetaktować, bo w tego rodzaju zastosowaniach liczy się stabilność i bezawaryjność działania nawet za cenę nieco niższej wydajności. Dopiero w najnowszych konstrukcjach można w niewielkim zakresie zwiększać napięcie zasilające poszczególne komponenty. W niektórych modelach można też zwiększyć częstotliwość taktowania procesora, ale nie jest to funkcja, z której użytkownik będzie stale korzystać.

Dla wygody

Wydajność

Wydajność

Serwerowe płyty główne powoli zaczynają się upodabniać do płyt z komputerów osobistych pod względem wygody obsługi. W modelu Tyan Thunder K8WE mikrostyki umożliwiają wygodne włączenie i restart komputera, BIOS pozwala na bardzo precyzyjne ustalenie kolejności przeglądania napędów w celu załadowania systemu operacyjnego, jest też funkcja samodzielnego wybrania napędu, z którego ma być załadowany system podczas uruchamiania komputera. Upraszcza to instalację i diagnostykę serwera.

W najnowszych modelach pojawiają się opcje uruchamiania stacji roboczej z dysku flash podłączonego przez złącze USB. Również obsługa klawiatur i myszy z tym interfejsem nie nastręcza już problemów.

Podobnie jak w zwykłych płytach głównych, bardzo dobrze opisane są poszczególne złącza, pojawiają się kolorowe oznaczenia upraszczające właściwe podłączenie kabli. Nie można również narzekać na rozmieszczenie elementów w pobliżu gniazd procesorów. Zazwyczaj nie ma problemu z zamontowaniem dużego radiatora, który będzie skutecznie chłodził CPU.

Niestety, również z takimi płytami są problemy, które częściowo rozwiązuje aktualizacja BIOS-u. Szkoda jednak, że najlepsze płyty serwerowe nie zawsze informują o nieprawidłowym zamontowaniu modułów pamięci.

Nie dla każdego

Parametry techniczne i wyniki testów

Parametry techniczne i wyniki testów

Konfiguracja serwera wymaga najczęściej zastosowania znacznie mocniejszego zasilacza. Procesory w serwerach i w stacjach roboczych są w pełni obciążone przez większość czasu ich użytkowania, stąd zapotrzebowanie układu na moc. Swój udział mają też procesory dwurdzeniowe. Jeśli dodamy do tego rozbudowaną macierz dyskową, dużo modułów pamięci RAM oraz wydajną kartę graficzną, stanie się jasne, że zasilacz musi dysponować zapasem mocy.

W czasie testów zmierzyliśmy maksymalny pobór mocy. W najbardziej rozbudowanej konfiguracji, z dwoma procesorami dwurdzeniowymi, dwoma dyskami Serial ATA o prędkości 10 tys. obr./min i dwiema kartami graficznymi z układem GeForce 6600 nie przekraczał 350 W. Jednak początkowo zastosowany zasilacz 460-watowy nie podołał zadaniu i w czasie testów obciążających procesory po prostu się wyłączył. Moc czynna nie przekroczyła nominalnej wartości tego zasilacza, ale mogła ją przekroczyć moc bierna lub pozorna, których nie mierzyliśmy. Użycie zasilacza o mocy znamionowej 650 W rozwiązało problem całkowicie.

Niektóre płyty główne zawierają opcje ukryte, których nie dostrzeżemy bez zgłębienia instrukcji. Nic dziwnego, że powinny być montowane przez osoby odpowiednio przeszkolone.

nForce Pro 2200

Chipset nadal jest nieodzownym elementem płyty głównej, mimo że część jego funkcji przejęły procesory. Największy producent chipsetów do płyt głównych z procesorami AMD - firma NVIDIA - przygotowała układ sterujący nForce Pro 2200. W rzeczywistości to znany już układ nForce 4 Ultra. Ciekawostką jest układ wspomagający - nForce Pro 2050. Zawiera on samodzielny interfejs sieci gigabitowej, który nie obciąża procesora. Oferuje 20 dodatkowych linii PCI Express, co pozwala na pracę dwóch kart graficznych PCI Express x16 z pełną wydajnością. Kolejnym elementem są dodatkowe cztery kanały Serial ATA II, które obsługują również tryb macierzowy.

Układ nForce Pro 2200 zastosowano np. na płycie głównej firmy Tyan, co pozwala na skorzystanie z trybu SLI. Trzeba zainstalować dwa procesory Opteron, co wynika ze sposobu połączenia układów nForce Pro. Układ 2200 podłączany jest do pierwszego procesora przez HyperTransport, a 2050 do drugiego procesora, również łączem tego rodzaju, dlatego przepustowość łącza między układami nie jest ograniczona. Rozwiązanie powyższe ma drobną wadę: wyjęcie jednego z procesorów wyłącza tryb SLI.

Opteron kontra Athlon MP

Różnica między Athlonem XP i Athlonem 64 była dość duża, bo nowy układ wprowadzał 64-bitową architekturę, zawierał zintegrowany kontroler pamięci oraz większą pamięć podręczną drugiego poziomu i funkcje oszczędzania energii.

Jednak w wypadku procesorów serwerowych różnice są jeszcze większe. Opteron ma przede wszystkim trzy szybkie, bezpośrednie łącza HyperTransport, które umożliwiają niemal natychmiastową komunikację poszczególnych procesorów ze sobą oraz innymi komponentami komputera.

Warto pamiętać, że każdy Opteron ma własny kontroler pamięci, a dzięki łączu HT może praktycznie bez opóźnień korzystać z pamięci obsługiwanej przez kontroler drugiego procesora. W wypadku Athlona MP wolne połączenie przez FSB (Front Side Bus), magistralę systemową pracującą z częstotliwością 200 MHz, ograniczało przepustowość pamięci przypadającą na każdy procesor.

Duży wzrost wydajności pozwala na wykorzystanie zalet architektury 64-bitowej. Przede wszystkim podczas przetwarzania wszelkiego rodzaju baz danych możliwość płaskiego zaadresowania 264 komórek pozwala na prosty i szybki dostęp do niewyobrażalnych obecnie zbiorów danych. Obecne procesory 32-bitowe potrafią zaadresować do 4 GB RAM, a procesory 64-bitowe na razie do 1 TB. W rzeczywistości wcześniej kończą się możliwości systemu Windows XP x64, który obsługuje jedynie do 128 GB RAM. Z kolei w Linuksie ograniczenia zależą od dystrybucji, np. Red Hat obsługuje jedynie 64 GB.


Zobacz również