Dwa rdzenie dają czadu

Wielordzeniowość odważniej wkracza na rynek kart graficznych. To, że tTakie karty mogą być wyraźnie zwiększać wydajność grafiki 3D, co udowadnia najnowszy model ATI Radeon HD 3870 X2.


Wielordzeniowość odważniej wkracza na rynek kart graficznych. To, że tTakie karty mogą być wyraźnie zwiększać wydajność grafiki 3D, co udowadnia najnowszy model ATI Radeon HD 3870 X2.

Karty graficzne wyposażone w dwa rdzenie to nie nowość. W swojej ofercie Jjuż lata temu oferowały je modele takie miał zarówno koncern ATI (choćby pamiętny Rage Fury MAXX), jak i NVIDIA (GeForce 7950 GX2). Pomysł jest prosty:, na jednej płytce laminatu (czasem dwóch, jak w przypadku modelu NVIDII) zmieścić de facto dwie karty graficzne, które współpracując ze sobą, będą tworzyły grafikę 3D szybciej niż standardowa, pojedyncza karta. Dzięki szybkiemu interfejsowi PCI Express komunikacja pomiędzy procesorami może odbywać się sprawnie, a coraz nowocześniejszy proces produkcyjny GPU pozwala na obniżenie ich temperatury procesorów i ułatwia konstrukcję dwuprocesorowych "potworów". ATI, dzięki Radeonowi HD 3870 X2, udało się po raz pierwszy od dłuższego czasu dorównać pod względem wydajności topowym najlepszym produktom NVIDII. Model ten w naszych testach okazał się praktycznie równie szybki, jak GeForce 8800 GTX i Ultra, a co równie ciekawe - jest od nich o kilkadziesiąt procent tańszy.

2 Dwa Radeony HD 3870 na pokładzie

Na razie NVIDIA oferuje współpracę
dwóch kart graficznych w ramach SLI. Już wkrótce zaproponuje rozwiązanie podobne do ATI, czyli dwa procesory graficzne zamontowane na jednej karcie.

Na razie NVIDIA oferuje współpracę

dwóch kart graficznych w ramach SLI. Już wkrótce zaproponuje rozwiązanie podobne do ATI, czyli dwa procesory graficzne zamontowane na jednej karcie.

Pod względem mikroarchitektury samych procesorów nie znajdziemy ma żadnych nowości. Są to dwa dobrze już znane układy Radeon HD 3870. AMD nazwało je kodowo roboczo RV670 i tylko z minimalnymi zmianami przejęło skopiowało ze starszej karty Radeon HD 2900 XT. Podczas gdy Radeon HD 2900 XT zbudowany był z 700 mln tranzystorów, nowy ma tranzystorów ich 666 mln. Dlaczego mniej? Bo interfejs pamięci zmniejszono z 512 do 256 -bitów. Procesor RV670 wykonany jest w procesie technologicznym 55 nm, co oznacza zmniejszenie powierzchni GPU z 408 (w Radeonie HD 2900 XT) do 192 mm2. Niewątpliwym plusem 55 nmtej technologii jest obniżony pobór mocy. Radeony HD 3850/70 mają po 320 zunifikowanych jednostek przetwarzania, 16 potoków renderingu i 16 modułów teksturujących. Radeon HD 3870 Pma pamięci GDDR4 (512 MB) Radeona HD 3870 są taktowane z częstotliwością 2,25 GHz, a i procesor pracujący z częstotliwościątaktowaniem 775 MHz. Wersja X2 ma pamięci DDR3 o łącznej pojemności 1 GB, natomiast z racji tego, że każdy z procesorów buforuje w pamięci te same tekstury, dlatego pożytek z dodatkowej pamięci jestpojemności jest żaden. Radeon wWyposażony jest także w nową wersję 2.0 interfejsu PCI Express - 2.0, który po pierwsze, oferuje podwojenie przepustowości - do 16 GB/s, a po drugie, pozwala na dostarczanie szyną PCIe aż 150 W do karty graficznej. Oczywiście aby Aby skorzystać z tych zalet, trzeba mieć, oczywiście, odpowiednią płytę główną.

Na razie NVIDIA oferuje współpracę dwóch kart graficznych w ramach SLI. Już wkrótce zaproponuje rozwiązanie podobne do ATI, czyli dwa procesory graficzne
zamontowane na jednej karcie.

Na razie NVIDIA oferuje współpracę dwóch kart graficznych w ramach SLI. Już wkrótce zaproponuje rozwiązanie podobne do ATI, czyli dwa procesory graficzne

zamontowane na jednej karcie.

Nowe Radeony są pierwszymi kartami obsługującymi nowe funkcje DX10.1 i model cieniowania 4.1. Ich wykorzystanie będzie możliwe dopiero w momenciewtedy, kiedy Microsoft udostępni Service Pack 1 do Visty. Nowe funkcje ułatwiają programistom wykorzystanie wszelkich funkcji możliwości DX10. Ponadtoo drugie pozwalają na wykorzystanie niektórych nowych funkcji, takich jak np. Global Illumination (ogólne oświetlenie w scenach, które pozwalające na uzyskanie bardzo naturalnych, prawidłowych cieni). Prawda jest taka, że funkcje te póki cona razie i tak nie będą wykorzystywane w grach (co już potwierdza część wydawców gier). Niestety wWygląda na to, żeydaje nam się, że DX10.1 będzie kolejnym nośnym hasłem reklamowym, które nie przełoży się na wykorzystanie nowych funkcji w grach. Karta jest bardzo ciężka - waży nieco ponad kilogram, jest także bardzo długa (długość porównywalna z GeForce 8800 GTX i Ultra). Do jej zasilania niezbędne jest podłączenie dwóch 6-pinowych wtyczek (jedno z gniazd na karcie jest 8-pinowe, lecz wystarczy doprowadzić zasilanie z gniazda 6-pinowego). Oba procesory graficzne komunikują się w trybie CrossFire. Zaletą tego rozwiązania, w stosunku do tradycyjnego zestawu dwóch kart pracujących w trybie CF, jest uniezależnienie się od rodzajów chipsetów na płytach głównych. CrossFire w swojej tradycyjnej postaci pracuje tylko na płytach z chipsetami Intela i AMD. Kartę X2 można za to zainstalować także na płytach z chipsetami NVIDII. W stosunku do standardowych kart HD 3870 zmieniono taktowanie procesora. Jest ono wyższe i wynosi 825 MHz. Z kolei pamięć pracuje z niższym taktowaniem 1800 MHz (z racji wspomnianego już zastosowania pamięci DDR3 w miejscezamiast DDR4).

Pobór mocy i głośność

Układ chłodzenia, choć ma potężne rozmiary i tylko jeden niewielki wentylator, jest cichy. Karta korzysta z technologii PowerPlay, która dynamicznie dopasowuje
wydajność karty do wymagań konkretnej aplikacji.

Układ chłodzenia, choć ma potężne rozmiary i tylko jeden niewielki wentylator, jest cichy. Karta korzysta z technologii PowerPlay, która dynamicznie dopasowuje

wydajność karty do wymagań konkretnej aplikacji.

Pod względem poboru mocy karta mile nas zaskoczyła. Z pewnością nie można jej nazwać energooszczędną, lecz zważywszy na zastosowanie dwóch procesorów graficznych pobór mocy zbliżony do GeForce 8800 GTX można uznać za dobry wynik. W stanie spoczynku nasz komputer testowy z Radeonem HD 3870 X2 potrzebował ok. 155 W energii, podczas gdy ten sam komputer z fabrycznie podkręconym GeForce 8800 GTX wykazywał się większym, bo aż 215-watowym apetytem, aż na 215 W. Z kolei pod obciążeniem obie karty wypadały podobnie, pobierając ok. 335 W energii. Radeon jest kartą cichyą, pojedynczy jeden wentylator daje sobie radę z odprowadzeniem ciepła absorbowanego przez potężny radiator. Nawet w trybie szybszej pracy wentylatora (uruchamia się podczas dłuższego grania) hałas generowany powodowany przez kartę jest niewielki.

Wydajność

Wyniki testów kart graficznych

Wyniki testów kart graficznych

Konfiguracja platformy testowej: płyta główna ASUS P5K Deluxe, 2x1 GB RAM Patriot DDR2 800 (PDC22G6400LLK), procesor Intel Core 2 Extreme X6800, twardy dysk twardy Samsung SP2004C SATA, system operacyjny Windows Vista Ultimate PL 32-bit, najnowsze sterowniki sterowniki do kart graficznych. Jeśli chodzi o wydajność karty, to na pewno wiele zależało będzie zależało od aktywności zespołu ATI, pracującego nad sterownikami. Wynika to z faktu, iż dwa procesory współpracują w trybie CrossFire i aby uzyskać przyspieszenie przyśpieszenie wyświetlania grafiki 3D, w sterownikach karty muszą znaleźć się odpowiednie profile gier. We wszystkich grach i aplikacjach, jakich używamy do testowaniaów kart, CrossFire pracował poprawnie, jednak szczególnie w przypadku nowych grachier może się zdarzyć, że odpowiednich ustawień w sterownikach zabraknie i wydajność karty będzie odpowiadała wydajności pojedynczegomu Radeonaowi HD 3870. W części testów X2 wygrywał z podkręconym GeForce'em 8800 GTX, w innych "stara", ale jara karta NVIDII okazywała się szybsza. Odnotowaliśmy jednak, że w ekstremalniew najwyższej wysokich rozdzielczościach, po uruchomieniu pełnoekranowego wygładzania krawędzi i filtrowania tekstur, karcie ATI zdarza się wyraźnie zwolnić i wtedy wyświetla obraz wolniej niż GeForce 8800 GTX. Dużo zależy jednak od aplikacji - widać, że w części gier CrossFire świetnie poprawiawyraźnie zwiększa wydajność, a w innych nie jest już mniejtak skuteczny. Przy cenie ok. 1400 zł, jaką obiecuje zapowiada ATI, stawiamy jednak na dwuprocesorowy model, który jest o ok.mniej więcej 500 zł tańszy od szybkich kart NVIDII.

Limitowane 8 rdzeni

Dla wyjątkowo wymagających konsumentów Intel przygotował limitowaną edycję (2000 sztuk na cały świat) platformy Skulltrail. Produkt przeznaczony jest zarówno dla zasobnych w fundusze graczy, jak i osób wykorzystujących komputer PC jako stację roboczą. Płyta główna jest ogromna, w nietypowym dla komputerów biurkowych formacie E-ATX (33x30x5 cm). W platformie pracują pamięci FB-DIMM, używane główne w serwerach. Dwa procesory, które na niej montujemy, to Core 2 Extreme QX9775, najszybsze dostępne obecnie CPU, wyposażone w 12 MB pamięci podręcznej drugiego poziomu. Niestety wyposażone są w podstawki Socket 771, czyli inne niż stosowane w desktopach Intela Socket 775. Nie można zamontować w nich standardowych procesorów serii Core 2 Duo i Quad. Każdy z procesorów Core 2 Extreme QX9775 ma cztery rdzenie pracujące z częstotliwością 3,2 GHz. Dodatkowo płyta o symbolu D5400XS dysponuje czterema portami PCI Express x16, które są przygotowane do obsługi czterech kart graficznych. Zastosowany chipset to Intel 5400, obsługujący szynę systemową 1600 MHz. Ciekawostką są układy NVIDII, nForce 100 MPC, które pozwalają na pracę platformy Intela z kartami NVIDII w trybie SLI. Zatem dla kogo jest prezentowana platforma? Dla przeciętnego gracza nie jest atrakcyjna. Wystarczy policzyć koszt komponentów niezbędnych do jej zbudowana, aby dojść do wniosku, że kompletny komputer Skulltrail musi kosztować ok. 20-25 tys zł. Jest to więc suma astronomiczna. Obecnie korzyści z dwóch 4-rdzeniowych procesorów odczują z pewnością osoby pracujące z aplikacjami graficznymi (rendering 3D, CAD) oraz obróbką i kodowaniem filmów. W grach moc ośmiu rdzeni pozostanie niewykorzystana, bo - jak wskazują nasze testy - najnowsze gry mają nawet problem ze skorzystaniem z czterech rdzeni.

PCI Express 2.0 - czy potrzebne?

Coraz więcej kart graficznych i płyt głównych wyposażonych jest w interfejs komunikacyjny PCI Express 2.0. Pod względem fizycznym zarówno PCI Express 2.0, jak i 1.0 są takie same. Gołym okiem<a uzbrojonym w lupę zauważy?> użytkownik nie zauważy różnic, co istotne - nowszy interfejs PCI Express 2.0 jest kompatybilny wstecznie ze starszą wersją. Dzięki temu nie ma problemów z pracą starszych kart graficznych na nowszych płytach głównych i odwrotnie. Pod względem specyfikacji PCI Express 2.0 oferuje dużo większe możliwości niż 1.0. Podwojono przepustowość do 16 GB/s. Kolejny plus to zwiększenie możliwości zasilania karty graficznej za pośrednictwem szyny PCI. Teraz do karty można dostarczyć nią do 150 W energii. To dużo, wystarczy do zdecydowanej większości kart graficznych i nie trzeba będzie dodatkowo dostarczać energii specjalnym kablem z zasilacza. Jeśli chodzi o korzyści wynikające ze zwiększenia przepustowości interfejsu, to choć producenci chwalą się, że ich produkty z PCI Express 2.0 pracują wydajniej, my nie zauważyliśmy takiej zależności. Nasze testy dowiodły, że karty z nowym interfejsem pracują tak samo wydajnie na płytach z PCI Express 1.0, jak i 2.0. Być może, w przyszłości sytuacja się zmieni, lecz kupując kartę obecnie, lepiej nie sugerować się rodzajem interfejsu, w który ją wyposażono.