Nowy GeForce na szczycie

Po serii umiarkowanie udanych kart graficznych GeForce 9xxx, będących w istocie GeForce 8xxx po liftingu, NVIDIA zaprezentowała coś naprawdę świeżego, wynoszącego wydajność graficzną na wyższy poziom. GeForce GTX 280 i 260 to prawdziwe graficzne giganty.

Po serii umiarkowanie udanych kart graficznych GeForce 9xxx, będących w istocie GeForce 8xxx po liftingu, NVIDIA zaprezentowała coś naprawdę świeżego, wynoszącego wydajność graficzną na wyższy poziom. GeForce GTX 280 i 260 to prawdziwe graficzne giganty.

Modele z serii GeForce GTX 280/260 na odpowiednich płytach głównych z chipsetami NVIDII mogą pracować w konfiguracji Tri-SLI, istotnie zwiększając wydajność generowania grafi ki 3D.

Modele z serii GeForce GTX 280/260 na odpowiednich płytach głównych z chipsetami NVIDII mogą pracować w konfiguracji Tri-SLI, istotnie zwiększając wydajność generowania grafi ki 3D.

Przedstawiając nowe procesory graficzne GeForce GTX 280/260, NVIDIA mocno podkreśla, że nie należy ich oceniać wyłącznie jako układów do obróbki grafiki 3D. Nowe GPU mają stanowić swego rodzaju konkurencję dla procesorów ogólnego zastosowania (CPU). Przygotowanie programów do obsługi GPU NVIDII ma zapewniać technologia CUDA (Compute Unified Device Architecture). Poznaliśmy ją przy okazji premiery układów GeForce 8800 GTX, teraz NVIDIA zamierza aktywniej promować to rozwiązanie, udostępniając SDK do systemu Vista. Pewne obliczenia GPU wykonuje szybciej, ale obecnie prawie we wszystkich zastosowaniach to od CPU zależy wydajność pracy komputera. Analizując możliwości procesora, odnosimy się do jego zastosowania przez typowego użytkownika. Oczywiście nie od dziś wiadomo, że część aplikacji, korzystając z architektury strumieniowej GPU, pracuje o wiele wydajniej.

W czym lepszy niż CPU

Pobór mocy

Pobór mocy

Powiedzmy zatem, w czym - zdaniem producenta - nowy GeForce jest lepszy od najlepszego CPU. Chodzi o specyficzne obliczenia matematyczne (analiza finansowa) oraz związane z analizą danych w medycynie, biofizyce, fizyce, obróbka audio, wideo (głównie kodowanie wideo, skalowanie obrazu itp.). Wydajność w tych zadaniach po użyciu GPU może wzrosnąć nawet ponad stokrotnie i rzeczywiście sporo instytucji finansowych oraz naukowców zajmujących się analizą danych i medycyną korzysta ze specjalnych stacji roboczych opartych na procesorach graficznych. Niestety, na razie GPU w komputerze użytkownika domowego ogranicza się do podstawowej roli - wyświetlania grafiki. Mamy nadzieję, że wkrótce będzie inaczej, lecz to zależy w największym stopniu od producentów oprogramowania, którzy muszą przystosować aplikacje do współpracy z układem graficznym. Pierwsze zasługi na tym polu ma nie tyle NVIDIA, co ATI, które już dawno zaoferowało narzędzie pozwalające na zaprzęgnięcie GPU do kodowania materiału wideo. Teraz NVIDIA oferuje podobne rozwiązanie, oparte na technologii CUDA.

Kodowanie w mgnieniu oka

Przykładem potencjału obliczeniowego GPU może być wspomaganie kodowania wideo. NVIDIA wraz z kartami udostępniła testującym znajdującą się w fazie beta aplikację BadaBOOM firmy Elements. Ten prosty program do zmiany formatu filmów korzysta z mocy obliczeniowej GPU. W obecnej postaci nie jest w pełni funkcjonalny i nie można np. samodzielnie precyzować właściwości plików wideo (rozdzielczości, bitrate'u itp.). Można jednak przekodować film MPEG2 na materiał H.264, wykorzystywany przez większość nowoczesnych odtwarzaczy multimedialnych (PSP, PlayStation 3 czy iPhone). Działanie programu jest proste. Wskazujemy plik źródłowy i ikonę z urządzeniem multimedialnym, które ma odtwarzać film. Jako plik testowy wybraliśmy krótki film o rozdzielczości 1280x720 pikseli, który przekodowaliśmy na format obsługiwany przez telefon iPhone (kodek H.264). Film miał stałe bitrate na poziomie 2,36 Mb/s. Aby porównać prędkość kodowania z wykorzystaniem GPU i CPU, zaopatrzyliśmy się w popularną aplikację Total Video Converter, w której po ustawieniu identycznych parametrów pliku docelowego przeprowadziliśmy konwersję wideo.

Przy wykorzystaniu CPU zamiana plików trwała 112 sekund (procesor dwu-rdzeniowy Intel Core 2 Extreme X6800), natomiast włączenie GPU skróciło proces do 27 sekund. Jak widać, przyśpieszenie jest ogromne. Teraz pozostaje czekać, aż w podobne mechanizmy zostaną wyposażone komercyjnie dostępne aplikacje do obróbki wideo i audio. Z pewnością osoby kręcące filmy kamerami HD z radością powitają możliwość zakodowania materiału w ciągu dwóch, a nie ośmiu czy dziesięciu godzin. Niestety, testowy program BadaBOOM działa na razie tylko z kartami GTX 280 i 260, więc nie mogliśmy sprawdzić, jak radzą sobie z kodowaniem przy użyciu GPU inne karty NVIDII. Firma twierdzi, że wkrótce zostanie udostępniona wersja aplikacji pracująca z wszystkimi GPU, począwszy od serii GeForce 8xxx.

Technologiczne nowości

Schemat budowy procesora grafi cznego GT 200.

Schemat budowy procesora grafi cznego GT 200.

W porównaniu z najlepszymi modelami GPU z serii GeForce 8 i 9 w nowych procesorach serii GeForce GT200 rozbudowano wiele elementów. Liczba zunifikowanych jednostek przetwarzania wzrosła ze 128 do 240 (w modelu GTX280), istotną różnicą jest też zwiększenie liczby potoków renderingu z 24 (w modelu 8800 GTX lub Ultra) do 32. Szynę komunikacyjną między procesorem a pamięciami GDDR3 poszerzono do 512 Mb. GTX260, który jest tańszą odmianą nowych kart, od modelu GTX280 różni się elementami odpowiadającymi za wydajność układu graficznego. Tak jak można się spodziewać, ma wszystkiego mniej, czyli na przykład 192 zunifikowane jednostki przetwarzania zamiast 240 i 896 MB pamięci GDDR3, a nie 1 GB. Podobnie z interfejsem pamięci, który zredukowano z 512 do 448 bitów. Liczba potoków renderingu spadła z 32 do 28. To podstawowe różnice, które będą miały wpływ na wydajność karty. Pozostaje jeszcze częstotliwość taktowania procesora, jednostek cieniowania i pamięci.

W naszych testach udział wzięła karta graficzna marki ZOTAC o fabrycznie zwiększonej częstotliwości taktowania (wersja AMP! Edition). Jeśli porównać ją do fabrycznie podkręconego modelu GTX280 tej samej firmy, okaże się, że częstotliwość pracy tańszej karty jest niższa. Procesor pracuje z taktowaniem 650 MHz (w modelu 280 - 700 MHz), natomiast jednostki cieniowania są taktowane identycznie (1400 MHz). W modelu 280 zastosowano szybszą pamięć, której częstotliwość pracy ustalono na 2300 MHz (w odmianie GTX260 na 2100 MHz). Pamiętajmy, że porównujemy dwa modele podkręcone fabrycznie. Jeśli jednak GTX260 przyrównamy do standardowych GeForce'ów GTX280 (kosztują 1780-1850 zł), to okaże się, że częstotliwość pracy tańszej karty ZOTAC-a jest niewiele niższa, a w wypadku taktowania procesora wręcz wyższa (standardowo GTX280 pracuje z taktowaniem procesora/jednostki cieniowania/pamięci 650/1400/2200). Procesor wykonywany jest w dość przestarzałym procesie technologicznym 65 nm, lecz NVIDIA nie chce eksperymentować ze zmniejszeniem rozmiaru układu, dokonując zmian technologicznych w tak drogim GPU. Nowocześniej produkowane mają być tańsze odmiany, a po dopracowaniu technologii także najlepsze GTX280 i 260.

Ile prądu, ile miejsca?

Takie gry, jak „FarCry 2”, będą wymagały ogromnej mocy obliczeniowej procesorów graficznych. Duże możliwości sprzętowej obsługi obliczeń fizycznych przez GPU, jakie oferują modele GTX 280/260, z pewnością wpłyną na atrakcyjność kart NVIDII.

Takie gry, jak „FarCry 2”, będą wymagały ogromnej mocy obliczeniowej procesorów graficznych. Duże możliwości sprzętowej obsługi obliczeń fizycznych przez GPU, jakie oferują modele GTX 280/260, z pewnością wpłyną na atrakcyjność kart NVIDII.

Sama karta ma spore gabaryty, lecz nie jest większa od znanych już gigantów, GeForce'a 9800 GX2 czy Radeona HD 3870 X2. GeForce GTX280 ma prawie 27 cm długości i waży 922 gramy (dla porównania GeForce 9800 GTX - 712 gramów, a GeForce 9800 GX2 aż 1111 gramów). Zastosowano układ chłodzenia z pojedynczym wentylatorem. Podczas pracy z aplikacjami 3D czy oglądania filmów (nawet HD) karta pracuje cicho, jednak w pełni obciążona, wyświetlając grafikę w grach, znacznie hałasuje.

Nowe procesory NVIDII doczekały się lepszego zarządzania energią. Na biegu jałowym sama karta ma pobierać około 25 W energii, natomiast odtwarzając film HD, zaledwie 10 W więcej, a maksymalnie obciążona... no cóż, 236 W. Nasze próby wykazały, że istotnie pobiera mniej energii niż poprzedniczki, zwłaszcza gdy nie wykonuje zaawansowanych obliczeń graficznych, a wyświetla np. pulpit Windows czy obraz podczas prac biurowych lub przeglądania Internetu. Kompletny komputer testowy, wyświetlając pulpit Visty, pobierał około 130 W energii. To mniej więcej tyle, ile wielokrotnie wolniejszy GeForce 9600 GT. Dla porównania: "nic nie robiąc", nasz testowy komputer z kartą GeForce 9800 GX2 pobierał 206 W energii. Po pełnym obciążeniu pobór mocy wzrastał do około 320-360 W (w zależności od modelu i jego częstotliwości taktowania). Prądożerny, dwuprocesorowy GeForce 9800 GX2 pobierał w tej samej konfiguracji 398 W. Dobrą wiadomością jest również to, że karta obsługuje technologię Hybrid Power, czyli zamontowana na odpowiedniej płycie głównej z chipsetem NVIDII (np. nForce 780a czy GeForce 8200) przy braku zapotrzebowania na dużą moc GPU może być całkowicie odłączona.

Do zasilania kart GTX260 potrzebny jest mniej wydajny zasilacz niż w wypadku GTX280. Wymagane jest podłączenie dwóch gniazd zasilania 6-pinowych, zamiast 6- i 8-pinowego w najlepszym modelu. Pobór mocy naszego zestawu testowego podczas wyświetlania pulpitu Visty wynosił 123 W, natomiast komputer z GTX280 pobierał o 7 W więcej. Dużo większe były różnice w poborze mocy po pełnym obciążeniu GPU. Komputer z GTX260 potrzebował 285 W, a z GTX280 minimum 320 W (w wypadku stosowania podkręconego modelu ZOTAC-a 358 W). Można więc powiedzieć, że fabrycznie tuningowana karta ZOTAC-a w pełni obciążona pobiera od 35 do 73 W mniej niż szybsza wersja.


Zobacz również