W rytmie MC/DC

Wiosenny maraton Intel Developer Forum zdominowały dwa najnowsze trendy w branży komputerów: procesory wielordzeniowe oraz technologie mobilne.

Intel niemal na każdym kroku promował rozwiązania oparte na procesorach MC/DC (Multi Core/Dual Core), podkreślając to, co wiadomo było nie od dziś: dalszy wzrost wydajności zależy już nie od wyższych gigaherców, lecz od przetwarzania równoległego. Metoda zapoczątkowana przez intelowską technologię Hyper Threading, w której procesor wykonuje dwa wątki jednocześnie niczym dwa osobne CPU, znajduje teraz rozwinięcie w postaci układów dwurdzeniowych.

Procesor dwurdzeniowy to dwie niezależne od siebie jednostki obliczeniowe z własną pamięcią cache, ale korzystające ze wspólnej magistrali FSB i zasilane z jednego źródła. Podczas IDF Intel oficjalnie ogłosił wprowadzenie na rynek pierwszych układów tego typu: Pentium D oraz Pentium Extreme Edition (znanych dotychczas pod kryptonimem Smithfield). Obie serie, oznaczone liczbą 800, wykonane są w technologii 90 nm będą taktowane z częstotliwością 3,66 GHz, mają 2 MB pamięci cache L2 (po 1 MB na każdy rdzeń), współpracują z magistralą FSB 800 MHz (przy czym rdzenie osobno regulują mnożnik) i oferują 64-bitową technologię EM64T. Różnica między nimi leży w tym, że Pentium Extreme Edition dodatkowo obsługuje Hyper Threading, co umożliwia wykonywanie aż czterech wątków jednocześnie.

Układy będą współpracowały z różnymi chipsetami: do Pentium D przeznaczono zestaw Intel 945 G/P Express (o kryptonimie Lakeport), natomiast Pentium Extreme Edition będzie obsługiwany przez chipset 955X Express (Glenwood).

Dwa rdzenie, trzy implementacje

W obu procesorach rdzenie umieszczono na jednym kawałku krzemu. Następna generacja dwurdzeniowych biurkowych CPU, znana pod kryptonimem Presler, będzie już wykonana w innej technologii - rdzeni umieszczonych na osobnych płytkach krzemowych i z użyciem procesu 65 nm. Wraz z Preslerem na rynku pojawią się jednordzeniowe układy o roboczej nazwie Cedar Mill, również wykonane w procesie 65 nm.

Dwa rdzenie zbudowano jeszcze inaczej w serwerowym procesorze Montecito (patrz ramka poniżej): egzystują na jednej płytce krzemowej, ale nie są od siebie fizycznie odseparowane i pracują z tą samą częstotliwością.

W ciągu najbliższych trzech miesięcy Intel zaprezentuje kolejną generację układów Xeon MP przeznaczonych do systemów wieloprocesorowych. Najsilniejszy w tej serii będzie układ Potomac - taktowany z częstotliwością 3,3 GHz i współpracujący z aż 8 MB pamięci cache L3. Procesorom tym ma towarzyszyć premiera chipsetu E8500 (kodowa nazwa Twin Castle) - jego architektura została przystosowana do obsługi serwerowych układów wielordzeniowych, które na rynku mają się pojawić dopiero w 2006 r.

W porównaniu z obecnymi chipsetami w E8500 wprowadzono zupełnie nowe rozwiązania kontrolerów pamięci, interfejsów I/O i architektury FSB zaprojektowane specjalnie pod kątem wymagań procesorów wyposażonych w dwie zintegrowane jednostki CPU. Z punktu widzenia użytkowników korporacyjnych najważniejszym ulepszeniem nowej linii procesorów będzie implementacja znanej z procesorów mobilnych technologii SpeedStep. Umożliwia ona bieżące kontrolowanie i zmianę częstotliwości procesora w zależności od wymaganej mocy przetwarzania.

DC także w drodze

Technologia MC/DC nie ominie, oczywiście, platformy mobilnej - kolejna generacja Centrino o kryptonimie Napa zostanie oparta na dwurdzeniowym procesorze zwanym roboczo Yonah, wykonanym w procesie 65 nm. Towarzyszyć mu będzie chipset Calistoga z nowym układem graficznym oraz moduł WiFi Golan (oprócz znanych już standardów a/b/g obsłuży nowe specyfikacje - być może Ultra-Wide Broadband, czyli m.in. Wireless USB). Podobnie jak nowe procesory stacjonarne, Yonah będzie wyposażony w technologię Digital Media Boost - mówiąc prościej, w zestaw instrukcji SSE3.

W zastosowaniach mobilnych dwurdzeniowość niesie poważne wyzwania związane z oszczędnością energii. W wypadku układu dwurdzeniowego regulacji poboru mocy, a więc technologii SpeedStep, nie można zastosować w obecnym kształcie, ponieważ rdzenie nie są całkowicie odseparowane (wciąż mają wspólne zasilanie i pętlę PLL) i w danej chwili mogą być w zupełnie innych fazach pracy. Zgłoszenie żądania przejścia w fazę niższego zużycia energii (któregoś z tzw. stanów C) przez jeden rdzeń nie oznacza, że drugi w tym czasie także nie ma nic do roboty. Z tego powodu do regulacji napięcia i pętli PLL potrzebny jest nadzorca, który na bieżąco bada stan rdzeni i zezwala na żądanie stanu C dopiero w chwili, gdy obie jednostki znajdą się w tej samej fazie. Taki koordynator stanu pojawi się właśnie w Yonah.

Zdaniem Intela, pobór mocy będzie optymalny, choć nie spowoduje wydłużenia czasu pracy na baterii. Można wręcz powiedzieć, że przy podwójnym CPU o zdecydowanie wyższej wydajności rewelacją będzie utrzymanie zużycia energii na dotychczasowym poziomie.

Marketing i fakty

Czy istnienie dwóch rdzeni faktycznie przyniesie zauważalne efekty? Przykładowe demonstracje zdają się to potwierdzać - pod warunkiem, że schematy użytkowania odpowiadają rzeczywistości, bo korzyści z technologii dwurdzeniowej ujawniają się podczas intensywnej pracy wielozadaniowej. Pokazy uwzględniały właśnie takie zastosowania, np. jednoczesne odtwarzanie plików MP3 i kodowanie filmu albo odtwarzanie filmu DVD wysokiej rozdzielczości na telewizorze w jednym pokoju i granie w "Prince of Persia" na monitorze w drugim. W komputerach z jednordzeniowym CPU takie akcje "nie przejdą" albo efekty okażą się co najmniej rozczarowujące.

Przyśpieszenie widać było również w bezpośrednim porównaniu czasu renderowania scen trójwymiarowych na maszynach z Pentium Extreme Edition i Pentium 4 HT. Dwa wątki kontra cztery - w tym zadaniu różnice ujawniały się wyjątkowo wyraźnie, gdy komputer z dwurdzeniowym CPU wykonywał pracę o połowę krócej.

Oprócz dwóch rdzeni nowe procesory wyposażane są w rozwiązania mające podwyższyć bezpieczeństwo pecetów i ułatwić zarządzanie nimi w firmach: technologię Vander-pool (VT), która sprzętowo obsługuje oprogramowanie do tworzenia maszyn wirtualnych (środowisk różnych systemów operacyjnych działających jednocześnie w komputerze; w odróżnieniu od aplikacji VMWare czy Virtual PC, tu maszyna wirtualna działa bezpośrednio na warstwie sprzętowej - bez pośrednictwa systemu operacyjnego) oraz Active Management Technology (AMT), pozwalającej zdalnie np. wykonywać aktualizacje czy inwentaryzacje nawet na wyłączonych komputerach.

Dwurdzeniowe procesory - także mobilne - mają być podstawą urządzeń cyfrowego domu. Na IDF zaprezentowano wiele urządzeń Entertainment PC wykorzystujących obecne platformy sprzętowe i system Windows Media Center Edition 2005, lecz prawdziwymi perełkami okazały się prototypowe modele oparte na mobilnej platformie Napa: miniaturowe, lekkie, poręczne, bardzo stylowe, a przede wszystkim - ciche. To do nich, zdaniem Intela, należeć będzie przyszłość domowej rozrywki, a dzisiejszego peceta - wielkie, głośne pudło w większości gospodarstw zastąpią laptopy. Zresztą także w biurach miejsce dużych komputerów biurkowych zajmą niewielkie, choć bardzo wydajne terminale.

Świetlana przyszłość

Procesory dwurdzeniowe to nie jedyna nowość, jaką przedstawiał Intel. Niemniej istotne są inne owoce prac inżynierów firmy. Szczególnie perspektywiczne wydaje się odkrycie z dziedziny fotoniki (działu optoelektroniki), polegające na opracowaniu laserowego wzmacniacza na bazie krzemu. Dlaczego ma tak doniosłe znaczenie? Ponieważ dotychczas wzmacniacze wykorzystujące tzw. efekt Ramana (wzmocnienia wiązki fotonów w odpowiednim materiale) były sporymi i drogimi urządzeniami, budowanymi z użyciem kilometrów światłowodu oraz rzadkich pierwiastków. Tymczasem w tanim krzemie efekt Ramana jest 10 000 razy mocniejszy, dlatego wymaga raptem kilkucentymetrowej drogi wzmocnienia. Miniaturowe wymiary takiego urządzenia i sprawdzona, niedroga technologia krzemowa zdecydowanie ułatwiłyby zastosowanie światłowodowej transmisji danych np. w komputerach.

Jednak poważną przeszkodą w zbudowaniu krzemowego wzmacniacza okazał się efekt dwóch fotonów: zwiększanie mocy lasera-źródła (tzw. światła pompującego) w pewnym momencie powodowało zatrzymanie, a nawet zanikanie efektu wzmocnienia w krzemie. Winowajcami były swobodne elektrony, wybijane z atomów krzemu przez parę fotonów. Zjawisko wybijania elektronów rzadko występuje w wypadku małej mocy światła pompującego, lecz im bardziej się ona zwiększa, tym częściej w atom trafiają pary fotonów o energii wystarczającej do wybicia elektronu. Po pewnym czasie elektrony znów wiążą się z siatką krystaliczną, ale proces trwa za długo i zakłóca ruch fotonów na linii wzmocnienia fali.

Inżynierom z Intela udało się rozwiązać problem, umieszczając złącze p-n wzdłuż całej drogi wzmacniania fali. Złącze nie tylko "wysysa" swobodne elektrony i pozwala na uzyskanie maksimum efektu Ramana, lecz także może służyć jako modulator fali (włączając i wyłączając złącze, uzyskuje się wiązkę niosącą informacje binarne).

Płytka krzemu z ośmioma wzmacniaczami ma zaledwie centymetr kwadratowy powierzchni. Nietrudno wyobrazić sobie wbudowanie krzemowego lasera w płytę główną do komunikacji między modułami serwerowymi, procesorami czy w dalszej przyszłości wręcz w samym procesorze - do przesyłania danych między rdzeniami. Jednak na razie rozwiązania światłowodowe są dużo droższe od klasycznych połączeń miedzianych, dlatego jeszcze przez parę lat próżno ich szukać w komputerach.

Pecet bez kabli

Przy okazji platformy Napa i jej modułu WiFi Golan wspomnieliśmy o nowym standardzie komunikacji bezprzewodowej Utra-Wide Broadband (UWB). W przeciwieństwie do sieci WiFi 802.11a/b/g czy tworzonych właśnie standardów 802.11n oraz s, UWB służyć ma do komunikacji na niewielką odległość. Wykorzystuje znacznie szerszy zakres pasma radiowego - od 3,1 do 10,6 GHz - lecz ze względu na dużo niższą moc (około 200 µW) ma zasięg ograniczony do mniej więcej 10 metrów.

Przykładem rozwiązania UWB jest Wireless USB, który ma się pojawić w produktach jeszcze pod koniec tego roku i z czasem powinien wyprzeć klasyczną wersję kablową - tym bardziej, że jest w pełni z nią zgodny, a przy tym tani we wdrożeniu. WUSB opiera się na protokole TDMA (podziału pasma na szczeliny czasowe) i oferuje obecnie transfer jak w USB 2.0: 480 Mb/s w odległości do trzech metrów między urządzeniami (przepustowość maleje wraz ze wzrostem dystansu; w kolejnych edycjach WUSB maksymalny transfer przekroczy jednak 1 Gb/s). Połączenia odbywają się na zasadzie punkt-punkt między urządzeniem peryferyjnym a gospodarzem (czyli np. pecetem), który inicjuje ruch i przydziela kanały czasowe oraz określa przepustowość danych. Gospodarz obsłuży maksymalnie 127 klientów WUSB.


Zobacz również