HyperTransport 3.0 - skok w nadprzestrzeń
-
- Łukasz Bigo,
- 27.04.2006, godz. 15:53
Pojawiła się trzecia wersja specyfikacji HyperTransport, umożliwiająca przesyłanie danych z przepustowością wynoszącą 20,8 GB/s (w jedną stronę) i pozwalająca na łączenie nie tylko sąsiadującej ze sobą elektroniki, ale również komputerów odległych nawet o metr! HT 3.0 umożliwia również dynamiczny podział łącza między rdzenie czy procesory, użytkownikom pozostaje zatem tylko czekać na kolejne, nowe wersje procesorów AMD bijące konkurencję na głowę w wydajności. Chyba że konkurencja zdecyduje się na wykorzystanie sprawdzonych rozwiązań w swoich układach - specyfikacja HyperTransport jest otwarta i może z niej skorzystać każdy zainteresowany, naturalnie bez ponoszenia dodatkowych opłat. Na HT zdecydowali się już IBM, Apple, Nvidia, ATI, MIPS czy NEC. Intel woli rozwijane przez siebie CSI.

Dziś spróbujemy opowiedzieć o jednym takim akronimie, a mianowicie o HT (HyperTransport) zwanym pierwotnie LDT (Lightning Data Transport). A jest o czym mówić, bo opublikowana niedawno wersja 3.0 specyfikacji może sprawić, że dzisiejsze komputery staną się jeszcze mniejsze, jeszcze szybsze, a zbudowanie z nich klastra w warunkach domowych będzie się ograniczało do zakupu odpowiedniego kabelka.
Sieci łączące procesory
Niecały rok temu na konferencji Networkers 2005 w Las Vegas przedstawiciel Cisco zapowiadał wprowadzenie na masowy rynek rewolucyjnych produktów sieciowych. Daty nie podał, opowiadał natomiast o schemacie ich działania: byłyby to switche i karty sieciowe, które zamiast korzystać ze złączy PCI, stanowiłby prawdopodobnie osobne, podłączane bezpośrednio do procesora chipy.
Jak Cisco chciało zrealizować swój plan, na razie nie wiadomo - wiadomo jednak, że wobec rosnących przepustowości sieci coraz częściej ograniczeniem stają się systemy składowania informacji (dyski twarde) oraz sterujące przesyłem danych po magistrali (mostki północny i południowy).
Zamierzenia uda się zrealizować, o ile, naturalnie, HyperTransport nie pokrzyżuje firmie planów. Być może to właśnie o nim opowiadało Cisco...?
Odrobina historii

Procesor Alpha (źródło: Wikipedia)
Dla AMD szykują się ciężkie lata - wiadomo, popularność zyskuje się dzięki klasycznym komputerom PC, natomiast największe pieniądze płyną do producenta od firm, dla których wydatek rzędu kilkudziesięciu tysięcy dolarów na serwer nie jest niczym specjalnym. I tych korporacji bardzo brakuje. Oprócz wydajnych procesorów potrzebne jest bowiem coś jeszcze, co pozwoli szybko nakarmić je danymi.
Pojawiły się informacje potwierdzające, że Tukwila - nadchodząca wersja Itanium obsługująca technologię CSI i pamięci FB-DIMM - będzie wykorzystywała cztery połączone rdzenie. Rok 2007 zapowiada się zatem coraz bardziej interesująco (patrz też artykuł "Tajna broń AMD przeciwko procesorom Intela?") - wygląda również na to, że nie ma odwrotu od integracji coraz większej liczby rdzeni w obudowie CPU...