Nowe standardy w centrach danych

  • JCH,

Pojawienie się Ethernetu 10 Gb/s i wirtualizowania zasobów - w połączeniu z takimi metodami transmitowania danych przez sieci Ethernet i IP, jak FCoE i iSCSI - sprawia, że architektura centrów danych ewoluuje. Tradycyjna architektura trójwarstwowa, stosowana do tej pory w takich środowiskach, ustępuje powoli miejsca dwuwarstwowej.

W centrach danych nowej generacji często nie ma już oddzielnych sieci LAN i SAN - dane generowane przez standardowe aplikacje i dane wymieniane z systemami pamięci masowych można obecnie (za sprawą specjalnych protokołów) transmitować przez te same połączenia sieciowe. Mamy więc do czynienia ze zjawiskiem konwergencji.

Ethernet 10 Gb/s i dwuwarstwowa architektura sieciowa

Dzięki bardzo wydajnym, pracującym w trybie non-blocking przełącznikom (oraz połączeniom 10 Gb/s), użytkownicy mogą obecnie łączyć serwery bezpośrednio z rdzeniem sieci LAN, eliminując tym samym z architektury warstwę agregowania. przyczynia się również do tego, że architektura centrów danych się zmienia.

Dzieje się tak dlatego, ponieważ w zwirtualizowanych środowiskach obliczeniowych użytkownicy mogą uruchamiać na kilkunastu fizycznych serwerach setki aplikacji korzystających z usług wirtualnych maszyn. Dawniej warstwa sprzętowa i system operacyjny były na stałe powiązane z aplikacją. Dzisiaj zasada taka przestała już obowiązywać.

Porównanie dwóch architektur

Porównanie dwóch architektur

Jednak zwirtualizowane środowiska pracy mogą pracować efektywnie tylko wtedy, gdy znajdujące się w nich połączenia LAN oferują bardzo duże przepustowości i mogą świadczyć swe usługi również systemom pamięci masowych. Systemy takie są niezwykle wymagające, jeśli chodzi o opóźnienia, a opóźnienia generuje w dużym stopniu właśnie warstwa agregowania. Z chwilą pojawienia się technologii Ethernet 10 Gb/s (oraz protokołów pozwalających przesyłać przez połączenia Ethernet dane wymieniane z systemami pamięci masowych), warstwę tę można było wyeliminować.

W ten oto sposób pojawiły się oparte na dwuwarstwowej architekturze, w której pierwszoplanową rolę odgrywają przełączniki Ethernet 10 Gb/s, obsługujące pakiety z pełną szybkością, przewidzianą dla tego rodzaju połączeń. Ponadto, już wkrótce, w przełącznikach takich (co przewidziało wcześniej wielu producentów) będzie można instalować moduły obsługujące połączenia 40 i 100 Gb/s. Wszystko wskazuje na to, że IEEE ratyfikuje standard Ethernet 40 i 100 Gb/s jeszcze w tym roku.

W architekturze trójwarstwowej (warstwa rdzenia, agregowania i dostępu) komputery PC, drukarki, serwery i inne urządzenia sieciowe są podłączone do przełączników brzegowych, które zbierają dane i komunikują się z dużo wydajniejszymi przełącznikami, instalowanymi w warstwie agregowania. Przełączniki te wymieniają z kolei dane z najwydajniejszymi przełącznikami i routerami, zawiadującymi całym ruchem w rdzeniu sieci LAN.

Sieci dwuwarstwowe mają jeszcze jedną zaletę. Mogą z powodzeniem (i dużo lepiej niż sieci trójwarstwowe) obsługiwać tzw. chmury obliczeniowe, o których tyle się mówi ostatnio. Chmury takie powinny być obsługiwane przez szybkie połączenia, przez które można przesyłać zarówno pakiety TCP/IP, jak i pakiety wymieniane z systemami pamięci masowych. Właśnie wtedy dwuwarstwowe sieci LAN, wykorzystujące połączenia Ethernet 10 Gb/s, pokazują swoje zalety. Nie tylko dużą przepustowość, ale i bardzo małe opóźnienia.

W typowej sieci LAN, składającej się z trzech warstw (często z przełącznikami gigabitowymi w warstwie agregowania), opóźnienia przy przesyłaniu pakietów wynoszą ok. 50 do 100 mikrosekund. Tyle właśnie czasu potrzeba, aby pakiet wysłany przez komputer PC dotarł do rdzenia sieci LAN. W zwirtualizowanych centrach danych i chmurach obliczeniowych to stanowczo za dużo.

Aby środowiska takie pracowały poprawnie, opóźnienia przy przesyłaniu pakietów muszą być mniejsze niż 10 mikrosekund. Można to osiągnąć, przechodząc na Ethernet 10 Gb/s i eliminując wszelkiego rodzaju bufory na dane (znajdujące się między stacją wysyłającą pakiety i stacją docelową). Dlatego należy stosować przełączniki, które obsługują pakiety natychmiast (w trybie "cut-through"), a nie - jak ma to miejsce w przypadku standardowych przełączników - w trybie "store-and-forward". Opóźnienie w przypadku przesyłania pakietów między dwoma przełącznikami pracującymi w trybie "store-and-forward" wynosi ok. 20 do 40 mikrosekund. Po zastąpieniu tych przełączników przełącznikami działającymi w trybie "cut-through", opóźnienie to wynosi tylko ok. 2 do 4 mikrosekund, czyli dziesięciokrotnie mniej.

Konwergencja sieci LAN i SAN

Konwergencja sieci LAN i SAN

W kontekście rozważań o sieciach opartych na dwóch i trzech warstwach warto poruszyć zagadnienie wirtualizowania serwerów. Wirtualizując serwery, powodujemy, że chcąc nie chcąc zaczynają one pełnić w sieci rolę przełączników dostępowych. Zwirtualizowane serwery zawierają wirtualny przełącznik (ulokowany w obszarze nadzorcy wirtualnej maszyny). Wtedy sieć dwuwarstwowa jest najlepszym rozwiązaniem, ponieważ pakiety trafiają bezpośrednio z warstwy dostępowej do rdzenia sieci (przypominamy - warstwy agregowania już nie ma) w czasie krótszym niż 10 mikrosekund.

Pozostaje jeszcze problem z algorytmem Spaning Tree. W centrach danych nowej generacji należy go unikać. Obecnie wszystkie przełączniki Layer 2 wykorzystują ten protokół, w celu określenia optymalnej ścieżki, łączącej jedną stację z drugą. Po zdefiniowaniu takiej ścieżki jest ona wykorzystywana do przesyłania danych (jako optymalna i najlepsza), a pozostałe (jeśli takie istnieją) są traktowane jako zapasowe, które można ewentualnie użyć w przypadku wystąpienia np. jakiejś awarii.

W wirtualnych środowiskach obliczeniowych, w których dane powinny być przesyłane przez wszystkie możliwe połączenia, protokół taki nie zdaje egzaminu. Potrzebne są przełączniki, które pracują dużo bardziej inteligentnie, zdolne przesyłać pakiety przez wszystkie dostępne ścieżki, a nie tylko tę wyznaczoną przez Spanning Tree.

Więcej o nowych standardach w centrach danych na stronach www.networld.pl