Internet drugiej generacji

Minęły już czasy, w których Internet utożsamiany był, przede wszystkim, ze środowiskami uniwersyteckimi i ośrodkami badawczymi. Komercjalizacja Internetu i związany z nią rozkwit nowych zastosowań doprowadziły do spadku udziału instytucji edukacyjnych i naukowych w globalnej Sieci, przez co zmniejszył się ich wpływ na jej ewolucję. Jednocześnie na skutek przeciążenia Sieci komfort pracy zarówno naukowca, jak i przeciętnego użytkownika wyraźnie zmniejszył się, przez co Internet nie jest już w stanie sprostać wymaganiom, jakie stawiają przed nim wyższe uczelnie zainteresowane wdrażaniem nowych technologii IT w edukacji oraz pracy badawczej.

Minęły już czasy, w których Internet utożsamiany był, przede wszystkim, ze środowiskami uniwersyteckimi i ośrodkami badawczymi. Komercjalizacja Internetu i związany z nią rozkwit nowych zastosowań doprowadziły do spadku udziału instytucji edukacyjnych i naukowych w globalnej Sieci, przez co zmniejszył się ich wpływ na jej ewolucję. Jednocześnie na skutek przeciążenia Sieci komfort pracy zarówno naukowca, jak i przeciętnego użytkownika wyraźnie zmniejszył się, przez co Internet nie jest już w stanie sprostać wymaganiom, jakie stawiają przed nim wyższe uczelnie zainteresowane wdrażaniem nowych technologii IT w edukacji oraz pracy badawczej.

Sytuacja zmusiła amerykańskie środowiska uniwersyteckie do działania. Pragnąc zmienić obecny stan rzeczy 3 października 1996 r., trzydzieści cztery uniwersytety zdecydowały się utworzyć program Internet2. W tym samym miesiącu administracja Billa Clintona przedstawiła plan rozwoju Internetu Nowej Generacjii (Next Generation Internet). Z biegiem czasu pomysł utworzenia Internetu2 powoli się urzeczywistniał. We wrześniu 1997r. powołano University Corporation for Advanced Internet Development (UCAID), organizację, której zadaniem jest koordynacja prac związanych z programem Internet2. Od tego momentu dokonano zdumiewającego postępu, zaś prezentowane obecnie projekty, których celem jest wykorzystanie możliwości szybkich sieci, dobitnie świadczą o nadchodzącej nowej internetowej rewolucji.

Ogólna struktura Internetu2

Ogólna struktura Internetu2

Nad rozwojem projektu Internet2 pracuje konsorcjum składające się z 174 uniwersytetów współpracujących z rządem i przemysłem nad rozwijaniem i wdrażaniem nowych, zaawansowanych technicznie sieciowych aplikacji i technologii. Przemysł reprezentuje kilkadziesiąt firm - rynkowych potentatów takich jak IBM, Nortel, Qwest czy Cisco, które nie tylko wspierają prace w zakresie technologii, ale także dotują uniwersytety, umożliwiając im realizację projektów oraz modernizację sieci w obrębie kampusów. Wspólne wysiłki ukierunkowane są przede wszystkim na: unowocześnienie sieci, z których korzystają środowiska naukowe, zrealizowanie rewolucyjnych projektów zastosowań Internetu nowej generacji, wykorzystanie zdobytych doświadczeń i technologii w celu usprawnienia działania sieci oraz udostępnienie nowych usług jej użytkownikom. Sieć będąca w stanie sprostać zróżnicowanym wymaganiom, jakie stawia przed nią nauka oraz nowe zastosowania, musi oferować niezbędny komfort pracy, z którym wiąże się zarówno szybkość, jak i jakość obsługi użytkowników (tzw. Quality of Service). Rządowy projekt NGI zakłada 100 i 1000-krotne zwiększenie szybkości transmisji danych w sieci. Z kolei ramy QoS wyznaczone są przez następujące założenia.

- Prędkość transmisji - możliwość ustawienia przez użytkownika minimalnej, średniej i maksymalnej prędkości przesyłania danych. Przykładowo może zażądać takiego połączenia, w którym prędkość przesyłania informacji nie spada poniżej 50 Mb/s i zgodzić się, aby nie była wyższa od 100 Mb/s.

- Ograniczone opóźnienie w przesyłaniu danych. Ma to szczególne znaczenie na przykład w przypadku transmisji wideo. Użytkownik może zażyczyć sobie, aby pomiędzy pakietami danych nie było przerw, które "zamroziłyby" transmisję. Planuje się, że w Internecie następnej generacji opóźnienie to będzie wynosiło od 20 ms do 200 ms.

- Możliwość ustalenia przepustowości - rozmiarów danych i przedziału czasu w jakim mają być przesłane - na przykład terabajt w 10 sekund.

- Możliwość określenia czasu rozpoczęcia oraz zakończenia korzystania z wybranej usługi.

- Określenie maksymalnej stopy utraty pakietów w określonym przedziale czasu.

Ogólna struktura Internetu2

Graficzne położenie gigaPOP-ów

Graficzne położenie gigaPOP-ów

Szkielet Internetu2 tworzą tzw. gigaPOP-y (gigabit capacity Point of Presence), które są scalone nowoczesnymi sieciami Abilene i vBNS+ (very fast Backbone Network Service). GigaPOP jest węzłem łączącym zwykle sieci kilku sąsiednich uniwersytetów, ale nie jest to obowiązująca reguła. GigaPOP mogą współtworzyć instytuty badawcze, a nawet organizacje komercyjne. W szczególności może łączyć sieci kampusów z sieciami miejskimi (MAN), organizacjami, z którymi członkowie Internetu2 chcą się komunikować, innymi nowoczesnymi sieciami typu WAN (takimi jak utworzone w celach badawczych sieci ESnet, DREN, NREN) oraz ze strategicznymi dostawcami "zwykłego" Internetu. Prędkość transferu danych na liniach łączących uniwersytety z gigaPOP-ami kształtuje się w przedziale od 43 Mb/s do 622 Mb/s. Istnienie takich węzłów pozwala zmniejszyć koszt programu oraz umożliwia kon- trolowanie dostępu do sieci szkieletowych. W ramach tej kontroli zadaniem gigaPOP-ów jest blokowanie ruchu pomiędzy "zwykłym" Internetem a sieciami Abilene i vBNS+, w efekcie nie są one obciążone ruchem generowanym przez nienależących do programu Internet2 użytkowników sieci. Inną rolą gigaPOP-ów jest sterowanie transmisją danych w sieci szkieletowej tak, aby odbywała się z określoną prędkością i (to dopiero w przyszłości) spełniała wszystkie wymogi QoS.

Uczestnictwo w programie Internet2 jest dla uniwersytetów równoznaczne z przebudową ich sieci lokalnych. Cel ten jest osiągany poprzez zastosowanie różnych technologii transmisji danych takich jak: przełączanie komórkowe - najczęściej w oparciu o technologię ATM, rozwiązania ethernetowe czy nowego protokołu RSVP (Resource Reservation Protocol). Aby poprawić przepustowość istniejących sieci optycznych, stosuje się technologię DWDM (Dense Wavelenght Division Multpiplexing), czyli zwielokrotnianie z podziałem długości fali. Rozwiązanie to polega na przesyłaniu poprzez światłowód fal świetlnych o różnych długościach, dzięki czemu wzrasta jego przepustowość.


Zobacz również