Krzem na wieki

W czerwcu ubiegłego roku świat obiegła wiadomość o zbudowaniu układu taktowanego w tempie 500 GHz. Co prawda, rekord padł w bardzo niskiej temperaturze, bliskiej zera bezwzględnego, ale 350 GHz uzyskane na tym samym układzie w normalnych warunkach także wzbudza szacunek.


W czerwcu ubiegłego roku świat obiegła wiadomość o zbudowaniu układu taktowanego w tempie 500 GHz. Co prawda, rekord padł w bardzo niskiej temperaturze, bliskiej zera bezwzględnego, ale 350 GHz uzyskane na tym samym układzie w normalnych warunkach także wzbudza szacunek.

Jednak nadzieje rozbudzone przez tę wiadomość są mocno przedwczesne. Układ, o którym mowa, nie jest procesorem, Core 7 Duo 350 GHz nie schodzi jeszcze z taśmy produkcyjnej, a twój Athlon jeszcze długo nie będzie korzystał z zalet chłodzenia ciekłym helem. Niemniej jednak za pomocą tego układu udowodniono, że pracując nad nowymi materiałami i technikami wytwarzania, możemy pokonać napotykane dziś bariery technologii krzemowej.

Zadyszka

Zrozumienie zasady działania tranzystora nie wymaga wielkiej wiedzy. Z milionów takich elementów buduje się procesory i inne układy.

Zrozumienie zasady działania tranzystora nie wymaga wielkiej wiedzy. Z milionów takich elementów buduje się procesory i inne układy.

A dzisiaj stoimy pod ścianą. Układ zbudowany z klasycznego krzemu, któremu zawdzięczamy cały rozwój informatyki aż do dzisiejszej technologii, ma poważne kłopoty i bez skutecznej pomocy nie będzie pracował szybciej. Co prawda, prawo Moore'a, które przewiduje podwajanie gęstości tranzystorów co pewien czas (od 18 do 24 miesięcy), jest realizowane mniej więcej zgodnie z planem, ale przestało być już gwarancją przyspieszania. Na ogół większa liczba tranzystorów jest równoznaczna z powiększeniem mocy komputera i pozwala uruchomić bardziej wymagające programy. Wystarczy porównać "Quake'a" z roku 1996 i jego czwartą wersję (2005 r.), żeby nie tylko zauważyć poprawę działania silnika 3D i procesora karty graficznej, ale także doświadczyć działania prawa Moore'a na przestrzeni lat. Niestety, jeśli krzem nie zostanie zmodyfikowany lub zamieniony na coś lepszego, nawet przestrzeganie tego prawa nie przyda się na wiele.

Właśnie tym zajął się IBM. Jego rekordowy układ nie jest zbudowany według klasycznej krzemowej receptury, ale jej odmiany, polegającej na dodaniu niewielkiej ilości germanu. Jest tylko jedną z wielu technologii, które mają albo przedłużyć panowanie procesorów opartych na krzemie w roli głównego składnika, albo przejąć po nich pałeczkę, jeśli możliwości rozwojowe zostaną wyczerpane. To one zadecydują, jak szybkie mogą stać się procesory w przyszłości.

Elektron w dziurze

Zanim zabierzemy się za udoskonalenia, zobaczmy, jak działa tradycyjna krzemowa mikroelektronika. Jej istotą jest tranzystor - podstawa konstrukcji nawet najbardziej skomplikowanych procesorów. To, co odróżnia na podstawowym poziomie Pentium 4 z rdzeniem Prescott od Core 2 Duo, jest ich liczba. Wzrost ze 125 w pierwszym do 291 milionów tranzystorów w drugim daje możliwość innej ich aranżacji i kolejnego powiększenia możliwości.

Jeśli tempo miniaturyzacji nie spadnie, po roku 2015 skala procesu osiągnie poziom atomowy.

Jeśli tempo miniaturyzacji nie spadnie, po roku 2015 skala procesu osiągnie poziom atomowy.

Podstawowa cegiełka naszej skomplikowanej informatyki jest zdumiewająco prosta. Tranzystor MOS składa się z warstwy krzemu, materiału półprzewodzącego. Na niej znajdują się dwa kontakty, zwykle nazywane źródłem i drenem, oddzielone od elektrody bramki warstwą izolatora. Kiedy do kontaktu bramki przyłoży się pewne napięcie, wytwarza się tzw. efekt polowy. Wtedy w obszarze pod bramką powstają kanały, przez które może przepływać ładunek od źródła do drenu lub odwrotnie; tranzystor jest wówczas włączony. Jeśli kontakt bramki zostanie odcięty, kanały znikają, a wraz z nimi możliwość przewodzenia: tranzystor jest wyłączony. Kanały mogą tworzyć się dzięki zastąpieniu w krystalicznym materiale źródła i drenu niewielkiej liczby atomów czterowartościowego krzemu przez pierwiastki trój- lub pięciowartościowe. Otrzymujemy dzięki temu tranzystor typu PMOS (deficyt elektronów) lub NMOS (nadmiar). Zwykle pracują w parach n + p. Takie połączenie jest podstawą panującej nam dzisiaj technologii CMOS.

Strajk

Przez długi czas głównym hamulcem rozwoju procesorów zbudowanych z tranzystorów MOS było nadmierne zużycie energii i wydzielanie ciepła. Im bardziej zmusza się tranzystory do coraz szybszej pracy, czyli w istocie rzeczy do coraz częstszego przełączania się w ciągu sekundy - tym więcej mocy pobierają i tym więcej ciepła wydzielają. Kiedy duża liczba takich elementów będzie ciasno upakowana na niewielkiej przestrzeni, wytworzone ciepło nie zostanie odprowadzone w wystarczającym tempie i zacznie coraz bardziej rozgrzewać procesor czy inny układ, aż osiągnie temperaturę, w której zaczyna liczyć z błędami albo nawet zupełnie odmówi pracy. Inaczej mówiąc, istnieją realne powody, dla których Pentium 4 czy Athlon X2 nie mogą pracować w tempie 500 GHz. Po prostu bez nadzwyczajnego chłodzenia wytrzymują częstotliwość najwyżej około dwóch-czterech gigaherców, zużywając przy tym ogromną ilość energii, aż do 130 W z pełnym obciążeniem, a nawet więcej, jeśli zostaną przetaktowane.

Wielkość małego

Od wielu lat producentom procesorów udaje się omijać ograniczenia wytrzymałości cieplnej i energetycznej na dwa sposoby. Pierwszym jest usprawnienie architektury. Chodzi o wykonanie większej liczby czynności w jednym cyklu zegara, przeorganizowanie albo usprawnienie działania potoków, dodanie pamięci podręcznej, nowych instrukcji, ewentualnie następnych rdzeni.

Drugi sposób jest łatwiejszy i chyba bardziej efektywny. Mowa o coraz większej miniaturyzacji. Przejście z technologii, powiedzmy, 90 do 65 nm (ten rozmiar odpowiada szerokości luki pomiędzy tranzystorami) umożliwia podwojenie gęstości elementów. Jednoczesne zmniejszenie wymiarów bramki i pozostałych części pozwala zwiększyć szybkość funkcjonowania tranzystora albo zredukować energochłonność i w konsekwencji wydzielanie ciepła. To umożliwia tej samej architekturze procesora pracę w dotychczasowym tempie przy mniejszym zużyciu energii albo przyspieszenie taktowania bez nadmiernego przegrzewania się, poniżej granic termicznych. Najczęściej producenci wybierają ścieżkę pośrednią, budując nieco szybsze układy, które jednocześnie wydzielają nieco mniej ciepła.

Koniec euforii

Prawdopodobnie najwięksi producenci chcieliby kontynuować tę drogę rozwoju, podporządkowując się klasycznemu prawu Moore'a. Niestety, przejściom z wymiaru 65 nm przez 45 do 32 i poniżej towarzyszą coraz większe problemy. Zaczyna przeszkadzać kilka niekorzystnych efektów. W konsekwencji kurczenia się tranzystora i ścieżek systematycznie zmniejsza się liczba elektronów oddzielająca poziom włączenia od wyłączenia. W rezultacie coraz trudniej odróżnić oba podstawowe stany. Niestety, w informatyce binarnej takie pośrednie "być może" nie jest do niczego przydatne.

Drugi problem wiąże się z niebezpieczeństwem wystąpienia efektu tunelowego. Im mniejszy tranzystor, tym większe prawdopodobieństwo pokonywania bariery potencjału za pomocą mechanizmów kwantowych. Elektrony nie dają się już utrzymywać w barierze potencjału i przeskakują z jednej strony przełącznika na drugą. Podobnie jak we wcześniej omówionym przykładzie, tranzystor w takim stanie staje się nieprzydatny.

Zwiększający się szum termiczny ma także negatywne konsekwencje. Jak wspominaliśmy wcześniej, im szybciej pracuje układ wykonujący coraz więcej obliczeń na sekundę, tym większą ilość ciepła wytwarza. Aby zrekompensować ten efekt, producenci obniżają napięcie i powiększają czułość układu. Teraz powinien reagować na coraz mniejsze różnice potencjału. Nie maleje jednak chaos cieplny, który zaczyna mieć coraz większy udział w kierowaniu ruchem elektronów. Wraz z nim pojawiają się pierwsze błędy i wreszcie przełączanie układu staje się niemożliwe.