Ciepłe bity


Coraz trudniej

Nie oznacza to jednak, że nie ma problemów. W Pentium 4 ścieżki mają około 0,1 mikrona szerokości i z tego powdu napięcia progowe tranzystorów oraz pojemność i opór metalowych połączeń są bliskie wartości gwarantujących stabilność. Odmiennie niż starsze układy logiczne, jak ECL i Bipolar, wyłączone CMOS-y praktycznie nie zużywają energii. Właśnie dzięki tej własności ogromnie skomplikowana pajęczyna układów w Pentium pobiera rozsądną ilość mocy. Jednak problem ilości wydzielanego ciepła nadal jest poważny. Wprawdzie zmniejszanie rozmiaru elementów układu pozwala zwiększyć szybkość działania każdego tranzystora, nie zwiększając jego zużycia energii, lecz ich liczba na jednostkę powierzchni, a za tym także ilość ciepła wydzielanego przez chip rosną. Zależność ta jest kwadratowa: dwukrotne zmniejszenie rozmiaru powoduje czterokrotny wzrost ilości ciepła. Dotąd ratowała nas inna własność architektury CMOS: zależność poboru mocy od napięcia jest również kwadratowa, więc zmniejszanie tego drugiego może kompensować wzrost ilości wydzielanego ciepła. Obniżenie napięcia z 5 V do 2 V daje ponad sześciokrotne oszczędności (52/22 = 25/4 = 6,25), a użycie jednowoltowych układów zmniejszyłoby zużycie energii 25-krotnie. Dlatego projektanci procesorów przez ostatnią dekadę zmniejszali napięcie rdzenia procesora z 5 V przez 3,3 V i 2,8 V aż do stosowanego we współczesnych układach 1,5 V. W rezultacie wydajność komputerów szybko rosła, a pobór mocy pozostawał mniej więcej taki sam.

Kolejny płotek

Projektowanie układów półprzewodnikowych jest jednak bardziej skomplikowane. Zmniejszanie napięcia powoduje wzrost opóźnienia na bramkach i konieczność obniżenia maksymalnej częstotliwości zegara. Efekt ten można osłabić, obniżając napięcie progowe, lecz jeśli zmniejszy się je za bardzo, tranzystor przestanie działać. Co gorsza - od pewnego momentu nawet z wyłączonego tranzystora będzie płynął prąd; jego wielkość wzrośnie o rząd wielkości z obniżeniem progu o każde 60 mV; to zaś oznaczałoby większe straty energii.

Miniaturyzacja pociąga za sobą dalsze problemy. Obecne chipy to praktycznie dwuwymiarowe obiekty, więc gdy się je zmniejsza, ich części niebezpiecznie zbliżają się do siebie. Metalowe ścieżki stają się węższe i zwiększa się ich opór elektryczny. Aby go zmniejszyć, można robić głębsze połączenia, lecz wtedy dwie równoległe ścieżki tworzą długi, płaski kondensator o sporej pojemności, co spowalnia transmisję bitów oraz powoduje wzajemne wzbudzanie sygnału. Dlatego niedawno zmieniono materiał, z którego wykonuje się połączenia: miedź jest lepszym przewodnikiem niż dotąd stosowane aluminium, dzięki czemu można tworzyć płytsze ścieżki.

Jeśli dalej będziemy zmniejszać tranzystory, możemy stracić kontrolę nad przepływem prądu między jego częściami. Te zagmatwane zależności powodują, że napięcie rzędu 1 V prawdopodobnie jest nieprzekraczalną granicą dla technologii CMOS. Obecne układy drukowane w rozdzielczości 0,1 mikrona zbliżają się do tej wartości. Wciąż będziemy mogli zmniejszać układy, lecz skoro napięcie musi pozostać niezmienione, ilość wydzielanego ciepła i zarazem problemy z chłodzeniem będą gwałtownie rosły.

W wypadku jeszcze mniejszych rozmiarów w każdym tranzystorze czy przewodniku znajdowałoby się za mało elektronów, żeby prawa makroskopowe (np. prawo Ohma), na których opiera się cała klasyczna elektronika, pozostały prawdziwe. Na zachowanie układu będą miały wpływ efekty kwantowe. To może być podstawą komputerów zupełnie nowej generacji, lecz niemających nic wspólnego z technologią CMOS.

Następny wymiar

Trzy etapy powstawania trójwymiarowego układu w technologii FinFET. Powstała w ten sposób bramka ma 50 nanometrów szerokości.

Trzy etapy powstawania trójwymiarowego układu w technologii FinFET. Powstała w ten sposób bramka ma 50 nanometrów szerokości.

Obecne plany Intela zakładają, że technologia CMOS w postaci podobnej do obecnej potrwa jeszcze około 15 lat. W tym czasie powinniśmy się doczekać układu z ponad miliarda tranzystorów na centymetrze kwadratowym, taktowanego z częstotliwością 30 GHz i wymagającego metod chłodzenia rodem z wypraw kosmicznych. Aby prawo Moore'a było spełnione przez następnych 10 lat, trzeba będzie wprowadzić zmiany w klasycznych układach CMOS. Krzem polikrystaliczny w bramkach tranzystorów może być zastąpiony metalem, a tlenek krzemu - izolatorem o wyższej stałej dielektrycznej, aby zmniejszyć upływność.

Próbuje się też na rozmaite sposoby rozwinąć strukturę tranzystora w trzecim wymiarze. Większość takich technik opiera się na zastosowaniu dwóch bramek po przeciwnych stronach; przełączanie polega na zmianie ich polaryzacji. W tranzystorze pionowym jedna bramka znajduje się nad drugą, wrytą w podstawę krzemową. W innych projektach - tzw. FinFET - leżą one po obu stronach tranzystora zbudowanego z pionowych krzemowych "żeberek", a nie nachodzących na siebie poziomych warstw.

Równocześnie badane będą zupełnie inne typy układów logicznych, które mogłyby całkiem zastąpić technologię CMOS. Jest kilka obiecujących kierunków dociekań, ale wszystkie pozostają na poziomie pokazywania możliwości pojedynczych urządzeń i bramek. Nie wiadomo, czy możliwa jest ich masowa produkcja. O tym decydowała możliwość ciągłego poprawiania parametrów, a nie chwilowe osiągi. Każda nowość, która takiej własności skalowania wydajności, poboru mocy i kosztów nie miała, lądowała w archiwach śladem złącza Josephsona.

Termodynamika bitów

Oczywiście ideałem byłoby jakieś urządzenie przełączające wcale nie zużywające energii. Czy jest to możliwe? Nie w sferze makroskopowej, lecz może w świecie kwantowym. Termodynamika obliczeń została już dobrze poznana. Każda makroskopowa maszyna licząca otrzymuje dane wejściowe nieułożone w żądanej przez nas postaci, a więc mające pewien nieporządek logiczny i przestrzenny, tj. pewną entropię. Udzielając odpowiedzi, tzn. ustawiając te dane we właściwy sposób, zmniejsza się entropię do zera. Jednak drugie prawo termodynamiki głosi, że całkowita entropia układu nigdy nie maleje, a więc odpowiednia ilość ciepła musi zostać wydzielona podczas obliczeń, by zwiększyć entropię otoczenia bardziej, niż zmniejszyło ją wyznaczanie wyniku. Czyli informacja jest zmagazynowaną energią, a komputery to operujące na niej silniki cieplne. Porównanie do silnika samochodu jest bardziej realne, niż można było przypuszczać.

Komputery wykonują nieodwracalne operacje. Wiedząc na przykład, że wynikiem na bramce and jest 0, nie można rozstrzygnąć, czy na wejściu było 00, 01 czy 10. Część informacji zostaje odrzucona i musi się pojawić w postaci ciepła. Aby nie zużywać energii, komputery musiałyby przeprowadzać jedynie odwracalne operacje. Energia potrzebna byłaby dopiero podczas odczytywania wyniku.

Takie komputery byłyby użyteczne do bardzo ograniczonej (lecz ważnej) klasy problemów, jak rozkład na czynniki czy szyfrowanie, nie jest jednak jasne, czy również do typowych zadań obliczeniowych. Jeszcze bardziej wątpliwe jest, czy można będzie zwiększać ich wydajność, utrzymując koszt produkcji na tym samym poziomie. Raczej wszystko wskazuje na to, że za 50 lat komputery będzie się instalować w piwnicy i wykorzystywać do ogrzewania domu albo co tydzień trzeba będzie gonić do specjalistycznego sklepu po nową butlę z ciekłym helem. Chyba że utkniemy z procesorami CMOS 10 GHz i dużo sprawniejszym oprogramowaniem.