Kwantowy komputer, czyli maszyna-widmo

Trzy lata później David Deutsch dowodził, że komputer kwantowy mógłby zostać wykorzystany do modelowania każdego zjawiska fizycznego. Teoretycznie wykazał więc, że teoretyczny komputer dysponowałby znacznie większą mocą, niż jakakolwiek maszyna istniejąca w rzeczywistości.

Nieco teorii

Najmniejszą jednostką informacji we współczesnych komputerach jest bit. Jak wiemy, reprezentowany jest on przez "0" lub "1". Informacja, czyli ciąg bitów, jest obecnie przekazywana dzięki przepływowi elektronów przez tranzystory znajdujące się w procesorach. Posiadają one przełączniki, które mogą zostać ustawione w pozycjach "0" (niższe napięcie) i "1" (wyższe napięcie).

Wyobraźmy sobie teraz zestaw trzech bitów. Za pomocą zer i jedynek możemy stworzyć 8 różnych kombinacji (2 do potęgi 3). Jednak w konkretnym momencie w naszych trzech bitach zapiszemy tylko jedną z nich i tylko na jednej z nich wykonamy operację.

W komputerze kwantowym mamy jednak nie bity, a qubity, czyli bity kwantowe. Qubitem może być np. elektron. A z obowiązujących w mechanice kwantowej praw wiemy, że nie ma on ustalonej wartości "0" lub "1" (to tzw. stany stacjonarne), ale przyjmuje obie jednocześnie. Nazywamy to superpozycją. Oznacza to ni mniej, ni więcej, że w trzech qubitach można jednocześnie zapisać wszystkie 8 kombinacji i wykonać na nich działania. Tak więc, przynajmniej teoretycznie, trzybitowy komputer kwantowy będzie 8-krotnie bardziej wydajny od klasycznej maszyny. W przypadku maszyny 64-bitowej będziemy mieli do czynienia z mocą 18 trylionów (18 000 000 000 000 000 000) razy większą. Kusząca perspektywa, prawda?

Tu jednak pojawia się najpoważniejszy chyba problem stojący przed komputerami kwantowymi. Otóż stany kwantowe są bardzo nietrwałe. Wskutek oddziaływania z czynnikami zewnętrznymi nasz qubit ulega dekoherencji, czyli traci swój stan kwantowy, który jest superpozycją i staje się "zwykłą" jedynką lub zerem. Tak więc qubit błyskawicznie przestaje być qubitem i staje się banalnym bitem.

Problem dekoherencji spowodował, że przez całe lata komputery kwantowe pozostawały w sferze teoretycznych rozważań wąskiej grupy specjalistów. Tym bardziej, że nie bardzo wyobrażano sobie, do czego można zastosować kwantowe komputery.

Algorytm Shora

Taka sytuacja trwała aż do 1994 roku. Wówczas Peter Shor, naukowiec pracujący w Bell Laboratories, przedstawił kwantowy algorytm rozkładu olbrzymich liczb na liczby pierwsze. Znalazł tym samym zastosowanie dla komputerów kwantowych, a nazwa tego zastosowania brzmiała: kryptografia.

Jedna z podstawowych zasad tworzenia haseł dających chociażby dostęp do komputera brzmi: hasło powinno być jak najdłuższe. Bo im więcej ma znaków, tym jest trudniejsze do odgadnięcia. Tej samej zasadzie jest wierna kryptografia. Stąd wiemy, że szyfr 256-bitowy jest trudniejszy do złamania niż 128-bitowy, a szyfr 1024-bitowy będzie lepiej zabezpieczał dane, niż 512-bitowy. Oczywiście każdy z tych szyfrów można złamać, jednak wraz ze wzrostem długości szyfru znacząco rośnie czas potrzebny na wykonanie niezbędnych obliczeń. Należy przy tym pamiętać, iż każdą liczbę naturalną można przedstawić w postaci iloczynu liczb pierwszych. Znalezienie takiego iloczynu dla szyfru oznacza jego złamanie. Współczesna kryptografia bazuje zaś na tym, iż znalezienie iloczynu dla bardzo dużej liczby jest praktycznie niewykonalne. Po prostu zajęłoby zbyt dużo czasu.

Inaczej wygląda sytuacja w przypadku komputerów kwantowych. Te potrafiłyby, co wykazał Shor, błyskawicznie złamać takie szyfry. Dzięki jego algorytmowi zainteresowanie komputerami kwantowymi gwałtownie wzrosło, a prace nad takimi maszynami ruszyły z kopyta. Z jednej strony bowiem możliwość szybkiego łamania szyfrów jest bardzo kusząca, a z drugiej prace napędzał też strach, iż przeciwnik może rozważać podobne możliwości.

Problemy pozostały

Od momentu opracowania przez Shora jego algorytmu minęło 13 lat, a w prace nad komputerami kwantowymi zaangażowały się rządy, wybitni naukowcy i wielkie firmy. Postronny obserwator może jednak stwierdzić, że ludzkość właściwie drepcze w miejscu. O skali trudności, jaką napotykają naukowcy może świadczyć chociażby fakt, że musiało upłynąć aż 7 lat zanim po raz pierwszy wykonano kwantowe operacje, podczas których w praktyce wykorzystano algorytm Shora. Możemy jednak spać spokojnie, żadne szyfry nie są zagrożone. Uczonym z Uniwersytetu Stanforda i pracownikom IBM-a udało się w 2001 roku zmusić qubity do rozłożenia liczby... 15 na czynniki pierwsze. Do tej operacji zaprzęgnięto umieszczoną w próbówce "maszynę" złożoną z miliardów miliardów cząsteczek, które tworzyły... 7 qubitów. Łamanie współczesnych szyfrów wymaga zaś zaangażowania tysięcy qubitów.

Wciąż otwarty pozostaje jednak problem dekoherencji. Uczeni pracują też nad metodami korekcji błędów, kontrolowania większej liczby qubitów oraz poradzenia sobie z olbrzymią liczbą wyników, które jednocześnie otrzymamy w wyniku obliczeń przeprowadzanych na komputerze kwantowym.