Komputery kwantowe - ewolucja czy rewolucja?

Naukowcy z firmy Hewlett-Packard poinformowali, że udalo im się opracować nową strategię projektowania komputerów kwantowych. Zaprezentowana przez Billa Munro i Tima Spillera, we współpracy z Kae Nemoto, teoria zakłada budowę takiego układu z wykorzystaniem wiązek lasera, które wymuszałyby wzajemne interakcje fotonów, mogących przechowywać informacje kwantowe.

Nowa strategia naukowców koncernu opiera się na dotacji, jaką mają otrzymać od jednej z amerykańskich agencji - DARPA (Defense Advanced Research Projects Agency). 10 mln USD dotacji ma zostać spożytkowane na budowę prototypowego komputera kwantowego. Inni naukowcy sceptycznie odnoszą się do tej teorii, uważając ją za dość trudną do wprowadzenia w życie ze względów praktycznych.

Przypomnijmy, że komputer kwantowy to układ działający w oparciu o prawa mechaniki kwantowej, którego ewolucję można kontrolować w ten sposób, aby otrzymać w jej wyniku rozwiązanie wybranego problemu obliczeniowego. W takim układzie stan komputera to dane, a jego ewolucja to procesy obliczeniowe.

Algorytmy kwantowe pozwalają takim komputerom osiągać wydajność daleko przewyższającą standardowe komputery, przy czym ten sam algorytm uruchomiony dwukrotnie na układzie kwantowym może przynieść zupełnie odmienne wyniki (algorytmy probabilistyczne).

W używanych dziś powszechnie komputerach dane przechowywane są w tranzystorach w formie bitów (0 lub 1). W komputerach kwantowych jednostką informacji jest kubit, który może mieć jednocześnie wartość 0 i 1. To właśnie ta cecha jest kluczem do zrozumienia potęgi komputerów kwantowych. Przykładowo - 3 bity mogą przechowywać tylko jedną z ośmiu możliwych wartości jednocześnie, 3 kubity - wszystkie osiem na raz.

Potencjał maszyn kwantowych wciąż budzi kontrowersje. Do tej pory naukowcom udało się zbudować kilka małych systemów demonstracyjnych, ale większość badaczy jest zdania, że minie co najmniej 10 lat, zanim będzie można zbudować komputer kwantowy z prawdziwego zdarzenia.


Zobacz również