Czym jest komputer kwantowy?

Najprościej rzecz ujmując, komputer kwantowy to maszyna, w której wypadku do opisania zasady jej działania należy posłużyć się mechaniką kwantową. W tradycyjnym komputerze każdą wartość reprezentującą przetwarzane dane można zapisać za pomocą dwóch cyfr: zera i jedynki, czyli w systemie binarnym. We współczesnych układach scalonych tym zerom i jedynkom odpowiadają dwie rozróżnialne wartości napięcia na tranzystorach, z których składa się mikroprocesor. Niedawno doszło do dwóch bardzo ważnych wydarzeń związanych z rozwojem komputerów kwantowych. Oba przeszły bez większego echa, a szkoda, bo symbolizują, że prace nad rozwojem tej dziedziny informatyki wkroczyły w kolejną fazę. Kwantowe maszyny przestają być wyłącznie zabawkami w rękach naukowców, powoli stając się narzędziami, które być może wkrótce odmienią losy świata.

Pierwsze z tych wydarzeń to zaprezentowanie przez firmę D-Wave komputera 2000Q, posługującego się, bagatela, 2000 kubitów czyli kwantowych bitów – o czym szerzej za chwilę. Drugie to zapowiedzi składane przez koncern IBM, dotyczące zamiaru zbudowania i udostępnienia szerszemu gronu użytkowników komercyjnej platformy dla biznesu i nauki, bazującej na kwantowych systemach komputerowych IBM Q. Co ciekawe, platforma firmy IBM ma być udostępniona w chmurowym środowisku IBM Cloud, a jej celem jest skonstruowanie w ciągu najbliższych kilku lat powszechnie dostępnych 50-kubitowych systemów kwantowych.

Jak twierdzą naukowcy z firmy IBM, system IBM Q pozwoli na rozwiązywanie problemów, których charakter jest zbyt skomplikowany dla współczesnych, klasycznych systemów informatycznych. W tym kontekście jako jedno z pierwszych najbardziej obiecujących zastosowań obliczeń kwantowych wymienia się chemię, co może doprowadzić do odkrycia nowych materiałów i leków, w tym takich, które pozwolą skutecznie leczyć raka.

Komputer kwantowy – co to takiego

Najprościej rzecz ujmując, komputer kwantowy to maszyna, w której wypadku do opisania zasady jej działania należy posłużyć się mechaniką kwantową. W tradycyjnym komputerze każdą wartość reprezentującą przetwarzane dane można zapisać za pomocą dwóch cyfr: zera i jedynki, czyli w systemie binarnym. We współczesnych układach scalonych tym zerom i jedynkom odpowiadają dwie rozróżnialne wartości napięcia na tranzystorach, z których składa się mikroprocesor.

Proces obliczeniowy polega zaś na takiej manipulacji stanami tranzystorów wchodzących w skład bramek logicznych, aby w ich wyniku otrzymać zakodowaną, również w sposób zero-jedynkowy, liczbę, która będzie rezultatem obliczeń. Kolejność i zasady prowadzenia tych manipulacji to nic innego jak program, który realizowany jest przez procesor komputera.

Naukowcy zajmujący się komputerami kwantowymi, Hanhee Paik (z lewej) oraz Sarah Sheldon (z prawej), sprawdzający system kwantowy IBM Q przed włożeniem do komory chłodniczej. Zdjęcie wykonano w laboratorium IBM Q Lab, w należącym do firmy IBM ośrodku T. J. Watson Research Center w Yorktown.

Naukowcy zajmujący się komputerami kwantowymi, Hanhee Paik (z lewej) oraz Sarah Sheldon (z prawej), sprawdzający system kwantowy IBM Q przed włożeniem do komory chłodniczej. Zdjęcie wykonano w laboratorium IBM Q Lab, w należącym do firmy IBM ośrodku T. J. Watson Research Center w Yorktown.

W maszynie kwantowej dane reprezentowane są przez stan kwantowy układu stanowiącego kwantowy mikroprocesor. Ewolucja tego układu kwantowego odpowiada zaś procesowi obliczeniowemu, analogicznie jak dzieje się z przełączaniem tranzystorów. Możliwość zaplanowania ewolucji układu kwantowego, czyli stworzenie odpowiedniego algorytmu (programu) kwantowego, pozwala – w teorii – osiągnąć wyniki w znacznie szybszy i bardziej efektywny sposób niż w wypadku tradycyjnych komputerów.

W komputerze kwantowym bramki logiczne operują nie na bitach, tak jak w tradycyjnych komputerach, ale na bitach kwantowych nazywanych kubitami – od angielskiej nazwy quantum bit. Bit kwantowy różni się od zwykłego bita tym, że nie ma on ustalonej wartości 0 lub 1, ale zgodnie z zasadami mechaniki kwantowej znajduje się w stanie pośrednim, nazywanym superpozycją, pomiędzy zerem i jedynką. Dopiero podczas pomiaru kubit może przyjąć jedną z dwóch wartości: 0 lub 1.

Właśnie z tym zjawiskiem, że 1 kubit może jednocześnie wyrażać dwie wartości: 0 i 1, wiąże się ogromny obliczeniowy potencjał komputerów kwantowych. Dwa kubity reprezentują już bowiem jednocześnie cztery splątane ze sobą wartości (00, 01, 10, 11), a trzy kubity osiem (000, 001, 010, 100, 101, 110, 011, 111) – odpowiednio 22 i 23 możliwości. Stany te nie mogą być już traktowane jako stany niezależnie, dlatego mówi się o nich, że są one ze sobą splątane.

Tysiąckubitowy komputer to już 21000 splątanych stanów, a maszyna taka jak D-Wave 2000Q potrafi na raz zakodować 22000 zależnych od siebie wartości – to więcej niż liczba atomów w znanym nam wszechświecie.

Dzięki temu, że kubity są ze sobą splątane, komputer kwantowy może wykonywać obliczenia na wszystkich wartościach jednocześnie, a nie tak jak tradycyjny komputer w ściśle określonej kolejności – jedna operacja za drugą. Ten sposób działania daje ogromne przyśpieszenie wszystkich obliczeń. Komputer kwantowy jest w stanie dosłownie w ułamku sekundy wykonać obliczenia takie jak znajdowanie klucza prywatnego stosowanego w algorytmie RSA, które zwykłym superkomputerom zajęłyby setki tysięcy lat.

Algorytmy kwantowe

Do działania komputera kwantowego potrzebne jest oprogramowanie i stojące za nim algorytmy pozwalające przeprowadzić kwantowe obliczenia. Tworzenie algorytmów kwantowych jest bardzo trudnym zadaniem z kilku względów. Po pierwsze muszą one korzystać z nieintuicyjnych efektów mechaniki kwantowej, takich jak: superpozycja stanów, interferencje amplitud prawdopodobieństwa, kwantowe splątanie oraz kwantowy paralelizm związany ze wzmacnianiem prawdopodobieństwa danego wyniku poprzez wykonywanie innych obliczeń. Po drugie algorytmy kwantowe są algorytmami probabilistycznymi i bazują na rozkładzie prawdopodobieństwa oraz ewolucji rozkładu prawdopodobieństwa w czasie. Otrzymane wyniki są też pewnym rozkładem prawdopodobieństwa. Najbardziej prawdopodobny wynik to ten, dla którego otrzymaliśmy największą gęstość prawdopodobieństwa.

Do najbardziej znanych algorytmów kwantowych należą: algorytm Shora z 1994 roku, służący do znajdowania liczb pierwszych, algorytm Kitajewa opracowany w 1995 roku do przeprowadzania szybkiej kwantowej transformacji Fouriera, algorytm Grovera z 1996 roku do przeszukiwania bazy danych oraz algorytm Simona napisany w 1997 roku do znajdowania maski XOR funkcji 2-na-1.

Najwięcej emocji budzi algorytm Shora, który pozwala na natychmiastowe odtworzenie klucza prywatnego używanego w powszechnie wykorzystywanym algorytmie szyfrowania RSA. Klucz ten jest praktycznie nie do odszyfrowania w rozsądnym czasie przy użyciu współczesnych superkomputerów. Korzysta bowiem z iloczynu dwóch bardzo dużych liczb pierwszych, których znalezienie dla komputera kwantowego nie jest żadnym problemem.

Trochę historii

Na możliwość budowy komputerów wykorzystujących do swojego działania prawa fizyki kwantowej zwrócił uwagę już na początku lat 80. Paul Benioff z Argonne National Laboratory w Stanach Zjednoczonych. Jednak za twórcę idei komputera kwantowego uważa się laureata nagrody Nobla Richarda Feynmana, który podczas jednego ze swoich słynnych wykładów prowadzonych w Massachusetts Institute of Technology w 1981 roku zaprezentował teoretyczny model przekształcenia systemu kwantowego w klasyczny model komputerowy.

Do budowy komputera kwantowego, zgodnie z modelem przedstawionym przez Richarda Feymana, wykorzystać można wiele zjawisk fizycznych wykazujących właściwości kwantowe. Są to m.in.: zjawisko magnetycznego rezonansu jądrowego NMR (Nuclear Magnetic Resonance), polaryzacja światła, pułapki jonowe, nadprzewodzące złącza Josephsona, nadprzewodniki, kropki kwantowe, kondensat Bosego-Einsteina czy stany energetyczne elektronów na powłokach walencyjnych.

Pierwszym, zbudowanym w 1996 roku komputerem kwantowym była działająca na dwóch kubitach maszyna wykorzystująca zjawisko magnetycznego rezonansu jądrowego NMR. Komputer ten opracowany został przez Neila Gershenfelda, Isaaca L. Chuanga oraz Marka Kubineca i przeprowadzał obliczenia, wykorzystując jako „procesor” probówkę zawierającą 1020 cząsteczek chloroformu CHCl3 umieszczoną w polu magnetycznym. Maszynę programowano za pomocą impulsów radiowych, a do obliczeń wykorzystano spiny cząsteczek, które były odpowiednio ustawiane za pomocą zmian pola magnetycznego.

W 2009 roku powstał pierwszy optyczny komputer kwantowy korzystający z czterech kubitów. Dwaj doktoranci z Centrum Fotoniki Kwantowej na Uniwersytecie Bristolskim, Alberto Politi i Jonathan Matthews, przeprowadzili eksperyment, podczas którego dokonali pierwszych w historii obliczeń z użyciem kwantowego komputera optycznego. Podczas obliczeń wykorzystano algorytm Shora i rozłożono liczbę 15 na czynniki pierwsze. W tym samym roku skonstruowano też pierwszy elektroniczny procesor kwantowy. Zespół naukowców pod kierownictwem Stevena Girvina z uniwersytetu Yale opracował nadprzewodzący układ scalony pracujący z dwoma kubitami. Każdy z kubitów w układzie składał się z ok. 1 miliarda atomów aluminium, które dzięki sprzężeniu zachowywały się jak pojedynczy atom i mogły przybierać dwa różne stany energetyczne.

Pierwsza kwantowa olimpiada

W kontekście zapowiedzi stworzenia ogólnodostępnej, kwantowej platformy obliczeniowej naukowcy z firmy IBM współuczestniczyli w tym roku w zorganizowanych po raz pierwszy w historii zawodach dwóch komputerów kwantowych. Jednym z nich była starsza wersja komputera IBM Q, drugim maszyna skonstruowana przez naukowców z University of Maryland. Co prawda, oba komputery pracują w odmienny sposób, jednak wyniki ich pracy można bez problemu porównywać, gdyż w identyczny sposób przetwarzają kwantowe algorytmy.

Procesor D-Wave o nazwie kodowej Washington to pierwszy procesor wykorzystujący rejestr kwantowy składający się z 1152 kubitów. Jego nowsza wersja zainstalowana w najnowszym komputerze kwantowym, kosztującym 15 mln dolarów, D-Wave 2000Q ma już 2048 kubitów.

Procesor D-Wave o nazwie kodowej Washington to pierwszy procesor wykorzystujący rejestr kwantowy składający się z 1152 kubitów. Jego nowsza wersja zainstalowana w najnowszym komputerze kwantowym, kosztującym 15 mln dolarów, D-Wave 2000Q ma już 2048 kubitów.

Komputery, które stanęły do zawodów, korzystają z pięciu kubitów. W maszynie firmy IBM są one reprezentowane przez pięć kontrolowanych przez mikrofale prądowych pętli wytwarzanych w materiale nadprzewodzącym, a komputer z University of Maryland wykorzystuje pięć jonów iterbu umieszczonych w pułapce elektromagnetycznej, którymi manipuluje się za pomocą lasera.

Przeprowadzenie kwantowych zawodów stało się możliwe po tym, jak IBM otworzył, podobnie jak kiedyś w komputerach IBM PC, architekturę swojego kwantowego procesora, co pozwoliło osobom z zewnątrz na jego programowanie. Wcześniej mogli go programować wyłącznie naukowcy z laboratorium IBM Q Lab, które go zbudowało.

W trakcie zawodów na każdej z maszyn uruchamiano zestaw algorytmów i porównywano wyniki ich działania. Okazało się, że maszyna uniwersytecka była dokładniejsza, udzielając prawidłowej odpowiedzi średnio w 77,1% przypadków. Komputer IBM-a uzyskał wynik 35,1% prawidłowych odpowiedzi, ale był za to znacznie szybszy – aż 1000 razy.

Brak stuprocentowej dokładności obliczeniowej i widoczne różnice w wynikach związane są z bardzo delikatną naturą stanów kwantowych. Jakiekolwiek zaburzenia natychmiast wpływają na wynik kwantowych obliczeń. W maszynie z Maryland każdy jon mógł wchodzić w interakcje z każdym innym jonem, co czyniło całość bardziej stabilną, w komputerze IBM-a interakcja pomiędzy nadprzewodzącymi pętlami odbywała się za pośrednictwem pętli centralnej. Taka konstrukcja jest bardziej narażona na zdestabilizowanie stanów kwantowych. Nowsza wersja IBM Q korzysta z większej liczby połączeń pomiędzy kubitami, co czyni całość znacznie bardziej stabilną.

Co ciekawe, do niedawna porównywanie wyników pracy różnego typu komputerów kwantowych nie było jeszcze możliwe, a tegoroczne zawody udowodniły, że konstrukcja kwantowych komputerów jest coraz bardziej dojrzała.

Nietrwałość informacji kwantowej

Błędy, z którymi naukowcy mieli do czynienia podczas zawodów komputerów kwantowych, spowodowane są zjawiskiem dekoherencji. Polega ono na spontanicznej utracie informacji z kubitów poprzez nieuniknione oddziaływanie kwantowego rejestru, czyli układ wielu kubitów wchodzących w skład procesora kwantowego, z otoczeniem. Co gorsza, kubity ulegają dekoherencji tym szybciej, im więcej znajduje się ich w rejestrze kwantowym.

Rejestry kwantowe muszą być zatem bardzo dobrze odizolowane od otoczenia, ponieważ są one niszczone m.in. przez poprzez zmiany temperatury, promieniowanie, światło czy zderzenia z cząsteczkami powietrza. Stąd duża część komputerów kwantowych pracuje w temperaturach zbliżonych do absolutnego zera. Co prawda, istnieją metody korekcji błędów spowodowanych dekoherencją i można prowadzić obliczenia kwantowe w taki sposób, aby do pewnego stopnia były one niewrażliwe na pojawiające się błędy, ale nie są one doskonałe. Powodują bowiem znaczne skomplikowanie układu kwantowego, a im bardziej skomplikowany jest ten układ, tym łatwiej o wystąpienie dekoherencji. Konstrukcja komputera musi być zatem kompromisem pomiędzy możliwością zajścia dekoherencji a skomplikowaniem użytego układu kwantowego. Za optymalny uznaje się współczynnik, jeżeli czas koherencji układu kwantowego jest 10 000 razy większy od czasu prowadzenia obliczeń.

Nadprzewodzące złącza Josephsona

Największe nadzieje wiąże się z komputerami kwantowymi wykorzystującymi do swojej pracy nadprzewodzące złącza Josephsona. Na tej zasadzie działają komputery kwantowe zarówno IBM, jak i D-Wave. Podstawą konstrukcji takiego systemu jest tzw. układ SQUID (Superconducting QUantum Interference Device). Składa się z dwóch złączy Josephsona, który formalnie jest czujnikiem pola magnetycznego, ale dzięki swoim właściwościom może być traktowany też jako swego rodzaju odpowiednik tranzystora kwantowego charakteryzujący się bardzo krótkim czasem przełączenia i bardzo małym poborem mocy.

Ustawiając prąd na granicy przełączenia złącza Josephsona, układ wprowadzany jest w nieokreślony stan kwantowy, który jest superpozycją zera i jedynki, co fizycznie odpowiada złączu znajdującemu się w nieokreślonym stanie jednoczesnego bycia nadprzewodnikiem i przewodnikiem. W ten sposób otrzymuje się w złączu Josephsona nadprzewodzący kubit. Istotne, że układ z dwoma złączami Josephsona jest też układem rezonansowym odpowiadającym działaniu tranzystora, w którym to na drodze rezonansowego pojemności pomiaru da się określić stan kubita bez zaburzania jego stanu kwantowego.

W konstrukcji firmy D-Wave zastosowano dwie połączone ze sobą równolegle pętle nadprzewodzące wykonane z niobu. W skład każdej z tych pętli weszły po dwa złącza Josephsona, a całość tworzy jedną jednostkę kwantową nazywaną węzłem. Pierwszy SQUID traktowany jest jako ten, w którym przechowywany jest podstawowy kubit. Drugi SQUID odpowiada za przechowywanie splątanego z nim kubita zawierającego kopie informacji z pierwszego kubita. Takie podwójne splątanie formalnie czterech kubitów pozwala na znacznie lepsze określenie stanu kwantowego całego układu i zabezpiecza go przed dekoherencją.

Z zewnątrz komputery kwantowe firmy D-Wave przypominają czarny monolit o wymiarach ok. 3 x 3 x 3 metry. Na zdjęciu komputery kwantowe z serii D-Wave 2X.

Z zewnątrz komputery kwantowe firmy D-Wave przypominają czarny monolit o wymiarach ok. 3 x 3 x 3 metry. Na zdjęciu komputery kwantowe z serii D-Wave 2X.

Komputer D-Wave w akcji

Firma D-Wave powstała w 2005 roku jako celowe odgałęzienie Uniwersytetu British Columbia, a obecnie jest już firmą niezależną. Jej nazwa wywodzi się wprost od prac nad nadprzewodnictwem typu d-wave, na którego bazie funkcjonują m.in. nadprzewodzące złącza Josephsona. O firmie zrobiło się głośno w 2007 roku, kiedy zaprezentowała kwantowy system Orion korzystający z 16-kubitowego procesora Europa (pierwszym procesorem kwantowym D-Wave był opracowany pod koniec 2005 roku 4-kubitowy Calypso).

Aby uzyskać efekt nadprzewodnictwa i uniknąć szumów termicznych mogących spowodować dekoherencję, procesor Europa musiał być chłodzony do temperatury 0,004 stopni Kelvina, a więc niemal do temperatury zera absolutnego, co determinuje wygląd komputerów D-Wave (patrz ramka „Po co kwantowemu komputerowi chłodziarka”).

Podczas historycznego pokazu, który odbył się w kalifornijskim Computer History Museum, komputer kwantowy Orion uporał się z niezbyt skomplikowanymi od strony matematycznej zadaniami – rozmieszczeniem gości na przyjęciu weselnym, ułożeniem puzzli i dopasowaniem molekuły do wzorca. Urządzenie było co prawda ok. 100 razy wolniejsze od zwykłych komputerów, ale udowodniło, że skonstruowanie komercyjnego komputera kwantowego jest już w zasięgu ręki.

Na tego typu komercyjny komputer kwantowy nie trzeba było długo czekać. Już w 2011 roku D-Wave sprzedała koncernowi Lockheed-Martin za 10 mln dolarów system D-Wave One, bazujący na 128-kubitowym procesorze Rainier. Komputer został użyty do wyszukiwania błędów w oprogramowaniu myśliwca F-35. Komercyjny procesor Rainier jest już znacznie lepiej dopracowanym układem. Do prowadzenia obliczeń wymaga „tylko” temperatury 0,02 K. Liczbowo nie jest to duża różnica w porównaniu z Europą, ale taką temperaturę już znacznie łatwiej osiągnąć nawet w urządzeniach przemysłowych.

Po co kwantowemu komputerowi chłodziarka?

Przyglądając się z zewnątrz komputerowi kwantowemu firmy D-Wave, zauważymy jedynie, że wygląda jak jedna wielka czarna, monolityczna, sześcienna szafa o boku długości ok. 3 metrów. Rozmiar komputera wynika z faktu, że wewnątrz tej szafy zamknięto instalację chłodzącą procesor. Aby w złączu Josephsona zaszło niezbędne do jego kwantowej pracy zjawisko nadprzewodnictwa, niezbędne jest ochłodzenie płytki procesora do temperatury 9,2 K. Co więcej, trzeba zmrozić nie tylko sam procesor, ale również część systemu wejścia/wyjścia – w sumie jest to ok. 10 kg materiałów. Temperatura pracy układu musi być jednak niższa, tak aby zapewnić stabilne nadprzewodnictwo i ograniczyć dekoherencję kubitów – stąd niezbędne stało się zejście do temperatury 0,015–0,02 K.

Układ chłodniczy zastosowany do chłodzenia procesorów firmy D-Wave to tzw. układ suchej skraplarki rozcieńczalnikowej, w której to ciekły hel znajduje się w obiegu zamkniętym. Po dotarciu do chłodzonego elementu hel jest zawracany i ponownie skraplany w urządzeniu PTR (pulse-tube refrigerator), dzięki czemu układ nie wymaga uzupełniania helem podczas pracy i może działać przez dłuższy czas bez nadzoru człowieka. Temperatura pracy komputera kwantowego osiągana jest po kilku godzinach, a po jej osiągnięciu z łatwością może być utrzymywana przez dłuższy czas – jak twierdzi producent, przez miesiące, a nawet lata.

Droga do D-Wave 2000Q

Kolejnym komercyjnym komputerem D-Wave stała się w 2014 roku maszyna z serii D-Wave Two, która za 15 mln dolarów sprzedana została Google i NASA, gdzie posłużyła, oprócz możliwości sprawdzania algorytmów kwantowych, m.in. do usprawniania sztucznej inteligencji i uczenia maszynowego oraz do szukania nowych leków i modelowania zmian klimatycznych. Stanowiący podstawę komputera D-Wave Two 512-kubitowy procesor Vesuvius posłużył zaś po raz pierwszy do sprawdzenia szybkości działania komputera kwantowego w porównaniu z komputerami konwencjonalnymi. Posłużono się tutaj algorytmami do rozwiązywania problemów optymalizacji, CPLEX, METSlib Tabu i Akmaxsat, a w szranki maszyną D-Wave stanęły stacje robocze Lenovo ThinkStation i Lenovo d20, z procesorami Xeon E5-2609 i Xeon X5550.

D-Wave Two niezależnie od komplikacji zadania podawał odpowiedź zawsze w czasie ok. pół sekundy, podczas gdy tradycyjne komputery potrzebowały na od kilkunastu sekund nawet do kilkudziesięciu minut. Średnio D-Wave był 3600 razy szybszy od tradycyjnego komputera.

Bezpośredni poprzednik komputera D-Wave 2000Q, D-Wave 2X, na rynek trafił we wrześniu 2015 roku. Również i tę maszynę zakupiły Google, NASA, Lockheed Martin, a także Los Alamos National Laboratory. Największą zmianą było zastosowanie nowego kwantowego procesora z 1152 aktywnymi kubitami (procesor miał ich łącznie 2048, z czego 896 zablokowanych). Zwiększono też z 24 do 128 tys. liczbę złączy Josephsona (proces produkcji wykorzystuje 6 warstw, a elementy mają skalę 0,25 mikrometra) oraz liczbę sprzężonych par kubitów – do 3000. Do jego budowy wykorzystano też nowe materiały, co pozwoliło osiągnąć o 50% niższe szumy, a w efekcie większą stabilność układu. Z komercyjnego punktu widzenia najważniejszą zmianą było dołączenie programistycznego API obejmującego biblioteki C, C++, Python oraz MATLAB. Ta ostatnia pozwala na wykorzystanie przez programistów kwantowych instrukcji Quantum Machine Instruction.

Najnowsza z maszyn, D-Wave 2000Q sprzedawana jest za 15 mln dolarów i trafi, oprócz dotychczasowych odbiorców, do takich firm jak Volkswagen Group i Virginia Tech. Korzysta ona z tego samego procesora co D-Wave 2X, ale został on w całości odblokowany. Oprócz rejestru o szerokości 2048 kubitów maszyna charakteryzuje się również wykorzystaniem 5600 sprzężonych kubitów.

Do chłodzenia procesora kwantowego QPU zastosowano układ chłodniczy, wykorzystujący suchą skraplarkę helu pracującą w obiegu zamkniętym. Układ może pracować samodzielnie przez dłuższy czas bez nadzoru człowieka, chłodząc procesor do temperatury 0,015 K (–273,135°C) bliskiej bezwzględnego zera (−273,15°C).

Do chłodzenia procesora kwantowego QPU zastosowano układ chłodniczy, wykorzystujący suchą skraplarkę helu pracującą w obiegu zamkniętym. Układ może pracować samodzielnie przez dłuższy czas bez nadzoru człowieka, chłodząc procesor do temperatury 0,015 K (–273,135°C) bliskiej bezwzględnego zera (−273,15°C).

Zastosowania

Jak już wiemy, podstawową cechą komputera kwantowego jest to, że obliczenia jednocześnie wykonywane są na wszystkich możliwych danych, a nieprawidłowe wyniki wzajemnie się kasują. W ten sposób pozostają jedynie prawidłowe wartości, ale pojawiają się one z pewnym prawdopodobieństwem. Oznacza to, że należy wykonać całą serię obliczeń i dopiero ich średnia wartość z dużą dokładnością określa prawidłowy wynik działania. Mało tego, wynik będzie tym bardziej dokładny, im więcej komputer wykona obliczeń. Innymi słowy, komputer kwantowy tak naprawdę określa prawdopodobieństwo, jaki jest wynik danej operacji, ale przy dużej liczbie powtórzeń jest to wystarczające, aby uznać go za prawdziwy. W wielu wypadkach znając już wynik, np. przy poszukiwaniu prywatnych kluczy RSA, można bardzo szybko zweryfikować kilka najbardziej prawdopodobnych rozwiązań i wybrać to właściwe.

Największym zadaniem, jakie stoi przed komputerami kwantowymi, są obliczenia związane z faktoryzacją liczb pierwszych, niezbędne przy łamaniu dowolnych kodów służących do odszyfrowywania danych. Pełna komercjalizacja obliczeń kwantowych sprawi, że wszystkie stosowane metody szyfrowania danych staną się bezużyteczne. Nie nastąpi to jednak zbyt szybko, ponieważ komputery kwantowe nie nadają się obecnie do przeprowadzania wszystkich obliczeń, a jedynie ściśle określonych zadań (patrz ramka „Algorytmy kwantowe”). Duże nadzieje wiąże się z obliczeniami związanymi z chemią prowadzącymi do znajdowania nowych leków i obliczeniami pogodowymi, które obejmują zmiany zachodzące w atmosferze globalnie, dla całej planety, z czym mają trudności współczesne komputery.

Google ma nadzieję, że dzięki komputerom kwantowym da się rozwiązać problemy z tworzeniem sztucznej inteligencji, a NASA ufa, że znacznie szybciej da się prowadzić obliczenia astrofizyczne, np. pozwalające wyjaśnić zagadkę czarnej materii i początków wszechświata. Spore inwestycje związane z komputerami kwantowymi poczyniły też takie firmy, jak: Microsoft, Lenovo i Intel. Nie ma co jednak liczyć, że komputery kwantowe staną kiedyś na naszych biurkach. To zupełnie inna klasa sprzętu, która nie nadaje się do obsługi naszych codziennych służbowych zadań czy gier.

Podstawą działania kwantowego procesora firmy D-Wave są dwa sprzężone czujniki pola magnetycznego bazujące na złączach Josephsona. Strzałki reprezentują spin odpowiadający stanowi kubitu.

Podstawą działania kwantowego procesora firmy D-Wave są dwa sprzężone czujniki pola magnetycznego bazujące na złączach Josephsona. Strzałki reprezentują spin odpowiadający stanowi kubitu.


Zobacz również