Krzem umiera - Szybszych procesorów nie będzie?

Ciągłe udoskonalanie komputerów może się skończyć, jeśli nie zamienimy technologii krzemowej na inną. Tylko po co nam większa moc? Najnowszy procesor Intela jest produkowany w procesie 45-nanometrowym, wymiar 32 czeka już kolejce, potem tylko przystanek przy 22 nanometrach i stacja końcowa. Skończą się możliwości dalszego doskonalenia czterdziestoletniej technologii. Wizjoner i założyciel Intela, Gordon Moore przepowiedział 40 lat temu, że liczba tranzystorów w układzie scalonym będzie się podwajać co 18 miesięcy. Zbliża się dzień, kiedy krzem tego tempa nie wytrzyma.

Krzem stał się podstawą komputera, najszybciej rozwijającej się maszyny w historii ludzkości. To urządzenie ma największy udział w przekształcaniu fantastyki naukowej w fakty. Bez niego nie istniałaby długa lista sukcesów naszej cywilizacji, od badania przestrzeni kosmicznej po złamanie kodu genetycznego.

Na naszych oczach każdy układ komputerowy szybko się starzeje i zostaje zastąpiony nowym, lepszym. Ale prawa fizyki mówią, że kontynuowanie krzemowej drogi rozwoju nie może trwać bez końca. Wizjoner i założyciel Intela, Gordon Moore przepowiedział 40 lat temu, że liczba tranzystorów w układzie scalonym będzie się podwajać co 18 miesięcy. Zbliża się dzień, kiedy krzem tego tempa nie wytrzyma.

Coraz gęściej

Do tej pory spece od procesorów radzili sobie świetnie z wtłaczaniem do układu coraz większej liczby tranzystorów, ale dzisiaj coraz trudniej przychodzi im wyskrobywanie resztek z dna krzemowej beczki, żeby jeszcze utrzymać się na ścieżce wzrostu. Na tym dnie leży proces 16-nanometrowy, do którego skali zbliżamy się w szybkim tempie. Ostatni procesor Intela jest produkowany w procesie 45-nanometrowym, wymiar 32 czeka już kolejce, potem tylko przystanek przy 22 nanometrach i stacja końcowa.

"Proces powiększania się gęstości tranzystorów krzemowych będzie musiał zatrzymać się w ciągu pięciu lat", przypuszcza Suman Datta, naukowiec z Uniwersytetu stanu Pensylwania. "Jeśli w celu upakowania większej liczby komponentów na mniejszej powierzchni układu elektronicznego jego składniki staną się jeszcze mniejsze, to funkcjonowanie tak zminiaturyzowanych urządzeń elektronicznych może stać się mniej pewne z powodu zbliżenia ich punktów pracy do istotnych barier fizycznych. Zaczną się robić nieszczelne, tracąc zdolność do utrzymywania cyfrowej informacji". Jeżeli stały wzrost mocy obliczeniowej komputerów, który dzisiaj uważamy za normalny, ma trwać dalej, jakaś nowa technologia musi zastąpić krzemową.

Procesory wielordzeniowe pomogą projektantom przesunąć tę granicę o kilka lat, tworząc złudzenie, że układy są szybsze. Producenci tacy jak Intel eksperymentują z hybrydami, łącząc tradycyjne, krzemowe chipy za pomocą światłowodów i lasera, którymi zastępują tradycyjne miedziowe przewody, licząc na zwyżkę wydajności. Krzem nie jest jeszcze martwy, ale te pomysły sprawiają wrażenie sztucznego utrzymywania go przy życiu.

Dlaczego o tym mówimy? Przecież poza intensywnie wykorzystywanymi w grach kartami graficznymi większość komputerów i ich części bywa niedociążona. Czy naprawdę mamy jakiś pomysł na wykorzystanie tego wzrostu mocy, o który tak zabiegamy (oprócz zastosowania jej w obliczeniach rozproszonych - patrz aktualny numer PC Worlda)?

Więcej mocy

Już dziś dysponujemy technologiami, o których wcześniej czytaliśmy w powieściach science fiction XX wieku. Dogonienie pisarskiej inwencji zajęło inżynierom kilka dziesięcioleci. Dzisiaj naukowcy mają szansę obrócić marzenia w rzeczywistość dużo szybciej.

"Ponieważ zmiany następują tak szybko, możemy się spodziewać, że postęp w następnym dziesięcioleciu przybierze większe rozmiary niż w poprzednich dwóch albo trzech dekadach", powiedział profesor Hugo de Garis. "Tempo postępu staje się coraz szybsze. Z pewnością w dwudziestym pierwszym wieku będzie więcej zmian technologicznych niż w poprzednim stuleciu. Wszystkie te niesamowite rzeczy, które dzisiaj sprawiają wrażenie fantastyki, prawdopodobnie staną się dostępne w czasie krótszym, niż się nam wydaje".

Tak się stanie, jeżeli sprzęt dotrzyma kroku rozwojowi nauki. Już dziś zasoby mocy superkomputerowej są za małe w stosunku do żądań ekspertów, którzy chcieliby objąć modelami teoretycznymi coraz większą część rzeczywistości - od antygrawitacji do zmian klimatu. Podczas gdy szybkość standardowych maszyn stacjonarnych wystarcza większości użytkowników, to nawet najmocniejsze superkomputery są o wiele za słabe, żeby rozwiązać ogromnie skomplikowane problemy aktualnie zajmujące naukowców.

Deszczyk czy tsunami

Modelowanie komputerowe to obszar, w którym naukowcy mają apetyt na większe zasoby, ponieważ dokładność ich symulacji zależy od liczby danych wejściowych i obliczanych scenariuszy. Dzisiejsze systemy komputerowe zatykają się, zanim dojdziemy w przybliżaniu modelu do takiego stopnia, żeby mógł przynieść jakiekolwiek sensowne wyniki.

"Jakie są możliwości wymodelowania za pomocą współczesnych komputerów takiej struktur, jak cząsteczka leku?", pyta retorycznie rzecznik tej firmy. "Podstawowym równaniem opisującym działanie elektronu na poziomie mechaniki kwantowej jest równanie Schroedingera, którego trudność rozwiązania rośnie więcej niż podwójnie z każdym następnym elektronem wziętym pod uwagę. Komplikacja problemu narasta wykładniczo i praktycznie uniemożliwia rozwiązanie, gdy liczba elektronów przekracza trzydzieści. Pojedyncza molekuła kofeiny ma tych elektronów ponad sto. Wzrost stopnia trudności, spowodowany samym przyrostem liczby elektronów wziętych pod uwagę z trzydziestu do stu, wyraża się liczbą z pięćdziesięcioma zerami. Nie ma superkomputera, który by się tym daniem nie udławił".

Schemat tranzystora grafenowego - wykonane z tego materiału procesory mają szansę osiągnąć z częstotliwościami do 1000 GHz (źródło: IBM).

Schemat tranzystora grafenowego - wykonane z tego materiału procesory mają szansę osiągnąć z częstotliwościami do 1000 GHz (źródło: IBM).

Takie zadania, jak prognoza meteorologiczna, rozwój terapii genetycznej czy sztuczna inteligencja, będzie można rozwiązać dopiero wtedy, kiedy naukowcy uzyskają dostęp do mocy przekraczającej możliwości krzemu. W pracującej nad komputerem kwantowym firmie D-Wave naukowcy uważają, że poruszając się coraz szybciej w kierunku cząsteczkowych poziomów w wielu obszarach nauki, będziemy potrzebować gigantycznej mocy obliczeniowej.

"Prognozowanie pogody wymaga coraz większej mocy nie tylko ze względu na dokładność, ale i konieczność uwzględniania wielu nowych zjawisk towarzyszących efektowi cieplarnianemu", mówił John Hirst, naczelny dyrektor brytyjskiego Instytutu Meteorologicznego, przy okazji zainstalowania nowego superkomputera o mocy stu tysięcy gigaflopsów. "Nowy superkomputer jest ważnym krokiem w badaniu i przewidywaniu tych zdarzeń."

Hirst uważa, że dodatkowa moc obliczeniowa, będąca teraz w dyspozycji meteorologów, pomoże bardziej szczegółowo prognozować pogodę na niewielkich obszarach przez komputerowe symulacje o wysokiej rozdzielczości. "Będziemy je w stanie robić dla wielu obszarów jednocześnie i na przykład wystarczająco wcześnie ostrzegać przed gwałtownymi zjawiskami, nawet jeśli prawdopodobieństwo ich wystąpienia będzie niewielkie". System będzie też wykorzystywany do przepowiadania zmian klimatu oraz ich wpływu na społeczeństwo. Ale nawet ta moc, dająca 21 miejsce na liście najwydajniejszych superkomputerów, jest kroplą w morzu potrzeb związanych z prognozowaniem zmian klimatu w skali globalnej. Superkomputer powinien pomóc meteorologom udokładnić rozdzielczość prognozy do jednego kilometra,<???> ale na razie tylko dla Wielkiej Brytanii.

A ponieważ skutek minutowego zachmurzenia gdzieś w Brazylii może mieć duży wpływ nawet na pogodę w Europie, skuteczne modelowanie powinno się opierać na analizie gigantycznej liczby danych, takich jak ciśnienie, temperatura, opady i tak dalej, zbieranych w możliwie wielu miejscach. Każda zmiana może mieć wpływ na inne, więc wszystko musi być stale przeliczane. Eksperci twierdzą, że zbudowanie modelu siatki o rozdzielczości jednego kilometra dla całego globu wymaga mocy setek petaflopów. Takim poziomem mocy obliczeniowej dzisiaj nie dysponujemy, nawet gdyby uwzględnić komputer za miliard dolarów, w który Unia Europejska ma zamiar wyposażyć swoich meteorologów.

Nic na siłę

Sytuacja ze sztuczną inteligencją jest całkiem inna. Skonstruowanie maszyny, która może myśleć, wymaga wspólnej pracy naukowców z wielu dyscyplin. "Dotychczas, jesteśmy niezbyt blisko zrozumienia, na czym polega taka ogólna, zdroworozsądkowa inteligencja", mówi Steve Grand, twórca symulatora życia sztucznego zwierzęcia. "Właściwie to mamy dużo nieudanych prób i wiemy, czego nie należy robić. Tak naprawdę rozróżniamy dwa rodzaje AI. Jedna z nich (silna AI) próbuje uczynić maszyny inteligentnymi, podczas gdy druga (słaba AI) chciałaby zautomatyzować zadania, w których ludzie używają inteligencji do ich wykonania. Drugi rodzaj w zasadzie nie wymaga inteligencji w ogóle. Muszę być inteligentny, żeby coś pomnożyć, ale fakt, że mój kalkulator kieszonkowy również może to zrobić, nie czyni go inteligentnym".

Siła myślenia

Już dzisiaj komputery wykonują obliczenia na liczbach dużo sprawniej niż ludzie. Zarządzają silnikiem w samochodzie lepiej niż jakikolwiek kierowca. Wspaniale pokonują arcymistrzów szachów. Ale ten typ AI nie wykazuje żadnej intuicji, nie potrafi tworzyć ani oceniać.

Portrety ludzkie wygenerowane przez sztuczną inteligencję (komputer). Powyżej: Smutek

Portrety ludzkie wygenerowane przez sztuczną inteligencję (komputer). Powyżej: Smutek

W istocie rzeczy prawdziwa sztuczna inteligencja powinna stawiać wiele filozoficznych pytań o życiu i myśleć, jak rozwiązywać technologiczne problemy. Stephen Hawking, na przykład, uważa, że wirusy komputerowe powinny być uważane za obiekty żywe, ale to jest zaledwie sztuczna inteligencja na poziomie Czerwonego Karła Krytena. Naprawdę nie mamy żadnej koncepcji, jak się zabrać za tworzenie maszyn czujących albo przemądrzałych. Prawdopodobnie z powodu zbyt wielkiego skoncentrowania się na technologii, a niedostatecznym na jej naturalnym poprzedniku, mózgu.

Sprzęt dla inteligencji

Na podstawie opowieści o kwantowych komputerach i równoległych procesach łatwo dojść do wniosku, że bez atomowego peceta nie ma żadnej nadziei na stworzenie sztucznej inteligencji. Nawet jeśli się go skonstruuje, pozostanie jeszcze problem oprogramowania i systemów operacyjnych, które nie są do tego przygotowane.

"Umiejętność przetworzenia wielkiej liczby bitów nie wystarczy, żeby taka maszyna stała się inteligentna, ale jest to warunek konieczny", twierdzi de Garis. "Musisz mieć sprawnie liczące urządzenie, żeby sztuczny mózg mógł stać się sztucznie inteligentnym. Czego jeszcze potrzebujesz, oprócz zrobienia maszyny zdolnej przetworzyć jakieś kosmiczne zyliony bitów na sekundę? Odpowiednich obwodów, takich, jakie istnieją w naszym mózgu. Ale na razie nie wiemy, jak je zrobić".

Mózg na sekcji

Wiele osób wierzy, że lepsze zrozumienie działania mózgu jest warunkiem koniecznym do odtworzenia jego złożoności. "Kiedy mówimy o sztucznej inteligencji i neuronauce, która powinna ją stworzyć, możemy posunąć się naprzód tylko dzięki wzorowaniu się na rzeczywistości", uważa dr Rachela Woolf z Centrum Obliczeniowego Neuronauki i Robotyki na Uniwersytecie Sussex. "Nawet wykorzystanie kwantowego podejścia nie wystarczy do przerzucenia mostu między żywym a sztucznym mózgiem. Zanim zaczniesz używać kwantów do modelowania, musisz spędzić wiele czasu z rzeczywistymi neuronami. Dopiero wtedy będziesz mógł mieć nadzieję, że zrozumiałeś, jak mógłbyś je odtworzyć".

Zgodnie z tą ideą, IBM i Ecole Polytechnique w Lozannie właśnie pracują nad projektem zwanym Blue Brain, który jest próbą zastosowania techniki reverse engineering do zbadania funkcjonowania mózgu. Według szefów projektu, kora mózgowa albo - inaczej mówiąc - szara substancja, która wypełnia 80 procent ludzkiego mózgu, odpowiada za naszą zdolność do zapamiętywania, myślenia, refleksji, odczuwania empatii, komunikowania się, dostosowania do nowych sytuacji i planowania przyszłości.

Mózg wypełniają miliardy neuronów, z których każdy jest połączony z tysiącem swoich sąsiadów, tworząc rodzaj biologicznej instalacji. Przetwarza ona informację, wysyłając sygnały elektryczne między neuronami wzdłuż tych linii. W korze mózgowej neurony są zorganizowane w podstawowe jednostki funkcjonalne, które działają podobnie, jak mikroukłady w komputerze.

Emocjonalny wrak

Naukowcy stworzyli już pojęcie komputerowych emocji, ale najwięcej zajmowali się próbą zwykłego rozpoznania i odtworzenia emocji ludzkich, nie wgłębiając się w sens uczucia. Ostatnią nagrodę Brytyjskiego Towarzystwa Komputerowego zdobył zespół Imperial College z Londynu za pracę "Emotionally Aware Painting Fool" (Emocjonalnie świadomy malujący się głupiec). W pracy połączono dwa systemy AI. Pierwszy "patrzył" na wideoklip kogoś wyrażającego emocje. Oprogramowanie rejestrowało charakterystyczne cechy tego zachowania, położenie oczu, nosa i ust, a także znajdowało moment, kiedy emocje były wyrażone najsilniej, w najbardziej charakterystyczny sposób. Informacja była przekazywana do drugiej części oprogramowania, która przystępowała do namalowania portretu osoby z wideoklipu. Do otrzymanej informacji o rodzaju wyrażanej emocji program dostosowywał styl malowania, paletę kolorów, poziom abstrakcji i rodzaj symulowanego materiału. Na przykład szczęście kojarzone było z niestaranną kreską, żywym kolorem i akrylową farbą. To pokazuje, jak można naśladować ludzkie zachowanie się, nie tworząc niczego podobnego do syntetycznego życia.

IQ do zainstalowania

Wiele osób wyraża przekonanie, że maszyny nie mogą być inteligentne. Inni uważają, że inteligencja maszyny jest ograniczona wyłącznie wyobraźnią jej projektanta. "Mózg ludzki jest maszyną deterministyczną i skoro on może być twórczy i cechować się wyobraźnią, to możemy zbudować maszyny, które zrobią to samo. Ale przez długi czas nikt naprawdę tego nie spróbował", mówi Grand.

Znaczenie wyobraźni nie jest docenione przez społeczności zajmujące się sztuczną inteligencją czy neuronauką. Nasza wyobraźnia istnieje, dopóki żyjemy. Przejawia się myśleniem o przyszłości. Wyobraźnia pozwala nam formułować pytania na temat otaczającego nas świata.

"Prawdopodobnie to Grecy są odpowiedzialni za przekonanie, że myśl powinna być czystą logiką, pozbawioną uczuć i irytujących brudów realnego świata", wyjaśniał Grand. "Według nich, głowa powinna rządzić sercem. To nie jest inteligencja. Ta rzeczywista wymaga emocji, pragnienia przeżycia i uczuciowego bogactwa".

Test na inteligencję

Aktualne możliwości komputerowej inteligencji mogą być zilustrowane przez jej związek z odwrotnym testem Turinga, wykorzystywanym do odróżnienia spamu wytwarzanego przez automaty od całej reszty korespondencji napisanej ludzką ręką. Pola CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart) zawierają zniekształcone cyfry i litery, które w założeniu są nie do odcyfrowania przez maszyny. Służą do upewnienia się, że ktoś (lub coś) logujący się do serwisu internetowego jest żywą istotą, a nie automatycznym narzędziem używanym do wykorzystania systemu niezgodnie z przeznaczeniem.

CAPTCHA jest stosunkowo prostym zabezpieczeniem, ale wystarczająco skutecznym, gdyż spamerzy wybierają raczej inne metody pokonywania zabezpieczeń i włamywania się do systemów. Zamiast wykorzystywać najnowszą technikę do rozpoznania znaków, wolą zatrudnić biednych do rozpoznawania wzorów CAPTCHA za pomocą ich oczu i mózgu i wpisywania odpowiedzi na klawiaturze. Okazuje się, że wykorzystanie prawdziwej, taniej inteligencji jest lepszym rozwiązaniem niż rozwijanie jej sztucznego odpowiednika.

Chociaż oprogramowanie przynajmniej częściowo może zautomatyzować rozpoznanie, to - według raportów Google’a - raczej ludzie zarabiający tyle co nic w krajach rozwijających się i wpisujący rozpoznane przez siebie znaki do odpowiednich rubryk są głównym zagrożeniem dla systemów CAPTCHA. Udowadniają w ten sposób, że komputer nie jest wystarczająco inteligentny, by wykiwać system, ale ludzie na pewno dadzą sobie z tym radę. To nie jest sztuczna inteligencja, a jedynie zdrowy rozsądek połączony z przyrostem wartości kapitału.

Spuścić z oka

Choć uważa się, że komputery są inteligentniejsze niż ludzie w rozwiązywaniu numerycznych zagadnień, to jednak pozostawienie ich samym sobie może stworzyć więcej problemów niż będą mogły rozwiązać. Człowiek zatrzymuje się, żeby zastanowić się, jeśli coś idzie nie tak, natomiast złożone systemy komputerowe mogą nie zaprzestać pracy, nie zważając na spustoszenia, które pozostawiają za sobą.

Przykładem tego są systemy obsługujące City i Wall Street. Za ich pośrednictwem przeprowadza się automatycznie aż do 80 procent wszystkich transakcji. Nie są one w żadnym momencie objęte ludzką kontrolą. Pozbawieni nadzorcy zdolnego do refleksji, automatyczni dealerzy są w części odpowiedzialni za ostatnią finansową rzeź. Jak to wyjaśnił Richard Dooling w "New York Timesie": "Można było wziąć trylion dolarów pod zastaw hipoteczny, dodać kilka instrumentów pochodnych, przygotować za pomocą swoich komputerów i - szast prast - stworzyć 62 tryliony urojonego bogactwa". Algorytmy leżące u podłoża handlu były źle napisane, ponieważ ocena ryzyka, na której zostały oparte, także zawierała błędy. To wszystko nie było sprawdzane i w efekcie całość wymknęła się spod kontroli.

Strach i obrzydzenie

Prawdopodobnie nie tylko komputery i algorytmy są odpowiedzialne za kryzys ekonomiczny, ale wiele osób wierzy, że powiększanie mocy obliczeniowej i rozwijająca się sztuczna inteligencja uprawdopodobniają scenariusz napisany przez autorów fantastyki naukowej. Przewidywali od lat, że inteligentne maszyny odmówią współpracy i zaczną uzurpować sobie ludzkie prawa.

"Jeżeli już będziemy bliscy wyprodukowania systemu komputerowego wystarczająco potężnego i jeszcze wystarczająco elastycznego, żeby zbudować na nim sztuczną inteligencję, ujawnią się dwie głęboko przeciwstawne sobie filozofie", powiedział Hugo de Garis. "Jedni będą namawiać do zastanowienia się, jak najlepiej wykorzystać nowe osiągnięcie, drudzy powiedzą, że ludzkość nigdy nie powinna tworzyć takich rzeczy, które niosą zbyt duże ryzyko, nad którym nie będziemy mogli zapanować. Oni będą mądrzejsi od nas, podyktują nam swoje warunki i zapanują nad globem". William Gibson w słynnej powieści Neuromancer zaproponował rozwiązanie tego problemu, policję Turinga, która miała zapobiegać przełamywaniu ograniczeń rozwoju wbudowanych w komputery AI. Maszyny będą inteligentne, ale nie możemy oczekiwać, że będą pracowały bez błędów. "Kiedy stworzymy pierwszą superinteligentną jednostkę, moglibyśmy popełnić błąd i wyznaczyć jej cele, których realizacja doprowadziłaby do unicestwienia rodzaju ludzkiego", ostrzega Nick Bostrom, kierownik Instytutu Przyszłości Ludzkości na Uniwersytecie Oksfordzkim. "Na przykład, moglibyśmy mylnie podnieść jakiś mało ważny cel do rangi supercelu. Polecimy urządzeniu, żeby rozwiązało problem matematyczny, a ono, optymalizując wykonanie, zamieni po drodze cały układ słoneczny w jeden wielki kalkulator, przy okazji zabijając osobę, która zadała jej tę pracę"

Myśl robota

Wiele z podejrzeń otaczających sztuczną inteligencję ma swoje źródło w lęku przed nieznanym i osobliwych wizjach autorów fantastyki naukowej. W niektórych maszyny stają się tak inteligentne, że używają swojego umysłu do rozwijania jeszcze bardziej inteligentnych potomków. I chociaż tysiące lat zabrało ludzkości wdrapanie się na dzisiejszy poziom technologii, to końcowe kroki na tej drodze mogłyby być kwestią dni, w których maszyny przemodelują się na bardziej inteligentne w coraz szybszym tempie.

Wynalazca i futurysta Ray Kurzweil przepowiedział, że taki moment nastąpi w roku 2045, ale w istocie rzeczy nikt nie jest w stanie przewidzieć, kiedy i czy rzeczywiście to się stanie. Niewątpliwie w tym czasie już nie będzie rządzić technologia krzemowa.

"Dla silnej inteligencji potrzebujemy przełomu", mówi Grand. "Po pierwsze, podejrzewam, że teoria zacznie układać się w całość bardzo szybko i technologia nie pozostanie za nią daleko w tyle. Mam wielkie nadzieje, że ten przełom nadejdzie wkrótce, ale kłopot z przełomami polega na tym, że nie wiesz ani kiedy, ani gdzie się wydarzy. Tymczasem naukowcy nadal będą wyciskać ostatnie możliwości z krzemu w poszukiwaniu jego następcy".

Brakujące ogniwo

Wśród wielu potencjalnych kandydatów do tytułu technologii komputera przyszłości, żadna nie jest jednocześnie bardziej złudna i mająca wielkie możliwości wywołania zmian w otaczającym nas świecie, niż technologia kwantowa. Jak wyjaśniał fizyk teoretyk John Wheeler, "Jeżeli mechanika kwantowa wydaje ci się prosta, to znaczy, że nie masz o niej zielonego pojęcia". Zasada działania obliczeń kwantowych jest równie niezrozumiała.

Praca dzisiejszych komputerów polega na manipulowaniu bitami, które istnieją w jednym z dwóch stanów (1 albo 0), natomiast komputery kwantowe używają kubitów, które składają się z atomów, elektronów, jonów albo fotonów mogących istnieć w położeniach 1 i 0. Kubit może być jedynką, zerem, obydwoma na raz albo gdziekolwiek między nimi. Oznacza to, że komputery kwantowe mogłyby pracować nad milionami zadań w tym samym czasie.

Ta możliwość przeprowadzania równoległych obliczeń oznacza na przykład, że komputer kwantowy mógłby wykonywać meteorologiczne symulacje w czasie rzeczywistym, albo realizować najbardziej zaawansowane utajnianie świata, szyfrując wszystko w ciągu kilku godzin. Służby bezpieczeństwa, rządy i banki obserwują tę dziedzinę z niepokojem, ponieważ pierwszy komputer kwantowy mógłby także wszystko rozszyfrować, udostępniając całą komunikację i transakcje finansowe do nadużyć.

Cała ta dodatkowa moc obliczeniowa mogłaby mieć rzeczywiste znaczenie dla wykonywania złożonych algorytmów, niezbędnych, jeżeli sztuczna inteligencja ma się wyzwolić z poziomu przedszkola. "Obliczenia kwantowe mogłyby stanowić brakujące ogniwo, które naprawdę podniesie inteligencję maszynową do poziomu ludzkiej", powiedział neurobiolog Harmut Neven.

Kiedy zobaczymy pierwsze komputery kwantowe? Biorąc pod uwagę aktualny postęp technologii, akademiccy entuzjaści mówią o czekaniu 10- lub 20-letnim, podczas gdy sceptycy wierzą, że takie komputery pozostaną jedynie w sferze fantastyki naukowej.


Zobacz również