Trendy technologiczne 2019 - sprzęt i podzespoły

Nowe procesy technologiczne, nowe architektury, nowe rodzaje interfejsów, które zaoferują jeszcze wyższą przepustowość… Jaki będzie nowy rok – i kolejne – w segmencie sprzętu i podzespołów?


Sytuacja na rynku podzespołów i peryferiów komputerowych jest niezwykle dynamiczna. Producenci tak szybko zasypują nas nowymi produktami i technologiami, że czasem trudno nadążyć nie tylko za rozwojem, ale i za… kupnem co nowinek. Nie ułatwiają tego coraz wyższe ceny, które należy wyłożyć na topowe produkty, a które są windowane na poziom dotychczas niespotykany. Kiedyś „grozę” budziła karta graficzna w cenie 1000 zł. Dziś większego zdziwienia nie budzą już układy GeForce RTX 2080 Ti wycenione na 6000 zł. A wciąż mówimy o produktach przeznaczonych na rynek konsumencki, a nie profesjonalny, rządzący się swoimi prawami. Zupełnie nie przeszkadza to firmom bić kolejnych rekordów sprzedaży, chociaż odbywa się to przy akompaniamencie głośnego utyskiwania klientów.

Trendy technologiczne 2019. Procesory

Sytuacja na rynku procesorów może nie wywróciła się do góry nogami, ale rywalizacja pomiędzy producentami przybrała niespodziewany obrót. Kto by się spodziewał, że to Intel będzie starał się nadążyć za nowościami wprowadzanymi przez AMD, a nie odwrotnie? W czasie gdy AMD miało poważne problemy z architekturą Bulldozer (procesory AMD FX Zambezi i kolejne generacje), Intel... nie robił w zasadzie nic. Uznał, że wojna jest już wygrana i wystarczy poczekać, aż konkurent sam się wykrwawi.

AMD srogo obrywało, a Intel minimalnie ulepszał swoje procesory z generacji na generację. Był taki okres, kiedy Intel stwierdził, że w zasadzie procesory są nudne, a firma woli zajmować się czymś ciekawszym. Na przykład autonomicznymi samochodami, czy biżuterią smart i urządzeniami ubieralnymi. Efektem tego było nie tylko załamanie strategii tick-tock (proces-architektura) i POA (proces-optymalizacja-architektura). W efekcie Intel wciąż tkwi w 14-nanometrowej litografii, stosowanej od czasu piątej generacji Core o nazwie kodowej Broadwell, podczas gdy AMD, jak i firmy nie rywalizujące bezpośrednio z Intelem, przeszły już na proces 12, a nawet 7-nanometrowy.

Intel zbiera teraz żniwo lat zaniedbań w sektorze CPU – musi znów walczyć z ofertą AMD i to nie tylko w segmencie konsumenckim (Ryzen), ale i profesjonalnym (Threadripper), a nawet serwerowym (Epyc). Już premiera procesorów Ryzen wywołała gorączkowe ruchy Intela, które wciąż się intensyfikują, choćby w segmencie high-end. Rozwiązania z tego segmentu, które Intel proponuje dziś, zaskakują jednak absurdalnymi wymaganiami energetycznymi. Oczywiście, nie oznacza to, że Intel zaczął robić marne procesory, albo że firma zbankrutuje. Wiemy, że do tego nie dojdzie.

Pomimo tego, że Intel nie pokazuje nic przełomowego, a nowe produkty budzą wiele wątpliwości, to supremacja niebieskiego giganta nie zostanie tak łatwo złamana. Zdążył on już zająć zbyt wielką część rynku. Nawet takie wpadki konkurencji, jak prezentowanie zalet nowych procesorów na przykładzie ewidentnie źle wykonanych testów, wywołują tylko krótki szum medialny. Coraz częściej można natknąć się na statystyki ze sklepów o wzroście popularności produktów AMD wśród konsumentów, ale do większych zmian udziałów tego producenta na rynku jeszcze daleko. Nowe produkty AMD są lepsze pod względem stosunku ceny do możliwości, ale odzyskiwanie rynku to zadanie długie i żmudne. Nie mówimy zresztą tylko o segmencie desktop, ale i mobilnym, bowiem wciąż lwia część laptopów dostępnych w sprzedaży jest oparta na podzespołach Intela. W każdym razie warto kibicować AMD, bo dzięki działaniu tej firmy Intel w końcu musiał się ruszyć i na skostniałym rynku procesorów zaczęło się coś dziać. Ale jak ruszyło – to już z kopyta.

Rzecz jasna, mamy trochę „odgrzewania kotletów” jak choćby odświeżanie rodziny Skylake-X. Trochę tego jest – 8-rdzeniowy/16-wątkowy Core i7-9800X, 10-rdzeniowy/20-wątkowy Core i9-9820X, 10-rdzeniowy/20-wątkowy Core i9-9900X, 12-rdzeniowy/24-wątkowy Core i9-9920X, 14-rdzeniowy/28-wątkowy Core i9-9940X, 16-rdzeniowy/32-wątkowy Core i9-9960X czy w końcu 18-rdzeniowy/36-wątkowy Core i9-9980XE. Jednak w kontekście dokładania coraz większej liczby mocnych rdzeni nie ma na co narzekać. No chyba, że tylko na ceny.

Trendy technologiczne 2019. Czego się spodziewać

AMD wprowadzi na rynek procesory mainstream oparte na architekturze Zen 2. Oprócz ciągłego ulepszania architektury oznacza to również przejście na 7-nanometrową litografię. Po nowych układach możemy się spodziewać niższego zapotrzebowania na energię elektryczną przy tej samej wydajności (mówi się o obniżkach rzędu o 50%) lub wyższej o ok. 1/4 wydajności przy takim samym apetycie na energię. W nowych procesorach AMD zadbało również o załatanie luki bezpieczeństwa Spectre, której wykrycie (wraz z Meltdown) odbiło się małym trzęsieniem ziemi w branży IT. Dobrze, że temat nie został zamieciony pod dywan, bo programowe łatki nie rozwiązywały tego problemu – tu trzeba było zadbać o warstwę sprzętową.

Litografia 7 nm na początku „wyląduje” w segmencie serwerowym (procesory AMD Epyc) i to w zacnym towarzystwie innych innowacyjnych technologii – ze 128 liniami PCI Express w wersji 4.0, 8-kanałowym kontrolerem RAM i maksymalnie 64 rdzeniami CPU. Jak wiadomo, obecnie większość funkcji dawnego mostka północnego została zintegrowana z procesorami. Taki los czeka także kolejne interfejsy i z dużą dozą pewności można przewidzieć, że mostek południowy wkrótce również zniknie z płyt głównych.

7-nanometrowy proces oczywiście znajdzie się również w kartach graficznych. Karty oparte na układzie Vega 20 są już ponoć gotowe, ale mowa o modelach Radeon Instinct do zastosowań profesjonalnych. A co z modelami AMD Navi, czyli kolejnych modelach Radeon przeznaczonych do segmentu konsumenckiego? Wiadomo na razie tyle, że będą to modele ze średniej półki wydajnościowej, więc nie ma co spodziewać się szybkiej detronizacji GeForce’a RTX 2080 Ti, czyli aktualnie najbardziej wydajnej jednoprocesorowej karty graficznej na rynku. Producenci zresztą nie palą się do produkcji modeli dwuprocesorowych. Wszystko wskazuje na to, że ta moda – podobnie jak multiGPU (czyli Nvidia SLI i AMD CrossFireX) – powoli odchodzi do lamusa. Łączenie kart graficznych zawsze było kłopotliwe, a wraz z nadejściem DirectX 12 stało się jeszcze bardziej problematyczne dla programistów. Stąd coraz mniejsza liczba gier, która potrafi wykorzystać więcej niż jeden układ graficzny.

Intel jeszcze pod koniec 2018 roku miał ujawnić, co w końcu stanie się z 10-nanometrową litografią, nad którą pracuje od lat. Ponoć w końcu ma nastąpić przełom. Najwyższy czas. Pierwsze modele o tej litografii, czyli Ice Lake (energooszczędne) pojawią się już w drugiej połowie 2019 roku. A karty graficzne Intela? Chwileczkę… Intel i karty graficzne? Owszem – jeśli przegapiliście to wydarzenie, to przypominamy, że Raja Koduri, czyli szef działu układów graficznych w AMD (spod którego ręki wyszła między innymi Vega) zmienił barwy z czerwonych na niebieskie, czyli przeszedł do Intela. Oczywiście zaprojektowanie i wyprodukowanie kart graficznych musi potrwać – 2020 rok wydaje się być prawdopodobny. Na razie wiadomo jedynie tyle, że karty graficzne Intela będą korzystały z tego samego rozwiązania supersynchronizacji co układy AMD Radeon, czyli FreeSync.

Procesor Intela z grafiką AMD, czyli Kaby Lake-G – pierwsza jaskółka zmian

Procesor Intela z grafiką AMD, czyli Kaby Lake-G – pierwsza jaskółka zmian

Intel zamierza też odpowiedzieć na high-endowe poczynania AMD i wprowadzi procesory Intel Cascade Lake X. 48 rdzeni i 12-kanałowy kontroler RAM robią wrażenie. Pierwsze konstrukcje, które pokazał wstępnie Intel, straszą koniecznością jednoczesnego stosowania dwóch zasilaczy na raz. Szaleństwo? Miejmy nadzieję, że to tylko prototypy, a finalny produkt nie będzie miał tak wygórowanych wymagań energetycznych.

Trendy technologiczne 2019. Karty graficzne

Rok 2018 bezdyskusyjnie należał do Nvidii. Już karty poprzedniej generacji, oparte na architekturze Pascal, dowiodły, że będzie niezwykle trudno pokazać coś lepszego w segmencie konsumenckim. Średnio udane wejście kart Radeon Vega na rynek tylko potwierdziło te przypuszczenia. W tym roku „zieloni” zaprezentowali kolejną generację kart, opartą na architekturze Turing. Odbiorców zaszokowały nie tyle wydajność czy technologiczne nowinki wbudowane w nowe karty graficzne, co cena. Koszt topowych modeli GeForce RTX 2080 Ti może sięgać cenę 6 tys. zł. Główną innowacją nowej architektury jest wbudowanie w GPU nowych rdzeni RT odpowiedzialnych za ray-tracing w czasie rzeczywistym (w końcu się tego doczekaliśmy!), jak i rdzeni Tensor odpowiedzialnych za uczenie maszynowe. Mają one umożliwić wprowadzenie technologii przydatnych graczom – jak choćby DLSS (Deep Learning Super Sampling), ale na dłuższą metę ich zastosowanie może być bardzo szerokie.

To czy ray-tracing w grach się przyjmie zależy od wielu czynników, i na ten moment nie można powiedzieć w tym temacie nic pewnego. Pierwsze implementacje w grach (m.in. „Battlefield V”) budzą wiele wątpliwości, bowiem jakość obrazu nie zmienia się w znaczącym stopniu, a wymagania sprzętowe rosną lawinowo. Oczywiście zaprezentowano sceny, które wywołują efekt „wow”, ale przez większość część rozgrywki nie będziemy widzieć różnicy pomiędzy stosowaną dotychczas rasteryzacją, a silnikiem Hybrid Engine, który „dokleja” do rasteryzacji właśnie technologię śledzenia promieni słonecznych. Czyżby nastąpił falstart i rynek po prostu nie jest na to gotowy?

W segmencie układów graficznych w najbliższej przyszłości należy spodziewać się „ataku” na segment mobile. Pierwsze mobilne wersje AMD Vega już wylądowały na pokładach laptopów, a w 2019 r. Nvidia zaprezentuje swoje mobilne odpowiedniki RTX 2070, RTX 2070 Max-Q oraz 2060 Ti. A co z mobilnymi odpowiednikami RTX 2080? Najwcześniej – pod koniec 2019 roku. Rok 2020 pewnie przywita nas kolejną generacją kart Nvidii. Pewne jest tylko to, że karty graficzne będą jeszcze droższe. Nawet układy najnowszych generacji, pomimo tego, że wywindowano ich ceny bardzo wysoko, wciąż sprzedają się jak ciepłe bułeczki.

Trendy technologiczne 2019. Inne technologie

AMD pracuje nie tylko nad generacją procesorów Zen 3 (są już pierwsze działające modele), ale również nad Zen 4. O ile Zen 3 będzie pracował na ulepszonej litografii Zen 2 (czyli 7 nm+), to proces technologiczny Zen 4 nie jest jeszcze znany. Uda się przeskoczyć do 5 nm, czy zacznie się bicie głową w mur? Są już plany tranzystorów poniżej procesu 3 nm, ale ile trzeba będzie przeskoczyć problemów, by dotrzeć do tego poziomu tego nie wiedzą nawet najstarsi inżynierowie.

Trzeba też wspomnieć o nowym standardzie pamięci RAM, czyli DDR5. Pierwsze modele RAM i kontrolery już są, ale nie ma co spodziewać się ich dostępności w segmencie mainstream szybciej niż w 2020 roku. Należy za to spodziewać się zasilania na poziomie 1,1 V i taktowania powyżej 5000 MHz i. W pierwszym aspekcie zmieni się więc niewiele, natomiast w drugim przeskok jest ogromny. Moduły pamięci DDR5 mają też mieć pojemność do 32 GB. Czy wraz z DDR5 w segmencie mainstream pojawią się również czterokanałowe kontrolery RAM? Wszystko zależy od kosztów produkcji. Jeśli spadną do akceptowalnego poziomu, również i to rozwiązanie stosowane na razie w high-endzie wyląduje w domowych komputerach. Jednak w praktyce DDR5 w konfiguracji dwukanałowej wydaje się być najbardziej prawdopodobnym scenariuszem.

Rzut oka w przyszłość

Patrząc z perspektywy prawie trzech dekad (czyli od momentu, kiedy w moim domu zagościł komputer Timex 2048, będący klonem ZX Spectrum 48), to co mamy do dyspozycji dziś, jest po prostu niewiarygodne. Dzisiejsze miniaturowe pecety osiągają rozmiary kart kredytowych (np. Intel Compute Card), a te wielkości małego pudełka (np. Intel Hades Canyon) oferują więcej niż niejeden pecet zapakowany w klasyczną obudowę tower. Jeszcze nigdy użytkownik domowy nie miał do dyspozycji tak potężnej mocy obliczeniowej jak teraz.

NUC Intel Hades Canyon to wyjątkowe i wydajne połączenie konstrukcji Intela i AMD

NUC Intel Hades Canyon to wyjątkowe i wydajne połączenie konstrukcji Intela i AMD

Procesory AMD Threadripper pierwszej generacji pozwoliły na kupno wydajnego sprzętu w przystępnej cenie, a druga generacja zawiesiła poprzeczkę jeszcze wyżej. W domowym zaciszu możemy przeprowadzać skomplikowane obliczenia, do których jeszcze niedawno potrzebowaliśmy centr danych. Ta tendencja będzie się utrzymywać, ale równocześnie przeciętny Kowalski będzie miał do wyboru mnóstwo prostszych urządzeń, na których będzie mógł bez problemu konsumować treści, przeglądać Facebooka, czy pisać maila – gdzie wielka moc obliczeniowa będzie zbędna.

W zasadzie oddzielny komputer i drogie podzespoły konieczne do rozwinięcia odpowiedniej mocy obliczeniowej czasem wydają się kompletnie niepotrzebne. Nowoczesne telewizory smart, choć wciąż dalekie od doskonałości, potrafią coraz więcej. Już teraz zapewniają możliwość przeglądania internetu, zabawy w prostsze gry, czy oglądanie Netfliksa w 4K. Może jeszcze trochę czasu i wystarczy nam tylko kontroler, by zaczęły spełniać rolę konsoli i domowego komputera. Po co nam w domu karta graficzna za 6 tys. złotych, która stanowi zaledwie ułamek kwoty jaką należy wydać na wydajny komputer?

Gry również mogą być przesyłane strumieniowo – kilka serwisów oferujących takie usługi zdążyło już zresztą ogłosić upadek, ale może po prostu pojawiły się za szybko i czas powszechnego streamingu dopiero nadchodzi? Microsoft już zapowiedział usługę Project xCloud, czyli strumieniowania gier na słabsze komputery i urządzenia mobilne. Wszystkie obliczenia przeprowadzane są na serwerach Microsoftu, użytkownik końcowy będzie musiał co najwyżej zainwestować w szybki internet. W Polsce są już miejsca, gdzie łącza internetowe mają szybkość 10 Gb/s – w sam raz do masowego streamingu.

Należy spodziewać się, że sercem domowego systemu rozrywki będzie telewizor. Oczywiście jak największy i z obowiązkową imponującą rozdzielczością. Samsung już sprzedaje telewizory 8K, więc strach pomyśleć co będzie za kilka lat. Widać również potrzebę wprowadzenia nowego standardu przesyłania obrazu, bo jak się okazało, nawet ostatnia wersja DisplayPort nie jest w stanie przesłać obrazu 4K HDR w 144 Hz – wejściu takich monitorów na rynek towarzyszył mały skandal, gdy okazało się, że przy takim odświeżaniu obraz musi być dodatkowo kompresowany i znacznie tracił na jakości. A co z matrycami? Dzisiejsze OLED-y imponują jakością obrazu, ale borykają się z wieloma problemami, jak choćby plazmy jeszcze kilkanaście lat temu. Na ten moment znacznie lepszym wyjściem wydaje się technologia QLED.