ARM kontra x86 - pojedynek technologii procesorowych

Procesory z architekturą ARM znajdują się w prawie każdym smartfonie i tablecie. Te energooszczędne układy podbiły rynkową niszę, która przez długi czas nie wzbudzała zainteresowania procesorowego giganta, Intela. Opisujemy różnice pomiędzy technologiami ARM i x86.

Smartfony i tablety zapoczątkowały rewolucję wśród urządzeń elektroniki użytkowej, stając się z biegiem czasu poważnym graczem na rynku i silnym konkurentem komputerów stacjonarnych i laptopów. Urządzenia przenośne nie są już jak kiedyś udoskonalonymi telefonami, lecz uniwersalnymi komputerami w miniaturowym formacie, które wyposażone we właściwe aplikacje przejmują coraz więcej zadań od konwencjonalnych pecetów. Przedstawioną zmianę paradygmatu umożliwiła nowatorska architektura procesorów – ARM – która od samego początku była optymalizowana pod kątem efektywności i zmniejszonego poboru mocy. Typ procesorów, o którym mowa, nie ma na celu uzyskiwać jak największej mocy obliczeniowej, którą można mierzyć i wyrażać jednostką FLOPS (Floating Point Operations Per Second – liczba operacji zmiennoprzecinkowych na sekundę). Zamiast niej istotną rolę odgrywają takie parametry jak efektywna budowa procesora, niski pobór mocy, który zapewnia jak najdłuższą pracę na baterii, jak najmniejsza emisja ciepła (co umożliwia utrzymanie niskiej temperatury roboczej), a także niskie koszty produkcji i opłaty licencyjne.

Początki ery komputerów domowych

Akronim ARM oznacza Advanced RISC Machines. Nie jest znakiem towarowym któregoś z producentów, lecz model programowy odstępowany producentom odpłatnie w postaci licencji. Pomysłodawcą i twórcą architektury, o której mowa, jest brytyjska spółka ARM Limited znana kiedyś pod nazwą Acorn. Choć pozycja modelu ARM na rynku masowym zaczęła przybierać na znaczeniu dopiero w ostatnich latach, sama architektura ma już 30 lat. Debiutowała w postaci koprocesora w BBC Micro – typowym mikrokomputerze domowym lat osiemdziesiątych. Choć nie podbił rynku tak jak modele Commodore 64/128/Amiga czy Atari ST, duże zainteresowanie wzbudził Acorn Archimedes, który już w 1987 r. zachwycał środowiska fachowców, zapewniając 32-bitowy procesor i bardzo wysoką jak na tamte czasy rozdzielczość ekranu (wynosiła 1152 x 896 pikseli). Jednak era mikrokomputerów domowych skończyła się dość szybko, nie dając Archimedesowi szansy odniesienia wielkiego sukcesu rynkowego.

Acorn Archimedes był jednym z pierwszych komputerów o stosunkowo przystępnej cenie wyposażonych w 32-bitowy procesor w postaci ARM2. Częstotliwość taktowania na poziomie 8 MHz i pamięć o pojemności 1 MB zapewniały imponującą jak na lata osiemdziesiąte wydajność.Kliknij, aby powiększyćAcorn Archimedes był jednym z pierwszych komputerów o stosunkowo przystępnej cenie wyposażonych w 32-bitowy procesor w postaci ARM2. Częstotliwość taktowania na poziomie 8 MHz i pamięć o pojemności 1 MB zapewniały imponującą jak na lata osiemdziesiąte wydajność.

Sukces ze wsparciem Apple

Zamiast tego na początku lat dziewięćdziesiątych pojawiła się firma Apple, poszukując procesora do swojej serii produktów Newton. Kooperacja obydwóch koncernów zaowocowała opracowaniem układu ARM6 przeznaczonych do tych wczesnych modeli komputerów typu PDA. Był on bezpośrednim przodkiem procesorów ARM, które dziesięć lat później miały znaleźć zastosowanie w odtwarzaczach iPod, a jeszcze później w smartfonach iPhone. Zanim ta klasa urządzeń uzyskała niesamowity sukces, zyskując popularność nie tylko w gronie zagorzałych entuzjastów produktów Apple, niekwestionowanym liderem na rynku procesorów stał się Intel. Prawie wszystkie komputery stacjonarne i laptopy były wyposażone w jednostkę centralną Intela lub kompatybilny procesor tej platformy x86. Jednak wraz z zacieraniem się dominacji komputerów klasy PC gaśnie także przewaga Intela. Na dodatek w 2012 r. weszły na rynek pierwsze niskobudżetowe laptopy – chociażby Samsung Chromebook Series 3 – prawie podbierając klientelę Intelowi. Prawie, bo zastosowano w nich jako system operacyjny Google Chrome OS, który powstał na podstawie jądra systemu Linux, a jego głównym elementem jest specjalna wersja przeglądarki internetowej Chrome. Jednak w tym samym czasie także Microsoft zaprezentował swój pierwszy system operacyjny, który nie działa na platformie x86 Intela. Wprawdzie Windows RT, bo taką nosi nazwę, nie był dany ogromny sukces rynkowy z powodu nazbyt skromnej oferty w zakresie aplikacji, lecz jego obecność wskazuje dobitnie, że z biegiem czasu ARM stała się na tyle dopracowaną technologią, iż nie da się jej zignorować.

3 komentarze

Dodaj swój

Rinzler

20-07-2014 18:49

x86 czy ARM to tylko marketingowy szajs. Prawdziwy procesor to koncepcja 68k czy 88k

Alx

08-05-2014 12:41

" [...] CISC. Ten zestaw zapewnia złożone instrukcje, które łączą w sobie kilka operacji niskiego poziomu[...]", ale wykonanie każdej instrukcji RISC to (w dużym uproszczeniu) 2 takty zegara, natomiast wykonanie nawet najprostszej instrukcji CISC to w najlepszym przypadku kilkanaście taktów. Intel nadrabia te braki wykonując instrukcje potokowo i zrównoleglając ich wykonanie. Co się zaś tyczy operacji zmiennoprzecinkowych to w obydwu procesorach wykonywane są one przez "zewnętrzny" układ coprocesora arytmetycznego. Czas wykonania takich instrukcji zależy tylko i wyłącznie od tego coprocesora, ale i tak zajmuje znaczną ilość czasu. ARM to bardzo szeroka rodzinka, ale porównywanie najprostszego ARM z Core lub Pentium, to próba wykazania, że traktor nie nadaje się na pojazd rajdowy... a do Ferrari nie można podłączyć glebogryzarki :) bo nie takie jego przeznaczenie.

Filip

12-02-2014 23:23

"niższy pobór mocy niż w procesorach architektury x86" No co to to nie prawda. Już ATOM 32nm pobił 28nm ARM jeśli chodzi o prądożerność w smartphone (patrz: Motorola Razr vs Motorola Razr I oraz ich banchmarki pod kątem prądożerności)