Co po PC?

"Potężne przedsiębiorstwa bezwzględnie eliminują wszelkie nowe rozwiązania - taki stan utrzymuje się od mniej więcej 15. lat" - taki obraz branży komputerowej kreślą niektórzy eksperci. Jak jest naprawdę?

"Potężne przedsiębiorstwa bezwzględnie eliminują wszelkie nowe rozwiązania - taki stan utrzymuje się od mniej więcej 15. lat" - taki obraz branży komputerowej kreślą niektórzy eksperci. Jak jest naprawdę?

Minęło już blisko 20 lat od czasu, gdy IBM zaprezentował oczom zdumionego świata beżowe pudełko, znane dziś jako Personal Computer (PC). To dzięki temu komputerowi, wyprodukowanemu dwie dekady temu, istnieją dziś takie potęgi, jak Compaq, Dell czy - nie szukając daleko - Optimus. Niestety, IBM nie we wszystkim dotrzymał kroku firmom, którym pomógł zaistnieć. Dlaczego? Trudno na to pytanie uzyskać jednoznaczną odpowiedź. Można jednak stwierdzić, że koncern stał się ofiarą brutalnego prawa rynku komputerowego - "Innowacja lub śmierć". Z tej prawidłowości doskonale zdają sobie sprawę ludzie z Apple, dla których ta zasada - jak się zdaje - stanowi motto działania. To jednak wyjątek, większość firm bowiem przeżywa zastój, zarzucając rynek wtórnymi rozwiązaniami (jedną z firm częściej oskarżanych o stagnację jest Microsoft).

Czas dominacji gigantów

"Niesłychanie trudno jest wprowadzać dziś nowe rozwiązania" - narzeka Andy Hertzfeld, programista, który na początku lat 80. zajmował się opracowaniem interfejsu komputerów Macintosh, teraz zaś pracuje nad interfejsem opartym na systemie Linux. To, co na rynku komputerowym dzieje się obecnie, A. Hertzfeld widzi raczej w czarnych barwach: "Mamy tu do czynienia z chorą, bezproduktywną konkurencją: potężne przedsiębiorstwa bezwzględnie eliminują wszelkie nowe rozwiązania - taki stan utrzymuje się od mniej więcej 15 lat".

Przyznać należy, że to dość pesymistyczna wizja, czyżby rzeczywiście niewiele zmieniło się od połowy lat 80.? Komputery z roku na rok stają się coraz szybsze, w zawrotnym tempie rośnie ich moc obliczeniowa, olbrzymie postępy (głównie dzięki grom komputerowym) poczyniono w zakresie grafiki. Mamy już laptopy - względnie tanie, acz potężne komputery przenośne... Ba, mamy nawet całkiem wydajne komputery, mieszczące się w kieszeni marynarki. Od debiutu PC prawdziwa rewolucja dokonała się również w przemyśle poligraficznym. Dzięki przeglądarkom internetowym każdy ma dostęp do Internetu. Już niedługo w pełni dostępny będzie również bezprzewodowy dostęp do sieci. To wcale nie pieśń przyszłości. Niedawno Intel informował o nowym chipsecie, który znacznie usprawni pracę komputerów kieszonkowych, umożliwiając użytkownikom dostęp do Internetu niezależnie od tego, w jakim miejscu się znajdą.

Gdzie tkwi problem?

Przyjrzyjmy się komputerom domowym, stojącym na biurkach lub najczęściej schowanym pod nimi. Maszyny te wciąż wyglądają jak pierwszy PC, zaprezentowany 20 lat temu przez IBM. Smutne, szare, kanciaste pudełko, oplątane kilometrowym kablem. Do tego niezbyt efektowny (i niezbyt efektywny) monitor, obowiązkowo mysz (lub jej substytut) oraz klawiatura - wszystko to nie najlepiej spełniające wymogi ergonomiczne. Bądźmy szczerzy: kogo, po kilku godzinach pracy przy komputerze, nie bolą nadgarstki, oczy i kręgosłup? Od urządzenia, które - wg entuzjastów - od 20 lat nieprzerwanie się rozwija, możemy chyba wymagać, by było wygodne w użyciu?

Nie inaczej jest z oprogramowaniem. Większość programów jest przeładowana opcjami, zaś osiągnięcie biegłości w ich obsłudze wymaga wielu godzin ćwiczeń i nauki. To mija się z ideą PC - komputer miał być narzędziem dla wszystkich, nie tylko dla profesjonalistów. Obsługa komputera staję się coraz bardziej skomplikowana. Użytkownicy coraz częściej są zmuszeni do wykonywania złożonych operacji, aby utrzymać komputer "na chodzie". A z powodu niekompatybilności podzespołów komputery częściej niż kiedykolwiek działają niestabilnie. Nieprzypadkowo więc większość wielkich firm notuje w ostatnim czasie znaczący spadek sprzedaży. Potencjalni klienci patrzą na komputery jak powszechny sprzęt zmechanizowany: w większości domów jest jeden, po co więc kupować nowy, skoro stary wciąż działa? Innymi słowy: rynek się nasycił.

Idzie nowe

Taka sytuacja dobrze rokuje na przyszłość: skoro stary produkt "przejadł się", trzeba opracować nowy, atrakcyjniejszy. To zaś może otworzyć nowy rozdział w historii PC. Na niedawnej konferencji w Seattle prawie 3 tys. specjalistów dyskutowało o przyszłości przemysłu komputerowego. Otwierający konferencję Bill Gates nie zdołał uniknąć dyskusji na temat problemów z obsługą współczesnych komputerów. Przyczynkiem do polemiki stał się znany wszystkim "niebieski ekran", który witany chichotem zgromadzonych ukazał się podczas prezentacji nowych możliwości sztandarowego produktu Microsoft. B. Gates był zmuszony do przyznania, że współczesne komputery osobiste są zbyt zawodne i skomplikowane w obsłudze. Koncern z Redmond jest zresztą jedną z niewielu firm, które mogłyby zaradzić tym problemom - Microsoft po prostu na to stać. Z budżetem rzędu 4-5 mld USD nie trzeba już walczyć o przetrwanie - można zająć się innowacjami.

Nowa strategia Microsoftu opiera się na sieci, czego dowodem jest projekt .Net (DotNet). Czyżby więc czekał nas system operacyjny oparty na sieci (takie próby już zresztą podejmowano - vide: www.mywebos.com)? Oczywiście, opracowanie nowego interfejsu nie jest jedynym priorytetem firmy. Zgodnie z deklaracją B. Gatesa równie ważne są problemy z obsługą, dlatego Microsoft zajmie się również badaniami nad programami rozpoznającymi ręczne pismo i mowę. O nowych rozwiązaniach słychać również z obozu procesorowej potęgi - Intela. Przedstawiciele firmy chcą na nowo zdefiniować pozycję komputera - z narzędzia pracy i nauki ma on się stać czymś w rodzaju domowego centrum rozrywki.

Podobną drogą podążają producenci konsol do gier: Sony i Nintendo. W ich nowych produktach znajdziemy zintegrowany czytnik DVD, CD, przeglądarki internetowe. To już nie tylko zabawki, to część grupy produktów, do których należą m.in. komputery, telewizory, telefony, pagery. Z badań rynku wynika, że w ok. w 45% amerykańskich domach (a przecież Stany Zjednoczone to jeden z najbardziej skomputeryzowanych krajów) wciąż nie ma komputera. Stawka jest więc ogromna, a całą pulę zgranie ten, kto pierwszy odkryje, czego brakuje dzisiejszym "pecetom". Wszyscy więc prześcigają się w pomysłach. To zaś pozwala wierzyć, że na następne wielkie innowacje w dziedzinie komputerów poczekamy krócej niż kolejnych 20 lat.

Przyszłość PC wg Microsoft...

Jedną z nowości zapowiadanych już od dawna przez Microsoft jest Tablet PC - komputer, którego obsługa ma przypominać zwykły notatnik. W skład urządzenia wchodzi wspomniany tablet, wielkości kartki formatu A4, oraz pióro (czyli stylus). I to wszystko - żadnej klawiatury. O ile brak myszy możemy sobie wyobrazić - jest przecież stylus - o tyle trudniej pogodzić się z brakiem klawiatury. Jak wprowadzać dane? Microsoft poczynił jednak olbrzymi postęp w dziedzinie programów "czytających". Do tej pory większość dostępnych aplikacji odczytywała 60-90 % pisma ręcznego. Według deklaracji przedstawicieli Microsoftu, w Tablet PC zastosowano rozwiązania, dzięki którym ponad 90% słów będzie trafnie odczytanych. To sprawia, że korzystanie z Tablet PC staje się sensowne - dotychczas w podobnych programach więcej czasu trzeba było poświęcić na poprawianie błędów niż na właściwe pisanie.

Procesor działający z częstotliwością 600 MHz, 128 MB RAM i dysk twardy o pojemności 6 GB - to najsłabsza z planowanych konfiguracji. Komputer będzie wyposażony w system Windows XP. Rynkowy debiut Tablet PC zaplanowano na przyszły rok. Jego sugerowana cena to 3-4 tys. USD (w zależności od konfiguracji).

... i wg IBM

Inną drogą poszli specjaliści z IBM, zajmujący się innowacjami w obsłudze poczciwych "pecetów". Inną, acz podobną - IBM postawił na komunikację werbalną - porozumiewanie się z komputerem za pomocą mowy. Być może więc wkrótce powszechny stanie się widok człowieka czule przemawiającego do maszyny. Ma w tym pomóc, opracowany i wciąż udoskonalany w pracowniach IBM, program ViaVoice. Mamy więc do czynienia z drugą już wizją komputera bez klawiatury. Jak przyznaje W.S. "Ozzie" Osborne z IBM, ViaVoice jest na razie narzędziem ograniczonym - także w tym przypadku więcej czasu zajmuje korekta niż właściwe pisanie. Osborne podkreśla jednak, że programy rozpoznające mowę mają znacznie szersze zastosowanie niż oprogramowanie "czytające". Zakładając, że uda się osiągnąć 100-proc. trafność dekodowania - zarówno mowy, jak i pisma - bardziej wygodny może wtedy okazać się program "słuchający" niż "czytający". Wygodniejszy, bo szybszy i łatwiejszy w użyciu. Jak się zresztą okazuje, ViaVoice już dziś jest programem dość powszechnie używanym - od 1996 r. sprzedano ok. 30 mln kopii. Oprogramowaniem rozpoznającym mowę zajął się również Microsoft. Program umożliwiający rozpoznawanie mowy jest zaimplementowany w Office XP, najnowszej edycji popularnego pakietu biurowego.

Technologie przyszłości

A teraz na poważnie - bez mrzonek o gadżetach przyszłości - przybliżmy pięć technologii, nad którymi trwają intensywne prace. Te nowości mogą zmienić świat komputerów szybciej niż komukolwiek się wydaje...

Ekstremalnie głęboka litografia ultrafioletowa

Teoria Moore'a zakłada, że wydajność półprzewodników podwaja się co 18 miesięcy. Na razie zwiększanie ich możliwości odbywa się poprzez "upakowywanie" coraz większej liczby obwodów na coraz mniejszym skrawku krzemu. Niestety, prawo Moore'a nie będzie obowiązywało wiecznie. Obecne technologie produkcji chipów powoli sięgają kresu swoich możliwości. Pewnych granic miniaturyzacji nie da się przekroczyć - przynajmniej przy użyciu dotychczasowych narzędzi. Przy produkcji mikroprocesorów wykorzystuje się bowiem skomplikowane procesy optyczne. Ograniczeniem jest więc długości fali światła: im jest ona krótsza, tym mniejsze obwody można wytworzyć na kawałku krzemu. Obecnie używa się fal o długości ok. 240 nanometrów. Technologia ta jest nazywana głęboką litografią ultrafioletową. W laboratorium Lawrenca Livermore'a w Kalifornii trwają badania nad rozwojem tej technologii. Naukowcy z Kalifornii używają fal światła o długość 10-100 nanometrów. Gdyby tę technologię z czasem udało się wprowadzić do produkcji, można oczekiwać blisko stukrotnego zwiększenia mocy obliczeniowej komputerów. Na to jednak przyjdzie jeszcze poczekać. Pierwsze mikroprocesory wyprodukowane za pomocą nowej metody pojawią się na rynku najwcześniej w 2005 r.

Monitory organiczne

Pewnego dnia poczciwa lampa kineskopowa dokona żywota. Powszechnie obowiązującym standardem (np. dla telewizorów, monitorów komputerowych czy telefonów komórkowych) staną się płaskie wyświetlacze, takie, jakich używa się dziś m.in. w laptopach. Z tym, że najczęściej używane dziś wyświetlacze ciekłokrystaliczne mają poważną wadę - są nieprzyzwoicie drogie... Właśnie dlatego uwaga większości producentów monitorów jest skupiona na wyświetlaczach, wykorzystujących emitujące światło, organiczne diody - znanych również jako OLED (organic light-emiting devices). Wynalazek ten bazuje na powszechnym w przyrodzie zjawisku, zwanym elektroluminescencją. Polega ono na tym, że pewne cząstki organiczne emitują światło, gdy płynie przez nie prąd. Stąd zaś niedaleka droga do wykonania z takiego materiału wyświetlacza (pierwsze kroki już poczyniono - koncern Pioneer wprowadził do sprzedaży radio samochodowe, którego wyświetlacz wykorzystuje technologię OLED). Urządzenia wykorzystujące diody organiczne mają właściwie same zalety. Są od klasycznych wyświetlaczy tańsze, cieńsze, łatwiejsze do wyprodukowania, zapewniają również wyższy komfort pracy. Kilka koncernów prowadzi jednocześnie prace nad ich powszechnym wykorzystaniem. Już w przyszłym roku można spodziewać się na rynku telefonu firmy przenośnego Seiko, wyposażonego w wyświetlacz OLED.

Przełączanie optyczne

Na sieci komputerowe obecnie składają się setki kilometrów kabli, oplatających niczym gigantyczna pajęczyna największe miasta świata. Teoretycznie więc grunt pod superszybkie sieci przyszłości jest przygotowany. Niestety, tylko teoretycznie. Sprzęt dziś używany do kierowania danych w odpowiednie miejsce nie jest wystarczająco szybki, by sprostać wymaganiom użytkowników. To proste - na otrzymanie danych czeka się obecnie zbyt długo. Tutaj mogłoby pomóc optyczne przełączanie.

Do przenoszenia danych sieci optyczne używają nie elektronów (jak klasyczne sieci), lecz strumieni światła. Większość tych sieci do przekazywania danych używa przełączania elektrooptycznego. To znaczy, że dane przychodzące w postaci fali świetlnych są rozkodowane do postaci elektronicznej. Wtedy jest sprawdzany adres, pod jaki mają zostać przesłane, po czym ponownie zamieniane na światło i przesyłane we właściwie miejsce. Problem w tym, iż to podwójne kodowanie trwa zbyt długo, dlatego też rozpoczęto prace nad jego wyeliminowaniem. Etap ten zostanie zastąpiony tzw. przełączaniem optycznym. Nad tym rozwiązaniem pracują już dziś firmy: Calient, Cisco, Nortel i Tellium. Pierwsze sieci oparte na przełączaniu optycznym powinny pojawić się już pod koniec br.

Technologia obecności

Poruszanie się po sieci przypomina chodzenie po ciemnym pokoju - nikt nie wie, że tam jesteś. Nikt, z wyjątkiem ciebie i "odźwiernego" (czyli twojego ISP). Ale może niedługo ktoś włączy światło za sprawą czegoś, co nazwano "technologią obecności", która sprawdzi, kto i kiedy "jest online". Technologia obecności ma źródło w programach do porozumiewania się za pośrednictwem Internetu, takich jak ICQ. Każdy użytkownik tego programu, który go włączy i zaloguje się do serwera, natychmiast pojawia się na "listach obecnych" osób, które zwykle z nim rozmawiają. Informatycy męczą się więc teraz nad objęciem tą procedurą całego Internetu. Pracuje nad tym m.in. Microsoft - to jeden z ważniejszych elementów nowego projektu firmy, HailStorm (znanym obecnie jako Microsoft.NET My Personal Services). Sieciowy debiut "technologii obecności" nastąpi prawdopodobnie jeszcze w tym roku.

Inteligentny biznes

Nie, wbrew pozorom to nie jest oksymoron - to nowy projekt, nad którym intensywnie pracują m.in. IBM, Microsoft i Oracle. Sprawa więc jest poważna. Czym jest ów "inteligentny biznes"? Zasada jest prosta. Trzeba odpowiednio skatalogować, połączyć i maksymalnie efektywnie wykorzystać gigabajty danych, jakie codziennie produkuje każde przedsiębiorstwo, tak by były one dla pracowników tych firm (i to nie tylko specjalistów od baz danych) łatwo dostępne, przejrzyste i przede wszystkim użyteczne. Wydaje się więc, że to żadna nowość, przecież o gromadzeniu i zarządzaniu danymi mówi się od kilkunastu lat. Jednak dopiero teraz podjęto próby stworzenia tak sprawnie działającego systemu dostępu do zgromadzonych informacji. Computer Associaties, IBM, Informix, Microsoft, Cognos, Moreover.com - to tylko niektóre przedsiębiorstwa, prowadzące prace nad oprogramowaniem, mającym urzeczywistnić hasło "inteligentny biznes".

Dlaczego nagle tyle dużych firm zajęło się oprogramowaniem dla biznesu? To proste - za tym stoją duże pieniądze. Trwa zacięta walka o klienta, zwycięzcy podzielą gigantyczne kwoty - od 3,5 mld USD w tym roku, aż do blisko 9 mld w roku 2004.


Zobacz również