Cyfrowy tygiel współczesnego maga


Należy w tym miejscu podkreślić dość ciekawą rzecz: otóż zarówno ziarno, jak i delikatne drgania obrazu są odbierane jako bardzo naturalne. Ziarno wprowadza charakterystyczną "miękkość" obrazu kinowego, zaś same drgania, aczkolwiek niepostrzegane świadomie, uwiarygadniają go. Nic więc dziwnego, że po wykonaniu efektów ujęcia są poddawane destabilizacji i nanoszone jest ziarno. Proces ten nabiera znaczenia także dlatego, że częstokroć w filmach ujęcia z efektami występują tuż obok ujęć bez efektów i wszelkie różnice są łatwo wychwytywane przez widza.

Rotoskopia

Cyfrowy tygiel współczesnego maga

Mistrz Yoda w pełnej okazałości. W Ataku klonów kukłę zastąpiły piksele.

W 1917 roku Max Fleischer w swoich filmach wykorzystywał kolejną istotną dla efektów specjalnych technikę: rotoskopię. Początkowo była ona używana głównie w filmach animowanych. Najsłynniejszą z ówczesnych produkcji jest oczywiście Królewna Śnieżka, przy której realizacji Walt Disneya użył jako materiału referencyjnego dla animatorów ujęć przedstawiających prawdziwych aktorów odtwarzających role z filmu. Pomysł był stosunkowo prymitywny: obrysować kontury aktorów i wykorzystać je do pomocy przy animowaniu bohaterów. Ten prosty, acz pracochłonny zabieg zapewniał duży realizm ruchu postaci. Z czasem rotoskopia rozszerzyła się także na film fabularny: już w 1963 roku Alfred Hitchcock sięgnął po nią, realizując swój przebój Ptaki.

Rotoskopia w formie niewiele różniącej się od tej z początków wieku przetrwała zaskakująco długo. Nawet Terminator 2 i Park jurajski (1993) zostały zrealizowane z użyciem tradycyjnej rotoskopii. Na szczęście technika cyfrowa zawitała wreszcie i tutaj. Kontury śledzonych postaci i obiektów wykreśla się za pomocą krzywych Beziera lub funkcji sklejanych, a odpowiednie algorytmy detekcji krawędzi dbają, aby w kolejnych klatkach krzywe przebiegały wzdłuż konturów obrazu. Do rotoskopii znakomicie nadaje się spora grupa profesjonalnych pakietów graficznych. Nietrudno zauważyć, że z uwagi na podobną technikę pracy rotoskopię można wykorzystać do stabilizacji obrazu.

Morfowanie

Cyfrowy tygiel współczesnego maga

Niuanse teksturowania i renderowania twarzy doktor Aki Ross. Final Fantasy czy ostateczna perfekcja?

Z rotoskopią ściśle związany jest inny ze znanych efektów: przekształcanie, zwane także morfowaniem. Efekt ten zaprezentował po raz pierwszy w 1982 roku Tom Brigham na konferencji SIGGRAPH. Mając wykreślone kontury jednego obiektu oraz kontury drugiego, stosunkowo łatwo przekształcić jeden kontur w drugi. Sposób tego przekształcenia definiuje się za pomocą krzywych łączących punkty na obu konturach. Opisane w ten sposób przekształcenie pozwala zmieniać płynnie w czasie nie tylko kształt samego konturu, ale również znajdujący się wewnątrz niego fragment obrazu. W kolejnych fazach przekształcenia kształt początkowego fragmentu dopasowuje się do kształtu fragmentu końcowego, obrazy zaś obu fragmentów przenikają się z różną intensywnością. Na duży ekran morfowanie trafiło dopiero w 1987 roku, wraz z premierą filmu Willow. W jednym z ujęć mogliśmy wówczas oglądać wiedźmę przeistaczającą się ze zwierzęcej do ludzkiej postaci. Współcześnie morfowanie znajduje zastosowanie w wielu miejscach. Na przykład we wspomnianej technice time slice niekiedy zdarza się, że któryś z aparatów fotograficznych zareaguje z przyspieszeniem lub opóźnieniem. Wówczas w całym ciągu poprawnych klatek mamy jedną czy dwie, które psują płynność ruchu. W takich sytuacjach zwykle niepoprawne klatki usuwa się, a lukę wypełnia morfując klatkę wcześniejszą do późniejszej. Morfowanie to także podstawa każdego pakietu oprogramowania przeznaczonego do manipulowania czasem trwania ujęć: spowolnienie rzędu dwóch razy wymaga dwukrotnie większej liczby klatek, których po prostu nie mielibyśmy, gdyby nie możliwość praktycznie płynnego przekształcenia jednej klatki w drugą.

Epoka 3D

Cyfrowy tygiel współczesnego maga

Taki sztorm można było uzyskać wyłącznie dzięki komputerowi. Gniew oceanu to popis dynamiki płynów.

Opisane dotychczas techniki opierały się głównie na umiejętnym operowaniu kamerą i dwuwymiarowym obrazem. Z chwilą, gdy komputery zaczęły dysponować mocą i metodami wizualizacji pozwalającymi na wygenerowanie obiektów trójwymiarowych, grafika 3D na stałe zagościła w kinie. Start był jak zwykle nieśmiały. Komputerowa grafika 3D pojawiła się w 1963 roku w laboratoriach Bell Telephone Laboratory, gdzie E.E. Zajac na komputerze IBM 7090 przygotował symulację ruchu satelity. W 1979 roku w słynnym Obcym - ósmym pasażerze Nostromo oglądamy trójwymiarową animację przedstawiającą teren, na którym ląduje statek kosmiczny. Uboga była to animacja, wykonana w trybie szkieletowym (wireframe), ale firma Systems Simulation Ltd. sporo się przy niej napracowała.

Przełomowy okazuje się rok 1980, kiedy to Turner Whitted opracowuje algorytm śledzenia promieni, słynny ray tracing. Już rok później w firmie - jakżeby inaczej - Lucasfilm Loren Carpenter pisze pierwszy renderer REYES (Renders Everything You Ever Saw). W dalekiej przyszłości powstanie słynny i dzisiaj traktowany jako standard przemysłowy w grafice komputerowej Renderman.

W 1984 roku na Cornell University opracowano zasady drugiego algorytmu będącego filarem współczesnej grafiki 3D: radiosity (tzw. metoda bilansu energetycznego). Metoda ta uwzględnia oświetlenie rozproszone, stąd pozwala wygenerować bardziej naturalnie wyglądające przedmioty i postaci.