Istota i wykorzystanie technologii cyfrowej dla potrzeb produkcji filmu (Rozdział 2/3)

„Cyfrowy (ang. Digital ) – w elektronice – wyrażony za pomocą sygnałów dyskretnych, nieciągłych, np. w formie impulsów lub sygnałów binarnych. Każdą informację można wyrazić cyfrowo (zaszyfrować); sygnał zmieniający się w czasie w sposób ciągły można wyrazić w postaci kolejnych liczb odpowiadających jego wartości przyjmowanej w kolejnych chwilach, jeśli częstotliwość tych chwil będzie nadążać za zmianami sygnału. Sygnały ciągłe odpowiadają zjawiskom naturalnym (zmianie dźwięku, jasności, barwy) i przebiegają analogicznie do tych zjawisk, stąd nazwa analogowe. Przedstawienie ich w formie cyfrowej do przetwarzania w układach elektronicznych ma liczne zalety, np. bardzo małe sygnały analogowe mogą się zagubić w zakłóceniach i szumach, podczas gdy informacja cyfrowa o wielkości nawet najmniejszego sygnału może być przesłana w sposób pewny. […]

W telewizorze cyfrowym sygnały analogowe są zmieniane na cyfrowe za pomocą przetwornika A/C, a po obróbce i przekształceniu w układach cyfrowych ponownie przekształcone za pomocą przetwornika C/A na sygnały analogowe, niezbędne do wytworzenia dźwięku (poruszania membrany w głośnikach) oraz do utworzenia obrazu na ekranie. Wyprodukowanie pierwszych cyfrowych urządzeń elektronicznych powszechnego użytku, dyskofonu i telewizora cyfrowego, nastąpiło w 1983 roku. [17]”

Istota technologii cyfrowej

Jak wcześniej zostało powiedziane – otaczający nas świat jest analogowy. Jest to prawda przy założeniu, że na rzeczywistość patrzymy w makroskali. Nie musi to być takie pewne, gdy spojrzymy na nasze otoczenie w mikroskali, gdzie wszystko zbudowane jest z atomów i jeszcze mniejszych, „nieciągłych” części. [18]

Tak więc można stwierdzić, że gdy zbiór elementów opisujących dane zjawisko jest policzalny mamy do czynienia ze zjawiskiem „cyfrowym”. Patrząc w ten sposób na wycinek rzeczywistości możemy powiedzieć, że nie do końca jest ona analogowa, bo składa się ze skończonej liczby elementów. W mikroskali rzeczywistość jest dyskretna , czyli nieciągła, cyfrowa. Elementy składowe rzeczywistości są tak małe i jest ich tak dużo, że nie jesteśmy w stanie zobaczyć gołym okiem jej nieciągłości. Żyjąc w świecie zbudowanym z atomów tak naprawdę nie zdajemy sobie sprawy z ich istnienia. Obcujemy zawsze z grupami atomów, które dają nam wrażenie ciągłości naszego świata. Dzięki temu przyjęliśmy, że żyjemy w analogowym świecie, ponieważ poruszamy się na poziomie ciągłym, analogowym naszej rzeczywistości.

Podobnie jest z ideą cyfrowego świata, którego cząstkami elementarnymi są bity. Cyfrowego, ponieważ często jeszcze jesteśmy w stanie zobaczyć gołym okiem jego nieciągłość. Cyfrowego, ponieważ za pomocą maszyn cyfrowych potrafimy jeszcze określić dokładną liczbę jego składowych elementów – bitów. [19]

Słowo „bit” jest skrótem dwóch angielskich słów: binary unit, czyli jednostka dwójkowa. Pozwala on odróżnić dwie sytuacje: „tak”, lub „nie”, „czarny”, „biały”, „prawda”, lub „fałsz”. W praktyce dwa przeciwstawne stany określamy umownie jako „1″ i „0″. Wybór jednej z takich możliwości daje nam najmniejszą jednostkę informacji – jeden bit.

Te dwie cyfrowe postacie bitu(1 i 0) można kodować w najprzeróżniejszy sposób. Ten sposób kodowania – czyli system binarny – może wydawać się na pierwszy rzut oka dość skomplikowanym systemem. Jednak prostota jego założenia – wyrażenie całej informacji za pomocą „1″ i „0″ – sprawia , że jest on podstawą działania wszystkich maszyn cyfrowych – czyli w zasadzie warunkuje istnienie i rozwój całej najnowocześniejszej technologii. Jego genialny twórca – niemiecki matematyk Gottfried von Leibniz – odkrywając go w roku 1675 był pod dużym wpływem popularnej wówczas idei dualizmu, wyrażonej najpełniej przez Kartezjusza oraz w przybyłej ze wschodu chińskiej „Księdze Zmian” (I Cing), opisującej świat w dualistyczny sposób, jako pary przeciwstawnych pojęć Jin – Jang. Swoje odkrycie Leibniz interpretował jako poznanie istoty świata, gdzie „zero” oznacza pustkę przed stworzeniem, a „jedynka” obecność Boga. Niestety, przez ponad 100 lat, system binarny nie miał większego wpływu na rozwój nauki – był on mało użyteczny zwłaszcza przy obliczeniach „na papierze”. Dziś natomiast nikt nie wyobraża sobie rewolucji informatycznej bez systemu binarnego Leibniza. [20]

Osiem bitów (czyli jeden bajt) wystarcza do zakodowania w systemie cyfrowym całego alfabetu oraz wszystkich innych znaków do swobodnej komunikacji. Odpowiednio długi ciąg bitów umożliwia zakodowanie dowolnej informacji. Poza alfabetem można także kodować w ten sposób dźwięk, obraz oraz wszelkie inne dane, które chcemy zapisać, przechować lub przesłać zachowując w razie potrzeby ich idealnie oryginalną formę. Aby z rzeczywistego, „analogowego” świata przejść w wymiar „cyfrowy”, konieczna jest zamiana wszystkiego co materialne i fizyczne, czyli tak dla nas naturalne, na to co jest naturalne dla maszyn cyfrowych, czyli na „zera” i „jedynki”.

Jak wcześniej wspomniano nośnikiem wiadomości, umożliwiającym jej rejestrację i przesyłanie na odległość jest sygnał. Najbardziej rozpowszechnione są sygnały elektryczne i optyczne. Jest to podział ze względu na typ nośnika, dzięki któremu możliwe jest przenoszenie sygnału – w pierwszym przypadku jest to prąd elektryczny, w drugim światło.

Obecnie w technice stosuje się także podział ze względu na sposób reprezentacji informacji. Sygnały dzielimy na:

  • sygnał analogowy – który jest rodzajem sygnału ciągłego z czasem ciągłym, co oznacza, że w dowolnej chwili zmiany tego sygnału następują w sposób ciągły. Sygnałem analogowym może być np. wychylenie wskazówki wagi, długość słupa rtęci w termometrze, zapis dźwięku w postaci elektronicznego sygnału fonicznego, a nawet długość cienia wskazująca porę dnia;
  • sygnał cyfrowy – jest tzw. sygnałem dyskretnym, opisującym wiadomość za pomocą skończonego, najczęściej dwuelementowego zbioru liczb: 1 i 0. Przez to, zmiany wartości tego sygnału następują w sposób skokowy, dyskretny, nieciągły lub mówiąc inaczej – cyfrowo; sygnał cyfrowy jest zawsze ciągiem liczb, który odpowiednio zinterpretowany daje wiadomość.

Zarówno sygnał analogowy jak i cyfrowy może po zmodulowaniu występować pod postacią sygnałów elektrycznych lub optycznych. [21]

Sygnał cyfrowy powstaje w wyniku przetworzenia odpowiadającego mu rzeczywistego sygnału analogowego. Proces ten, nazywany przetwarzaniem analogowo – cyfrowym A/C (ang. Analog to Digital), składa się z trzech podstawowych operacji: próbkowania, kwantowania i kodowania.

  • Próbkowanie – czyli pobieranie co pewien określony i jednakowy czas próbki sygnału analogowego i rejestrowanie wartości pobranych próbek.
  • Kwantowanie – to jest podzielenie całego zbioru wartości zarejestrowanych próbek sygnału na ściśle określone przedziały. Dla tak powstałych przedziałów ustala się tzw. poziomy kwantowania, czyli wyznacza jedną wartość reprezentującą wszystkie wartości znajdujące się w danym przedziale.
  • Kodowanie – polega na przyporządkowaniu poziomom kwanto-wania określonych liczb , najczęściej w postaci bitowej.

Mówiąc prościej przetworzenie sygnału analogowego na postać cyfrową polega na pobieraniu próbek sygnału, podzieleniu tak uzyskanych próbek na poziomy i zakodowaniu ich w postaci bitów. [22] Urządzeniami do tego służącymi są tzw. przetworniki lub konwertery A/C. Co pewien określony czas przetwornik A/C porównuje (kwantuje) wejściowy elektryczny sygnał analogowy dźwięku (uzyskany np. z mikrofonu) lub obrazu (np. z przetwornika CCD) z napięciem wzorcowym. Czas próbkowania i napięcie wzorcowe zależne są od systemu w jakim ma być zakodowany cyfrowy sygnał wyjściowy. Im więcej bitów w danej jednostce czasu jest w stanie wytworzyć konwerter A/C, tym powstały dzięki niemu sygnał cyfrowy będzie lepiej oddawał jego oryginalną reprezentację.

Odtworzenie sygnału cyfrowego możliwe jest po przetworzeniu go w „strawny” dla naszych zmysłów sygnał analogowy. Proces taki przebiega na zasadzie odwrotnej do przetwarzania A/C i nazywamy go przetwarzaniem cyfrowo-analogowym C/A (ang. Digital to Analog). Realizowany jest przez przetworniki C/A.

Jeżeli próbki rozmieszczone są dostatecznie gęsto, to możemy uzyskać prawie idealną replikę oryginału. Według twierdzenia o próbkowaniu Kotielnikowa – Shannona przyjmuje się, że aby możliwe było wierne odtworzenie sygnału analogowego z odpowiadającego mu sygnału cyfrowego, częstotliwość pobierania próbek sygnału analogowego powinna być przynajmniej dwukrotnie wyższa niż maksymalna częstotliwość jego widma. Co oznacza, że np. dla wiernego odtworzenia dźwięków ( o granicy słyszalności 20 kHz) konieczne jest próbkowanie z częstotliwością nie mniejszą niż 40 kHz. Znalazło to potwierdzenie w zapisie muzyki na płytach kompaktowych, gdzie częstość próbkowania wynosi 44,1 kHz. [23]

Metody wspomagania procesów produkcji filmu

Cyfrowy zapis obrazu

Istnieje wiele sposobów tworzenia cyfrowych obrazów. Generalnie można podzielić je ze względu na rodzaj otrzymywanej grafiki. Do tworzenia grafiki wektorowej służą przede wszystkim specjalne programy komputerowe. Grafikę rastrową uzyskuje się przez „przechwytywanie” rzeczywistych obrazów (ang. capture) za pomocą specjalnych urządzeń (np. skanerów, kamer cyfrowych, kart przechwytujących analogowy sygnał wizyjny – kart wideo). Tak więc najpopularniejszą techniką zamiany analogowego obrazu na jego komputerowo zarejestrowany odpowiednik jest właśnie grafika rastrowa.

Podstawowy system do zamiany „rzeczywistych” obrazów na „cyfrowe” składa się z obiektywu, detektora w postaci przetwornika optyczno-elektronicznego i konwertera analogowo-cyfrowego A/C. Zwykle detektorem jest półprzewodnikowy element światłoczuły zwany przetwornikiem CCD (ang. Charge Coupled Device ), który zawiera dwie zasadnicze części:

  • sekcję obrazową – w postaci matrycy złożonej z setek tysięcy elementów światłoczułych (tzw. fotodiod ), które dzięki padającemu na nie światłu gromadzą ładunki elektryczne,
  • sekcję odczytu – w której następuje przetwarzanie ładunków elektrycznych i formowanie z nich wyjściowego sygnału wizyjnego.

Proces, w którym przetwornik CCD zamienia analogowy obraz w jego elektryczny odpowiednik (sygnał wizyjny) nazywamy konwersją fotoelektryczną . W pierwszym etapie światło padające na elementy światłoczułe matrycy przetwornika zamieniane jest na proporcjonalny sygnał elektryczny. Im więcej światła tym generowane jest wyższe napięcie. Następnie napięcie to jest zbierane w kondensatorze i przesyłane dalej do sekcji odczytu. Wychodzi z niej w postaci analogowego sygnału wizyjnego, który może być zamieniony na sygnał cyfrowy w przetworniku analogowo – cyfrowym A/C. [24]

Przetworniki CCD używane są powszechnie w cyfrowych aparatach fotograficznych, kamerach telewizyjnych i wideo. W kamerach lub aparatach fotograficznych używa się przetworników w postaci prostokątnej matrycy składającej się z setek tysięcy fotodiod. Elementy te są czułe na trzy rodzaje kolorów podstawowych: czerwony, zielony i niebieski. Próbkowanie całego obrazu za pomocą tego typu przetworników odbywa się w jednej chwili.

Jakość zapisywanego obrazu wyznaczana jest przez rozdzielczość obrazu (rozmiar pojedynczego piksela) i barwę (głębię piksela). Proces analizy obrazu rzeczywistego i zamiany na sygnał cyfrowy związany jest nierozerwalnie z tymi dwoma zmiennymi. Odbywa się za pomocą opisanego wcześniej procesu przetwarzania analogo – cyfrowego A/C ,przy wykorzystaniu układu złożonego najczęściej z przetwornika CCD i konwertera A/C.

Obraz rzeczywisty padając na elementy światłoczułe przetwornika optyczno – elektronicznego CCD zostaje zamieniony na analogowy sygnał wizyjny. Ze względu na specyficzną budowę tego przetwornika, który zwykle ma postać matrycy, proces próbkowania obrazu nie następuje w konwerterze A/C, jak to jest w przypadku dźwięku, ale właśnie już na poziomie przetwornika CCD. W procesie tym określona zostaje rozdzielczość obrazu (wielkość piksela) zależna od liczby elementów światłoczułych w przetworniku. Innymi słowy: próbkowanie obrazu to jego podział na komórki składowe – piksele.

Kwantowanie i kodowanie sygnału odbywa się za pomocą konwertera A/C. W procesie tym określona zostaje barwa (głębia piksela) zależna od techniki kodowania określanej za pomocą tablicy wzorcowej. W procesach kwantyzacji i kodowania zostaje nadana pikselowi cyfrowa wartość opisująca jego kolor. Na przykład w systemie 24-bitowego koloru w technice RGB piksel może być zakodowany jako ciąg bitów określających poziom jaskrawości w skali od 1 do 255 czerwieni, zieleni i koloru niebieskiego. [25]

Przetworniki CCD z niewielką liczbą elementów światłoczułych dają obraz o małej rozdzielczości. Czasem możliwe jest nawet zobaczenie gołym okiem pojedynczych pikseli na tak powstałym obrazie. Mamy wtedy do czynienia z tzw. pikselizacją. Generalnie pikselizacja jest zjawiskiem niepożądanym – powoduje pozorną nieostrość obrazu i sprawia, że staje się on zamazany i nieczytelny. Czasem może być jednak wykorzystana jako ciekawy efekt podczas obróbki obrazu. Aby zapobiec pikselizacji należy używać przetworników z maksymalnie dużą liczbą elementów światłoczułych pozwalających uzyskać obraz bez widocznych, pojedynczych pikseli. [26]

Na razie cyfrowy obraz pojawia się powszechnie w filmach telewizyjnych. Na rynku dostępna jest cała gama cyfrowych kamer wideo zarówno dla profesjonalistów jak i amatorów. Zaznaczyć należy, że nawet te amatorskie mają często dużo lepsze parametry niż analogowy standard telewizyjny Betacam SP. Wielu filmowców decyduje się nawet czasem wykorzystać cyfrowe kamery wideo do rejestracji filmu, by później przekopiować obraz na taśmę światłoczułą.

Na profesjonalne kamery cyfrowe zapisujące obraz z jakością filmową nie trzeba będzie długo czekać. Powód jest prosty. Obecnie niemal każdy hollywoodzki film jest korygowany lub przerabiany cyfrowo. Proces przekopiowania filmu z błony światłoczułej do komputera, a następnie z powrotem na taśmę filmową jest bardzo nieefektywny. Zamieniając od razu obraz na jego cyfrowy odpowiednik, bez analogowej fazy przejściowej, zaoszczędzić będzie można sporo czasu i środków.

Cyfrowy zapis dźwięku

Powstanie dźwięku cyfrowego opiera się na opisanym już procesie przetwarzania A/C. Próbkowanie fali akustycznej polega na sprawdzeniu natężenia dźwięku w konkretnym momencie i zakodowaniu jego wartości w postaci informacji zapisanej cyfrowo. Obraz fali akustycznej zapisanej cyfrowo przypomina zbiór punktów zdefiniowanych przez bity.

Dokładność zapisu dźwięku determinowana jest przez :

  • częstość próbkowania (ang. sampling rate ), czyli liczba pobranych próbek na sekundę, często wielkość tę wyraża się w Herzach (Hz) lub jednostkach 1000 razy większych ( kHz );
  • dokładność (rozdzielczość) próbkowania, czyli liczba bitów opisujących jednostkową wartość natężenia dźwięku dla jednej próbki dźwięku (np. 8, 16, 32, 64);
  • liczbę zapisanych kanałów dźwiękowych (1 dla mono, 2 dla stereo itp.). Należy dodać , że częstość próbkowania podawana jest zawsze dla jednego kanału. Tak więc, gdy częstość próbkowania określona jest dla zapisu stereo na poziomie np. 8000 Hz de facto oznacza to , że próbka dźwięku pobierana jest 2×8000=16000 razy na sekundę.

Im wyższa częstość próbkowania i liczba bitów opisująca każdą próbkę, tym wyższa jakość dźwięku. [27]

Najprostszym sposobem zapisania analogowego dźwięku w postaci cyfrowej jest użycie zwykłego mikrofonu podłączonego bezpośrednio do karty dźwiękowej komputera. Wystarczy w odpowiednie gniazdo włożyć końcówkę mikrofonu, uruchomić program i rozpocząć nagrywanie.

Karty dźwiękowe wyposażone są w odpowiednie porty umożliwiające podłączenie ich do innych urządzeń zewnętrznych takich jak wzmacniacze, magnetofony, głośniki itp., dzięki którym można podwyższyć jakość wejściowego i wyjściowego sygnału analogowego.

Poza tym do zapisu dźwięku w formie cyfrowej można użyć magnetofonów cyfrowych na taśmy magnetyczne (np. w formacie DAT lub Nagra), nagrywarek płyt CD i DVD, cyfrowych magnetofonów i kamer wideo oraz innych urządzeń, korzystających z różnych nośników pamięci.

Magnetofony cyfrowe (np. DAT, Nagra Digital) są obecnie standartowym wyposażeniem każdego „dźwiękowca” filmowego. Doskonałe parametry techniczne i zapis cyfrowy eliminują praktycznie całkowicie szumy systemowe sprzętu, zapewniając doskonałe nagranie. Przy tym mniejsze wymiary dają więcej swobody na planie. [28]

Wciąż najpopularniejszy i najpowszechniej wykorzystywany jest magnetofon cyfrowy DAT. Jest to skrót od słów Digital Audio Tape. Ten system cyfrowego zapisu dźwięku korzysta ze specjalnie opracowanych kaset z taśmą magnetyczną przy pomocy systemu wirujących głowic. Został opracowany w połowie lat 80-tych przez firmy Philips i Sony. Głowica zapisująco – odczytująca wiruje ukośnie w poprzek taśmy, podobnie jak w magnetowidach. Dlatego też używa się terminu R-DAT (R od słowa rotary), aby odróżnić ten format od magnetofonów cyfrowych ze stacjonarnymi głowicami (S-DAT). Sama taśma jest podobna do taśm magnetowidowych. Kaseta ma wymiar około połowy kasety CC. Taśma jest chroniona przez uchylną klapkę podobnie jak taśmy magnetowidowe. Klapka odchyla się po włożeniu kasety do magnetofonu, taśma jest wówczas wyciągana i opasuje bęben z głowicą. Czas nagrania może wynosić do 120 minut w normalnym trybie, a ponieważ jest tylko jedna 'strona’  jest to czas nieprzerwany. Oprócz muzyki na taśmie można też nagrać informacje o numerach utworów (możliwe są przeskoki między utworami) albo czas (liczony od początku taśmy). Prędkość przewijania jest znacząco wyższa niż w magnetofonach kasetowych. [29]

Cyfrowe systemy nagrań, przegrań i odtwarzania dźwięku

Cyfrowy dźwięk cechuje dużo bardziej realistyczne, dynamiczne i spektakularne brzmienie w porównaniu do tradycyjnego, analogowego. Każdy z obecnie stosowanych w kinie cyfrowych systemów dźwięku opiera się na przynajmniej 6 odrębnych ścieżkach dźwiękowych zapisanych metodą surround, dając wrażenie dźwięku otaczającego. W nowoczesnej sali kinowej za ekranem ukryte są zwykle 3 duże główne głośniki (lewy, środkowy i prawy). Dodatkowo znajduje się tam także głośnik niskich tonów (ang. subwoofer), odpowiedzialny za tony o bardzo niskich częstotliwościach (pot. basy), które wpływają na wzmocnienie wrażenia oglądanych scen. Po lewej i po prawej stronie sali, a także z tyłu umieszczone są dwa mniejsze głośniki podzielone na dwie sekcje („lewa”, „lewa tył” oraz „prawa”, „prawa tył”)odpowiedzialne za tzw. dźwięk otaczający (ang. surround). Tak przygotowany zestaw głośników w połączeniu z cyfrowym dźwiękiem umożliwia dziś wytworzenie niemal zgodnego z rzeczywistym wrażenia odbioru efektów akustycznych i muzyki towarzyszącej kinowemu obrazowi.

Cyfrowa ścieżka dźwiękowa znajduje się zazwyczaj jako zapis optyczny na taśmie filmowej lub na oddzielnych płytach kompaktowych. Przed odtworzeniem musi być przetworzona przez procesor cyfrowy zawierający konwerter C/A, który umieszczony jest w kabinie projekcyjnej. Taki układ współpracuje ze specjalnie skonfigurowanym zestawem wzmacniaczy i głośników na sali projekcyjnej. [30]

Brzmienie pierwszego cyfrowego systemu kinowego pod nazwą „Cinema Digital Sound” (CDS) można było usłyszeć w filmie „Dick Tracy”, którego premiera odbyła się 15 czerwca 1990 roku. Od tego czasu jesteśmy świadkami wprowadzania różnych standardów cyfrowych nagrań, przegrań i odtwarzania dźwięku w filmie. Do najbardziej popularnych należą :

  • Cinema Digital Sound (CDS),
  • Dolby Digital (DD),
  • Digital Theatre Systems (DTS),
  • Sony Dynamic Digital Sound (SDDS).

Cinema Digital Sound (CDS) – system ten opracowano w firmach Estman Kodaka i Optical Radiation Corp. Zapis 16bitowego dźwięku odbywał się na 6 ścieżkach dźwiękowych z zastosowaniem metody kompresji zwanej Delta Modulation. Mimo rewolucyjnego jak na swe czasy rozwiązania system ten poniósł komercyjną klęskę, przede wszystkim z jednego powodu: zapis cyfrowy znajdował się dokładnie w miejscu starej, analogowej ścieżki optycznej, zastępując ją całkowicie. Uniemożliwiał w ten sposób odtwarzanie filmu w kinach nie wyposażonych w wartą ponad 20000 dolarów aparaturę dźwiękową oraz w wypadku dość często pojawiających się problemów technicznych powodował, że wyświetlany film stawał się całkowicie niemy. Poza tym kina wolały czekać na od dawna zapowiadany przez firmę Dolby system, który zapewniać miał cyfrową jakość dźwięku z zachowaniem na taśmie filmowej jej analogowego odpowiednika.[31]

Dolby Digital (DD) – światowa premiera tego systemu miała miejsce 19 czerwca 1992 roku w 10 kinach u USA wyposażonych w Dolby DA10 Digital Film Sound Processor. Dolby Digital (znany także pod nazwami Dolby Stereo Digital lub AZ-3) jest kolejnym etapem ewolucji dźwięku kinowego prowadzonej przez Dolby Laboratories od wczesnych lat pięćdziesiątych. Informacja o dźwięku zapisana jest optycznie z lewej strony taśmy 35 mm w zakodowanych cyfrowo blokach pomiędzy otworami perforacji, dzięki czemu zachowana jest także standardowa ścieżka w analogowym formacie Dolby Stereo. System korzysta z 6-kanałowego dźwięku surround. Pięć kanałów ma pełną skalę w częstotliwościach od 20 Hz do 20000 Hz. Szósty kanał , tzw. „kanał efektów niskiej częstotliwości” może zawierać dodatkowe niskotonowe dźwięki („basy”). Z powodu swojej ograniczonej skali częstotliwości (20 do 120 Hz) kanał ten jest często określany jako dodatkowy „1″, a cały system zapisywany jako Dolby Digital „5.1″.

Algorytm cyfrowego kodowania dźwięku PCM (ang. Pulse Code Modulation) stosowany powszechnie w zapisie muzyki na płytach kompaktowych używa zbyt dużo pamięci do przechowywania i transmisji, aby można było go zastosować w zapisie ścieżki dźwiękowej na taśmie filmowej. Dlatego w połowie lat osiemdziesiątych inżynierowie Dolby Laboratories rozpoczęli prace nad nowym algorytmem kodowania nazwanym „Audio Coding” lub „Perceptual Coding” (dostrzegalne kodowanie) polegającym na eliminacji dźwięków niesłyszalnych dla ludzkiego ucha (tzw. szumów) zachowując jednocześnie wysoką jakość pozostałych. Po burzliwej ewolucji i latach udoskonaleń owocem pracy jest algorytm kodowania trzeciej generacji (AC-3) stosowany w systemie Dolby Digital.

AC-3 opiera się na zaawansowanej redukcji szumów systemowych wywołanych niedoskonałością sprzętu służącego do rejestracji dźwięku. Mocny wejściowy sygnał audio umożliwia maskowanie szumów. AC-3 wykorzystuje ten fakt – filtruje dźwięk oczyszczając go z zakłóceń, przez co kodowane są jedynie informacje potrzebne do odtworzenia dźwięku, bez towarzyszących mu szumów. W sytuacji, gdy brak sygnału audio, którym można byłoby maskować zakłócenia system koncentruje się na redukcji lub całkowitej eliminacji kodowania szumów. Dzięki temu AC-3 oszczędza miejsce na nośniku umożliwiając jednocześnie zapis 5.1 ścieżkowego dźwięku z jakością niezmiernie zbliżoną do oryginalnego sygnału z użyciem transmisji około zaledwie 384 kb/s. Dla porównania AC-3 jest ponad 10 razy wydajniejszy niż wspomniany wcześniej PCM stosowany w dwukanałowym zapisie CD.

Chociaż AC-3 powstawał z myślą o amerykańskiej telewizji wysokiej rozdzielczości (HDTV), to po raz pierwszy zastosowano go do cyfrowego zapisu dźwięku na taśmie światłoczułej pod nazwą Dolby Digital. System jest obecnie także używany w zapisie ścieżki dźwiękowej w grach komputerowych, telewizji cyfrowej(DTV) i traktowany jako standard audio na płytach DVD. [32]

Digital Theatre Systems (DTS) – system DTS został opracowany przez Terrego Bearda , założyciela firmy „Digital Theatre Systems” z Kalifornii, której współwłaścicielami są m. in. Steven Spielberg i Universal Pictures. Po raz pierwszy brzmienie DTS można było usłyszeć 30 maja 1993 roku podczas premiery „Parku Jurajskiego” S. Spielberga. System DTS opiera się na zapisie ścieżki dźwiękowej filmu na trzech płytach kompaktowych, które zdolne są pomieścić do 5 godzin sześciokanałowego cyfrowego dźwięku. Trzy kanały (prawy, środkowy i lewy) mają skalę częstotliwości od 20 Hz do 20 kHz; lewy i prawy surround od 80 Hz do 20 kHz. Podobnie jak w systemie Dolby Digital stosowany jest także „kanał efektów niskiej częstotliwości” (od 20 do 80 Hz).

Synchronizacja możliwa jest dzięki optycznie zapisanemu na taśmie filmowej kodowi czasowemu (tzw. „timecode”) umieszczonemu pomiędzy analogową ścieżką dźwiękową i klatkami filmu. „Timecode” jest informacją sterującą umożliwiającą odtwarzanie konkretnego dźwięku dla przypisanej mu klatki filmowej. Dzięki temu nawet w przypadku brakujących lub zniszczonych fragmentów taśmy obraz pozostaje zawsze w synchronizacji ze ścieżką dźwiękową odczytywaną z płyty. Poza tym „timecode” umożliwia np. sprawdzenie, czy prawidłowy dysk CD znajduje się w odtwarzaczu. Jeśli z jakiegoś powodu procesor systemu DST nie jest w stanie odczytać „timecode” natychmiast zostaje automatycznie przełączany na normalny analogowy system. Optyczna kopia dźwięku zapisana jest w specjalnym analogowym formacie DTS kompatybilnym z systemem Dolby Stereo, dzięki czemu, poza możliwością użycia jej w sytuacjach awaryjnych, możliwe jest także odtwarzanie tak zapisanego dźwięku w kinach nie przystosowanych do DTS.

DTS nie wymaga tak restrykcyjnego jak w Dolby Digital systemu kompresji danych, ponieważ dyski CD umożliwiają przechowywanie znacznie większej ilości informacji niż wąska ścieżka optyczna pomiędzy otworami perforacji. W DTS stosowany jest algorytm kodowania dźwięku znany pod nazwą „Coherent Acoustic Coding” (CAC) o współczynniku kompresji danych 4:1 w stosunku do standardu PCM. Umożliwia on zapis sześciokanałowego dźwięku cyfrowego w systemie 20-bitowym z prędkością Digital. Z drugiej jednak strony tak słaba kompresja nie pozwala na użycie DTS w technice DVD. Żeby móc zaistnieć na płytach DVD konieczne było zredukowanie transmisji danych do poziomu stosowanego przez Dolby Digital, czyli 384 kb/s. Niedawno „Digital Theatre Systems” opracował specjalnie dla DVD nowy format DTS ze zmienną, regulowaną transmisją danych, która średnio wynosi owe 384 kb/s. [33]

Sony Dynamic Digital Sound (SDDS) – ten standard jest najmłodszym z kinowych cyfrowych systemów dźwiękowych. Po raz pierwszy zastosowano go przy produkcji filmu „Bohater ostatniej akcji”, którego premiera odbyła się 18 lipca 1993 roku – zaledwie 1,5 miesiąca po premierze systemu DTS. SDDS opracowano z myślą o cyfrowym zapisie 8 odrębnych kanałów dźwiękowych. Mimo to możliwe jest jednak zapisanie dźwięku używając jedynie 4, 5.1 lub 6 kanałów. Dekoder odpowiedzialny za odtwarzanie dźwięku w sali wyposażonej w 8–kanałowy dźwięk zapisany na taśmie filmowej bez problemu można odtwarzać w sali z 4, 5.1 lub 6–kanałowym systemem dźwiękowym.

Podobnie do Dolby Digital, informacja o dźwięku zapisana jest bezpośrednio na taśmie filmowej, a nie na oddzielnych CD – ROM’ ach, jak w systemie DTS. Dwie optyczne ścieżki znajdują się na obu krańcowych brzegach pozytywu, zaraz za otworami perforacji. Dzięki temu nie koliduje to z żadnym istniejącym systemem cyfrowym oraz optycznym analogowym zapisem w Dolby SR. Wadą tego rozwiązania jest jednak wyższa podatność na uszkodzenie w porównaniu z innymi metodami. Z powodu fizycznego ograniczenia miejsca na taśmie SDDS używa techniki kompresji dźwięku znanej pod nazwą „Audio Transform Acoustic Coding” (ATRAC). Z uwagi na zastosowanie dwóch ścieżek zapisu stosunek kompresji może być dwa razy mniejszy niż w Dolby Digital i wynosi 5:2. Algorytm ATRAC, używany również w popularnych MiniDisc, wyróżnia się wysokim współczynnikiem poprawności odczytu danych, co w połączeniu z optycznym zapisem ścieżki dźwiękowej na najniższej (cyjanowej) warstwie emulsji światłoczułej sprawia, że nawet mimo dużych uszkodzeń taśmy dźwięk pozostaje wciąż doskonałej jakości. Sony utrzymuje, że nawet ponad 500 projekcji jednej kopii filmu nie ma wpływu na zauważalne pogorszenie jakości odtwarzanego dźwięku.

SDDS zaprojektowano z myślą o salach kinowych. Ośmiokanałowy system, z pięcioma głośnikami umieszczonymi za ekranem , jest do przesady rozrzutny i nieporęczny dla małych sal. Poza tym zbyt niski współczynnik kompresji danych nie pozwala na zastosowanie SDDS w technice DVD – potrzeba zbyt dużo miejsca na zapisanie dźwięku. Sony nie zamierza jak na razie opracowywać domowej wersji SDDS.[34]

Jakość kinowego dźwięku można rozpatrywać pod kątem dwóch obszarów. Pierwszy obejmuje aparaturę znajdującą się w kabinie projekcyjnej służącą do odczytywania ścieżki dźwiękowej filmu oraz dekodowania sygnału cyfrowego na analogowy. Tak przetworzony sygnał jest punktem wejściowym dla drugiego obszaru, który generalnie mówiąc dotyczy aparatury wzmacniającej i konfiguracji systemu głośników znajdujących się w sali kinowej. Finalna jakość dźwięku odbierana przez widza determinowana jest właśnie oba te czynniki , które są od siebie nawzajem uzależnione. W skład pierwszego wchodzą wcześniej opisane systemy cyfrowe: DD, DTS i SDDS. Natomiast drugim zajmuje się THX.

THX nie jest, jak często się uważa, formatem cyfrowego dźwięku kinowego ale programem certyfikacji i doradztwa z zakresu optymalnego wyposażenia sal kinowych. Opracowano go w firmie Lucasfilm George’a Lucasa (nazwa THX pochodzi od tytułu pierwszego fabularnego filmu Lucasa – „THX 1138”). Powstał w celu zapewnienia widzowi maksymalnego, zamierzonego przez twórców , wrażenia z odbioru obrazu i dźwięku prezentowanego filmu. Główne założenia programu nakreślone zostały w roku 1982 podczas produkcji „Powrotu Jedi „. Szef projektu Tomlinson Holman wraz z grupą inżynierów Lucasfilm opracowali system opierający się na specjalnym doborze sprzętu kinowego i jego instalacji w połączeniu ze specyficzną akustyką sali, jej wystrojem oraz konstrukcją budynku.

W skład zespołu czynników, które według THX powinny charakteryzować idealne kino wchodzą:

  • szeroka skala częstotliwości sprzętu nagłaśniającego zawierającego najniższe i najwyższe tony dźwięków odbieranych przez ludzkie ucho,
  • ograniczona do minimum ilość słyszalnych zakłóceń pochodzących z instalacji klimatyzacyjnej, kabiny projekcyjnej, sąsiednich sal itp.,
  • jednolita jakość dźwięku w nawet najodleglejszym punkcie sali, zapewniająca każdemu widzowi równie mocne wrażenia odbioru,
  • maksymalny komfort oglądania filmu dzięki dużemu kątowi nachylenia widowni (zalecana przez THX norma dla ekranów w standardzie Cinemascope 2,35:1 wynosi 36 stopni – akceptowane minimum to 26 stopni),
  • specjalny, przetestowany i zgodny z normami THX sprzęt projekcyjny i nagłaśniający zainstalowany według wytycznych i pod nadzorem przedstawicieli THX . [35,36]

Komputerowy montaż obrazu i dźwięku

 „Montaż filmowy: (franc. montage, ang. cutting, editing, montage) techniczny zabieg cięcia i sklejania poszczególnych ujęć taśmy filmowej w kolejności przewidzianej scenariuszem, służącej wyrażeniu akcji.” [37]

Zacytowana definicja opisuje istotę montażu filmowego; pozostaje ona niezmienna,  zmieniają się jednak narzędzia montażowe.
Procesory o dużej mocy obliczeniowej, pojemne i szybkie  dyski twarde oraz wyspecjalizowane urządzenia dodatkowe – wszystko to czyni z komputera doskonały instrument do obróbki dźwięku i obrazu. Komputer przetwarza obraz i dźwięk w postaci cyfrowej. Oznacza to – mówiąc w dużym uproszczeniu – że informacje o kolorach, jasności czy wysokości fali dźwiękowej są zapisywane jako sekwencja liczb z określonego przedziału. Cyfrowy zapis obrazu i dźwięku gwarantuje doskonałą jakość i umożliwia stosunkowo proste wprowadzanie różnorodnych efektów specjalnych lub precyzyjne miksowanie sygnałów.

Montaż obrazu z zastosowaniem maszyn cyfrowych jest bez wątpienia jednym z najbardziej popularnych zastosowań nowoczesnej techniki w produkcji filmów. W produkcji sprzętu do zastosowań profesjonalnych specjalizują się duże firmy , jak Avid, Lights Works, Adobe, Kodak. Systemy komputerowe do montażu filmów (ang. hardware, czyli sprzęt komputerowy) składają się zwykle z dwóch dużych monitorów (z których jeden obsługuje program, drugi zaś służy do podglądu montowanego materiału), jednostki centralnej z kilkoma bardzo pojemnymi  i  szybkimi twardymi dyskami, myszy (lub „pióra” i tabletu) oraz klawiatury, czasem scalonej ze specjalną konsolą, ułatwiającą wykonywanie niektórych operacji montażowych. Wyposażeniem dodatkowym jest z reguły monitor wideo oraz w zależności od potrzeb różnego rodzaju magnetowidy (cyfrowy, BetaSP, Hi8, VHS, DV) i magnetofony (DAT, szpulowy, kasetowy) , umożliwiające przekopiowanie materiału roboczego z taśmy do pamięci komputera i odwrotnie.

W zależności od konfiguracji i możliwości sprzętu wyróżniamy dwa rodzaje systemów do montażu: off–line , czyli montaż wstępny, oraz on–line, czyli montaż bezpośredni.

Zasadniczą częścią systemu jest specjalna aplikacja komputerowa umożliwiająca nielinearny system montażu (ang. non–linear editing system, czyli off–line). Nieliniowy montaż video przebiega zwykle w trzech fazach: wychwyt – obróbka – nagrywanie.

Wychwyt (inaczej – przechwytywanie) polega na skopiowaniu fragmentu filmu z zewnątrz (np. z kamery lub magnetowidu) do pliku na dysku komputera. Jeżeli obraz video pochodzi z urządzenia analogowego (np. VHS), to przed skopiowaniem go na dysk należy dokonać przekształcenia sygnału w ciąg liczb, czyli dane cyfrowe. Jeśli natomiast film był od razu zarejestrowany w postaci cyfrowej (np. kamerą DV), to wystarczy go po prostu skopiować. W montażu tym oryginalny materiał ( zarówno obraz jak i dźwięk ) przekopiowany jest do pamięci komputera z czasowym znacznikiem (tzw. timecode ), korespondującym z oznaczeniami na taśmie „matce”. Na twardym dysku możliwy jest bezpośredni ( nielinearny ) dostęp do każdego fragmentu tak zapisanego materiału. Podczas montażu nie trzeba przewijać rolek z taśmą do przodu lub do tyłu, a co najważniejsze możliwe jest wstawienie dowolnego ujęcia pomiędzy dwa istniejące z zachowaniem synchronizacji obrazu i dźwięku.
System ten nie narusza zapisanego w komputerze materiału wejściowego. Ujęcia nie są fizycznie cięte. Komputer zapamiętuje jedynie informacje o początku i końcu każdego ujęcia. Podczas wyświetlania zmontowanego w ten sposób fragmentu filmu selektywnie wybiera i pokazuje na ekranie poszczególne fragmenty z materiału „matki”. Pozwala to w każdej chwili na rozciągnięcie ujęcia o zapisany przed sklejką fragment. Poza tym możliwe jest jednoczesne przygotowanie więcej niż jednej wersji montażowej. Jeżeli z jakichś powodów bieżąca wersja nie odpowiada montażyście, może przygotować drugą, trzecią, itd. bez kasowania poprzednich, na wypadek, gdyby zaistniała potrzeba wrócenia do nich.

Montaż wstępny służy do przygotowania wstępnej wersji montażowej w celu dalszej obróbki. Z uwagi na ograniczenia sprzętowe i oszczędność czasu ( długi czas generowania efektów w pamięci komputera ),obraz zapisuje się na dysku najczęściej w niższej ( niż jakość broadcast, czyli emisyjna ) rozdzielczości; można sobie na to pozwolić, ponieważ po zmontowaniu zazwyczaj nie dokonuje się jego transferu na taśmę do transmisji.

Po zatwierdzeniu ostatecznej wersji montażowej informacje o timecode zapisuje się (na dyskietkę bądź inny nośnik). Offline używany jest obecnie przede wszystkim do montażu filmów zapisanych na taśmie optycznej. Informacja o timecode zapisana w postaci pliku (np. EDL), wysyłana jest bezpośrednio do laboratorium, gdzie dokonuje się ścięcia negatywu. Eliminuje się w ten sposób koszt wykonania kopii roboczej.
Montaż bezpośredni ( online ) różni się od offline’owego tym, że przygotowany obraz ma jakość emisyjną. Bezpośrednio z komputera można go przekopiować na kasetę i emitować.

W systemach liniowych sygnał z jednego bądź kilku magnetowidów źródłowych jest wprowadzany do komputera, poddawany edycji (przejścia, napisy, efekty specjalne itp.) i w czasie rzeczywistym wysyłany do odbiornika (najczęściej kolejnego magnetowidu). Obraz i dźwięk nie są zapisywane na dysku twardym.

Zaletą systemów liniowych jest możliwość wprowadzania wszystkich modyfikacji obrazu, bez potrzeby długotrwałego renderingu materiału filmowego oraz brak zapotrzebowania na wolną przestrzeń dyskową. Systemy liniowe nie są pozbawione wad – zapis na kasecie wynikowej odbywa się sekwencyjnie, ewentualna modyfikacja wcześniej nagranego filmu wymaga powtórzenia montażu od początku. Przed rozpoczęciem edycji konieczne jest więc dokładne opracowanie scenariusza całego filmu. [38] W praktyce systemy liniowe są wykorzystywane do montażu długich materiałów, podzielonych na niewiele części składowych; powszechnie stosuje się obecnie online do montażu filmów wideo, skracając znacznie czas i koszty postprodukcji. [39]

Podczas edycji wideo występuje niejednokrotnie potrzeba edycji audio. Dlatego niemal wszystkie profesjonalne edytory nadają się do wykonania większości zadań montażowych ścieżki audio: od prostego miksowania i łączenia, do zaawansowanych funkcji w zakresie – m.in. stosowania efektów, kształtowania brzmienia i dynamiki materiału dźwiękowego. [40]

Cyfrowa obróbka obrazu

Na obróbkę obrazu w drodze procesów cyfrowych składa się kilka głównych dziedzin, których wspólnym mianownikiem jest ingerencja w sferę wizualną filmu.

Robiące od kilku lat furorę – głównie w produkcjach hollywoodzkich – efekty specjalne, mające za zadanie „przestraszyć i oczarować” widzów, to jeszcze nie wszystkie możliwości tego, co nazywamy potocznie „efektami komputerowymi”.  Kilka lat temu – kiedy rozpoczął się w zasadzie „złoty wiek” animacji komputerowej – widzowie oblegali tłumnie kina, aby obejrzeć filmy, w których pojawiły się elementy skonstruowane za jej pomocą. Dziś prawie każdy film jest wspomagany komputerowo. Pozycja w budżecie filmowym pt. „Animacja komputerowa i cyfrowe efekty specjalne” zajmuje niebagatelne miejsce.

Najważniejszymi procesami stosowanymi dla obrobienia cyfrowo obrazu są – często „wrzucane do jednego worka” i mylnie utożsamiane:  grafika komputerowa, animacja komputerowa i cyfrowe efekty specjalne.

Grafika komputerowa

Grafika komputerowa jest pojęciem najszerszym z trzech wyżej wymienionych. Jest działem informatyki, który obejmuje swoim zasięgiem wszystko co dotyczy tworzenia cyfrowych obiektów będących odwzorowaniem rzeczywistości, czy też fikcyjnych. Za jej początek uważa się rok 1950, gdy na ekranie grafoskopu podłączonego do komputera Whirlwind (USA) pojawił się pierwszy graficzny wykres danych. Burzliwy rozwój nastąpił jednak dopiero trzydzieści lat później, gdy dzięki popularyzacji techniki komputerowej znalazła ona szerokie zastosowanie. [41]

Grafika komputerowa umożliwia przede wszystkim:

  • definiowanie obiektów płaskich i przestrzennych, np. modelowanie krzywych, tworzenie brył geometrycznych, odwzorowywanie obiektów naturalnych (np. drzewa, góry) oraz ich ruchu (np. woda tworząca fale),
  • transformacje obiektów, np. przesunięcia, obroty, odkształcenia symulujące wpływ działania siły lub ruchu,
  • modelowanie oświetlenia i koloru przy uwzględnieniu różnych źródeł światła, ich położenia, intensywności oraz materiału z jakiego wykonane  są obiekty i jego własności odbijania światła ; dużą rolę odgrywają tu tzw. algorytmy rozstrzygające o zasłonięciu czy ekspozycji, całych lub podzielonych na fragmenty obiektów, oraz o rzucanych przez nich cieniach, itp.

Obecnie za pomocą grafiki komputerowej można zrobić z obrazem praktycznie wszystko. Przygotowując od podstaw trójwymiarowy obiekt można dowolnie nim manipulować uzyskując w efekcie końcowym obraz czasem bardziej realistyczny niż wykonany np. za pomocą fotografii. Dzięki temu to co było w filmie do tej pory twórczą rejestracją rzeczywistości, może stać się rzeczywistą rejestracją pomysłów filmowca. [42]

Oprócz klasyfikacji, ze względu na sposób tworzenia i przechowywania cyfrowego obrazu, która rozróżnia dwa rodzaje grafiki : wektorową (czyli g. obiektowo zorientowaną) i rastrową (czyli g. bitmapową, opierającą się na bitmapach, czyli siatkach pikseli), innym, bardzo dziś popularnym rodzajem klasyfikacji grafiki jest podział na grafikę 2D i grafikę 3D.

Pierwsza z wymienionych, grafika 2D, obejmuje swoim zasięgiem obróbkę cyfrową  obrazów dwuwymiarowych (płaskich), np. zdjęć, rysunków, czy tła. Służy przede wszystkim do obróbki materiałów graficznych przy wykorzystaniu grafiki rastrowej, jednak w przypadku cyfrowego wspomagania animacji klasycznej, używa się głównie dwuwymiarowej grafiki wektorowej.

Grafika 3D natomiast zajmuje się tworzeniem i obróbką obiektów trójwymiarowych. Największe zastosowanie ma w tym przypadku grafika wektorowa. Warto zaznaczyć, że aby powstałe w grafice 3D obrazy przenieść np. na materiał światłoczuły lub taśmę wideo, konieczna jest ich zamiana na płaski obraz dwuwymiarowy za pomocą specjalnej techniki tzw. renderingu.

Animacja komputerowa

Animacja komputerowa wywodzi się w prostej linii z animacji klasycznej. Wyróżnić można zasadniczo dwa odrębne działy: cyfrowe wspomaganie animacji klasycznej, oparte na grafice dwuwymiarowej oraz trójwymiarową animację komputerową, wykorzystującą głównie grafikę 3D. [43]

Cyfrowe wspomaganie animacji klasycznej

Cyfrowe wspomaganie animacji klasycznej jest kolejnym krokiem w ewolucji animacji rysunkowej. Komputery mogą spełniać rolę doskonałego narzędzia, ułatwiającego żmudną pracę rysowników, malarzy i animatorów w klasycznych filmach rysunkowych. Cyfrowe wspomaganie przebiega zwykle w trzech procesach: skanowanietrasowanie i wypełnianieanimowanie. [44]

Skanowanie polega na przeniesieniu do pamięci komputera za pośrednictwem skanera wcześniej narysowanych kluczowych klatek filmu. Fazy przejściowe między nimi tworzone są przez wyspecjalizowane programy komputerowe. Również kwestię doboru kolorów można rozwiązać za pośrednictwem komputera, kolorując tylko wcześniej narysowane kontury. Zeskanowany konturowy rysunek, zapisany w trudnej do obróbki grafice rastrowej, przetwarzany jest następnie przez komputer na dwuwymiarową grafikę wektorową. Proces ten to trasowanie, czyli zamienianie rysunku na matematyczne definicje linii.

Z uwagi na zastosowanie grafiki wektorowej powstały obraz nie jest zależny od rozdzielczości, co oznacza, że otrzymany rezultat nawet na dużym ekranie może niczym nie odbiegać od obrazu animowanego przez rysownika za pomocą klasycznej techniki.
Animowanie za pomocą komputera polega na sprecyzowaniu najważniejszych parametrów opisujących przejścia między kolejnymi kluczowymi klatkami filmu. Definiowany jest m.in.: zakres ruchu, czas trwania, szybkość, korekcja koloru dla poszczególnych planów, a nawet ruch fikcyjnej kamery śledzącej akcję. Następnie na podstawie otrzymanych informacji komputer wypełnia automatycznie fazy ruchu pomiędzy kolejnymi klatkami kluczowymi. Rezultatem jest każda jedna, kompletnie przygotowana dla potrzeb nośnika klatka filmu.

Trójwymiarowa animacja komputerowa

Trójwymiarowa animacja to generalnie rzecz biorąc proces przygotowania i wprawienia w ruch obiektów powstałych za pomocą grafiki 3D. Z uwagi na konieczność przygotowywania od podstaw specjalnych przestrzennych obiektów, ich wypełnianie , oświetlanie , można pokusić się o porównanie do animacji lalkowej. Co jednak najważniejsze; trójwymiarowa animacja komputerowa pozwala na wykreowanie bardzo realistycznych postaci, niemożliwych do uzyskania za pomocą animacji klasycznej. Film animowany może stać się nie do odróżnienia od naturalnie fotografowanych filmów, a niekiedy nawet bardziej od nich realistyczny.

Na sztukę trójwymiarowej animacji komputerowej składa się wiele podprocesów, które dopiero w połączeniu dają końcowy efekt – wysokiej jakości, realistyczną animację. Ich porządek przedstawia się następująco:

  • storyboard  (scenopis obrazkowy),
  • modelling and shading  (modelowanie i cieniowanie),
  • mapping  (wypełnianie),
  • lighting  (oświetlanie),
  • animation  (animowanie). [45]

Podobnie jak w klasycznym filmie animowanym pierwszy etap to przygotowanie szczegółowego scenopisu obrazkowego, czyli storyboardów. Są one wiele razy korygowane podczas twórczej pracy całej ekipy.

Modelowanie to tworzenie trójwymiarowych cyfrowych modeli postaci, rekwizytów i planu filmowego. Prawie zawsze modele komputerowe oparte są na specjalnie przygotowanych naturalnych rzeźbach, które można następnie przenieść do pamięci komputera za pomocą skanerów 3D.
Wprawione w ruch komputerowe modele nie mają jeszcze charakterystyki swojej powierzchni, opisującej fakturę, wykończenie i kolor. Za pomocą specjalnych programów „przydziela się” stworzonym wcześniej obiektom odpowiedni materiał, z których są naturalnie zbudowane. Komputerowemu  modelowi można „przyporządkować” dowolną konsystencję i przyoblec go w dowolną fakturę. Jest to szczególnie ważne, gdy zależy nam na jak najbardziej   realistycznym wyglądzie przygotowywanej powierzchni. Czasem proces ten nazywany jest także teksturowaniem.
Następnie „oświetla się” przygotowywane sceny. Specjalne algorytmy umożliwiają symulację różnych źródeł światła, filtrów i ich ustawienia na komputerowym „planie”.

Animowanie za pomocą komputera wcześniej stworzonych modeli trójwymiarowych polega generalnie na choreografii ich ruchu przez wyznaczenie kluczowych klatek ujęcia lub faz ruchu. Animatorzy komputerowi ani nie rysują, ani nie malują ręcznie kolejnych ujęć tak jak tego wymaga animacja klasyczna. Wybierają jedynie kluczowe elementy akcji. Komputer automatycznie tworzy fazy przejściowe, które animator może w razie potrzeby modyfikować. Częstym zabiegiem jest używanie specjalnych lalek jako swego rodzaju pulpitu sterującego animacją.
Inną popularną techniką animacji, stosowaną głównie dla postaci o ludzkim charakterze jest tzw. (ang.) motion capture. Animator wprawia w ruch komputerowego bohatera zakładając specjalny kombinezon z czujnikami. Ruchy ręki, nogi, głowy, lub całego tułowia rejestrowane są w komputerze i powodują taką samą reakcję animowanej postaci. Rozwiązane to daje w prosty sposób bardzo ciekawy efekt, nie jest on jednak doskonały, a przy tym trudno go korygować, ponieważ każda z klatek jest kluczowa.

Ostatnim etapem pracy jest proces automatycznego „malowania” przez komputer obrazu finalnego. Trójwymiarowy obraz zanimowanego modelu w grafice wektorowej, wraz z informacją o jego teksturze i oświetleniu zamieniany zostaje na grafikę rastrową w postaci bitmapy, złożonej z milionów pikseli składających się na każdą klatkę filmu. Tak powstały obraz pozostaje tylko skopiować na taśmę lub inny nośnik eksploatacyjny.  [46,47]

Tworzenie cyfrowych efektów specjalnych

Cyfrowe efekty specjalne obejmują wszystkie techniki komputerowego przetwarzania obrazu rzeczywistego w filmie. Proces ich tworzenia składa się zwykle z trzech etapów: przechwytywanie obrazu (skanowanie), cyfrowej obróbki i konwersji na materiał końcowy.
Wprowadzony do pamięci komputera obraz naturalny można przetwarzać dowolnie, według uznania twórców. Manipulacja cyfrowym obrazem może obejmować obróbkę obrazów naturalnych, animację komputerową połączoną z obrazem naturalnym oraz cyfrową korekcję negatywu.

Obróbka obrazów naturalnych

Obróbka obrazów naturalnych dotyczy prac związanych wyłącznie z grafiką rastrową, czyli obrazami w postaci map bitowych. Jest to m.in. łączenie dwóch ujęć, nakładanie, retuszowanie, montaż. Dzięki niej możliwe jest np. dowolne zwiększanie liczby statystów, zmiana warunków atmosferycznych (zima, deszcz, chmury, itp.), dodanie lub wysłonięcie dekoracji, korekcja ukrywająca zarejestrowane błędy techniczne (np. retusz wystającego elementu mikrofonu, czy zmiana kierunku ruchu kamery, umożliwiająca poprawny montaż).

Animacja komputerowa i obraz naturalny

Połączenie animacji komputerowej z ujęciami zarejestrowanymi tradycyjnymi metodami ( np. na taśmie światłoczułej, lub wideo ) to kolejny przykład cyfrowych efektów specjalnych. Proces ten umożliwia wstawienie wygenerowanych za pomocą animacji komputerowej, fotorealistycznych trójwymiarowych obiektów (np. statków kosmicznych, czy potopu) w naturalne plenery, towarzystwo aktorów, itp. Najważniejszymi procesami łączenia animacji komputerowej z obrazem rzeczywistym są: tracking, rotoscoping, morphing, oraz compositing. [48,49]

Tracking

Do prawidłowego połączenia  animacji komputerowej z obrazem rzeczywistym konieczne jest idealne odtworzenie ruchów kamery, która zapisała na planie konkretne ujęcie. Idea tego procesu polega na obraniu dogodnych punktów perspektywy i zbudowaniu schematycznego obrazu przestrzeni ujęcia. Sprawa staje się bardziej skomplikowana, gdy operator do zdjęć użył steadycamu lub kręcił „z ręki”. Zadaniem osoby odpowiedzialnej za tracking jest wtedy wyznaczenie ścieżki ruchu prawdziwej kamery, klatka po klatce. Ważna jest w tym wypadku dobra znajomość sztuki operatorskiej.

Rotoscoping

Załóżmy, że wygenerowany komputerowo obiekt (np. zwierzę) ma poruszać się we wcześniej nakręconej na taśmie filmowej naturalnej rzeczywistości. Jeżeli chcemy by schowało się ono np. za drzewem, konieczne jest klatka po klatce wycięcie konturu drzewa dzięki czemu można stworzyć odpowiednią ekranową maskę, pod którą możemy schować zwierzę. Technika ta pod względem stopnia trudności zbliżona jest do trackingu.

Morphing

Jest to technika pozwalająca na płynne przejścia z jednego obrazu w drugi. Bardzo popularne zamiany lub transformacje (np. człowieka w innego człowieka) dzięki technice morphingu możliwe są do zrobienia nawet na dużym zbliżeniu. Komputer wychwytuje podobieństwo kształtów pomiędzy postacią początkową i końcową, a następnie sam generuje kolejne klatki transformacji. Dzięki temu uzyskuje się płynną animację przejścia z jednej naturalnie sfilmowanej formy w drugą.

Compositing

Compositing jest to połączenie w całość specjalnie przygotowanej animacji komputerowej z obrazem nagranym na planie filmowym. [50]

Konwersja  A/C i C/A ; przechwytywanie sygnału analogowego, obróbka cyfrowa i transfer na materiał końcowy.

Tzw. transfer jest pierwszym etapem w procesie postprodukcji, polegającym na przepisaniu materiału z taśmy światłoczułej na nośnik magnetyczny. Ciągle, pomimo gwałtownej ekspansji technologii DV i kamer cyfrowych, najważniejszym nośnikiem do rejestracji obrazu jest klasyczna taśma filmowa. Pomimo tego, że jest to najbardziej kosztowna technika, daje ona wciąż jednak najwięcej możliwości. Dotyczy to wielu aspektów obrazu – począwszy od sfery kompozycyjnej, jak głębia ostrości, aż do czystej technologii, jak ilość linii obrazu czy głębia koloru (a więc również kontrast).

Upowszechniająca się technika cyfrowa jest coraz częściej stosowana  już na etapie tworzenia zdjęć, w procesach postprodukcji ma już ona dobrze ugruntowaną pozycję. Filmy dużych i małych producentów są „masteringowane” cyfrowo; kosztowne i prestiżowe produkcje, jak chociażby trylogia „Władca pierścieni”, skutecznie przecierają drogę kolejnym projektom. Wszystko po to, by przy zachowaniu wysokiej jakości, twórcy mogli poszerzyć spektrum posiadanych możliwości edycji materiału.

Cyfrowa ingerencja w tworzywo filmu najczęściej obejmuje: korekcję barwną – pozwalającą na uzyskanie zamierzonego przez twórców odpowiedniego klimatu kolorystycznego oraz korektę ziarnistości (negatywu) – umożliwiającą dodanie lub ujmowanie ziarnistości bez szkody dla faktury obrazu, czy dokładności konturów (np. usunięcie ziarna z materiałów archiwalnych, tak aby można było łączyć je ze zdjęciami współczesnymi lub animacją komputerową, tworząc efekt o niedostrzegalnych połączeniach).

Korekcja negatywu umożliwia poza tym konserwację materiałów archiwalnych. Można m.in. wykrywać uszkodzenia i zabrudzenia emulsji, retuszować spowodowane przez nie defekty obrazu, odnawiać barwy, a nawet kolorować czarno-białe filmy. [51]

Takie możliwości – „poprawiania” i „podciągania” jakości filmu, a także stosowania cyfrowych efektów specjalnych, dających realizatorom pole działania ograniczone praktycznie tylko ich wyobraźnią  oraz możliwościami finansowymi,  daje właśnie proces zamiany A/C i C/A, czyli analogowo-cyfrowo-analogowej. Wszystkie te procesy cyfrowe tworzą razem technologię zwaną DIGITAL INTERMEDIATE, lub DIGITAL MASTER, która ma szansę zdominować postprodukcję filmową. [52]

Do cyfrowej obróbki obrazu służą rozbudowane systemy komputerowe. Z uwagi na burzliwy rozwój techniki, charakteryzują się zwykle otwartą architekturą, umożliwiającą łatwą rozbudowę i modernizację o nowe elementy bez konieczności wymiany całego systemu. Otwarta architektura umożliwia rozsądny dobór poszczególnych elementów, decydujących o wydajności i funkcjonalności systemu w zależności od potrzeb producenta filmu.

Zasadnicze części wchodzące w skład systemu  komputerowego to urządzenia do przechwytywania obrazu rzeczywistego, cyfrowego przetworzenia obrazu i jego konwersji na materiał końcowy (taśmę światłoczułą lub taśmę wideo). [53]

Przechwytywanie obrazu rzeczywistego

Przechwytywanie obrazu to inaczej konwersja sygnału analogowego na cyfrowy. Aby można było przetwarzać cyfrowo obraz naturalny trzeba najpierw przenieść go z analogowej taśmy wideo lub światłoczułej do pamięci komputera. Najpopularniejsze jest przechwytywanie analogowego sygnału wizyjnego, np. wideo. Obraz taki ma niewielką rozdzielczość (wg standardów telewizyjnych) i przez to konwersja taka jest stosunkowo prosta. Można zrobić to za pomocą konwerterów A/C takich jak np. taśmy wideo. O wiele trudniejsze jest dokonanie tego z obrazem z taśmy filmowej, który składa się z ok. 8000 linii. Jak łatwo policzyć jedna klatka filmu zajmuje prawie 14 razy więcej pamięci niż obraz wideo.

Obraz przechwytuje się, aby uzyskać materiał do wykonania efektów specjalnych, wykonania komputerowej korekcji barwnej, czyli przystosowania do wykonania na nim masteringu  filmu fabularnego, czy dokumentalnego;  istnieje również możliwość cyfrowej zamiany formatu: z negatywu Super 16 na 35mm czy też z Super 35 na Cinemascope. [54]

Procesu tego – skanowania (lub transferowania) –  dokonuje się za pomocą tzw. telekina. Urządzenie to umożliwia transfery, czyli przepisanie obrazu, z negatywu i pozytywu w formatach 35mm, Super 35mm, 16mm i Super 16mm na taśmę video. Umożliwia też korekcję video-video oraz odczytanie ścieżki dźwiękowej zapisanej w postaci optycznej.

Dodatkowe wyposażenie obejmuje czytnik tzw. keykodów, czytnik kodów kamerowych oraz pamięć obrazu (stills store) i filtry optyczne.
Skanowane pliki zapisuje się na  tzw. macierzy dyskowej (dla przykładu: 100 minut filmu to 144 000 klatek w rozdzielczości 2K, czyli około 1,5 TB = 1500 GB) w potrzebnym formacie i z odpowiednią głębią koloru. Proces korekcji barw przetwarzany jest w rozdzielczości 2K, czyli 2000 linii, a dopiero sygnał wyjściowy formatowany jest do standardu PAL. [55]

Transfer jest więc pierwszym krokiem w procesie postprodukcji digitalnej. Na tym etapie zostaje wykonany tzw. transfer „na jedno światło”. Oznacza to, że kolorysta [56] skanujący taśmę filmową, po wykonaniu szeregu prób, przepisuje cały materiał z jedną ustaloną korekcją barwną – czyli zestawem filtrów i efektów zapewniających odpowiednie – mające znaczenie dla „charakteru” filmu, nasyceniem kolorów. Przez łącze wizyjne obraz zostaje przeniesiony na jeden z kilku nośników: Beta SP, Digi-Beta lub VHS. Wszystkie końcówki sieci sygnału wizyjnego są rozdzielone: na część analogową i cyfrową. Do każdego z korektorów jest dołączony specjalny komputer.

Komputery te mają zainstalowane oprogramowanie, które pozwala na zapisywanie poszczególnych sesji kolorystycznych. Zapis dotyczy każdej rolki skanowanego filmu oraz „ramek referencyjnych”, przy pomocy których dokonuje się podstawowych regulacji, np. w celu ujednolicenia barwnego materiału rejestrowanego w różnych warunkach oświetleniowych.

W trakcie transferu zostają podjęte najważniejsze decyzje co do charakteru obrazu. Późniejsza obróbka on-line’owa jest już tylko delikatną jego korektą. Wynika to z prostego faktu, że taśma filmowa jako materiał wyjściowy zawiera najwięcej informacji i kolorysta ma największe pole manewru właśnie podczas transferu. To tak, jak ze zdjęciem – źle zeskanowane daje niewielkie możliwości obróbki. [57]

Cyfrowe przetworzenie obrazu

Za przetwarzanie obrazu odpowiedzialne są tzw. stacje graficzne – zestawy komputerowe, zaprojektowane pod kątem cyfrowej obróbki obrazu. Dzięki specjalnemu wyposażeniu umożliwiają pracę z grafiką wysokiej rozdzielczości. Głównymi elementami takiej stacji są przede wszystkim komponenty komputerowe (procesory, pamięć RAM, systemy dodatkowych kart grafiki), posiadające ogromną moc obliczeniową, zdolne do pracy z materiałem o bardzo dużej rozdzielczości. Poza tym zestawy te posiadają wielkoekranowe monitory zapewniające obraz zgodny z planowanym efektem końcowym, umożliwiające pracę kilku osobnych wyjściowym  kanałom.

Integralną częścią stacji graficznej jest odpowiednie oprogramowanie. Można je zasadniczo podzielić na dwa rodzaje:
programy do tworzenia grafiki komputerowej (zwykle w postaci wektorowej). Służą przede wszystkim do animacji komputerowej. Rezultatem jest „zrenderowany” obraz w grafice rastrowej.
– programy do  przetwarzania obrazu w postaci grafiki rastrowej wykorzystywane głównie przy montażu i cyfrowych efektach specjalnych
Wszystko to w sumie umożliwia pracę z materiałem filmowym bez kompresji, w dużej rozdzielczości, gwarantującej emisyjną jakość obrazu.

W kolejnej fazie postprodukcji montuje się materiał offline – celem tego etapu jest selekcja materiału i wyrobienie poglądu o efekcie końcowym.
Po akceptacji efektów wykonanych na tym etapie rozpoczyna się faza online. Przed przystąpieniem do tej fazy materiał nierzadko bywa ponownie przepisany z taśmy filmowej w procesie transferu finalnego, podczas którego obraz jest poddany ostatecznej korekcji kolorystycznej. Efektem końcowym montażu online jest taśma emisyjna. W przypadku produkcji filmów kinowych zmontowany materiał jest przenoszony przy pomocy naświetlarki na taśmę filmową.

Konwersja na materiał końcowy

Przetworzony cyfrowo materiał można przechowywać i odtwarzać z dysków CD/DVD lub magnetycznych taśm cyfrowych – konieczna jest jedynie odpowiednia kompresja obrazu zmniejszająca ilość zajmowanego miejsca. Ponieważ jednak ciągle najbardziej popularnymi nośnikami do masowej dystrybucji jest taśma wideo lub filmowa ( co dotyczy wszystkich obrazów realizowanych dla potrzeb projekcji kinowych ), po przetworzeniu należy obraz przenieść z powrotem na analogowe medium.

W przypadku taśmy wideo służą do tego przede wszystkim konwertery C/A (np. karty wideo). Jest to rozwiązanie o wiele mniej skomplikowane i tańsze niż uzyskanie produktu finalnego na taśmie światłoczułej. Dla potrzeb transferu na taśmę filmową wykorzystuje się naświetlarki.

Istnieje możliwość skonstruowania niejako „amatorskiego” takiej naświetlarki, czyli skomponowania jej: np. z kamery do zdjęć poklatkowych, rejestrującej – klatka po klatce – materiał z monitora komputerowego.  [58]

Jednak stosowane w produkcji filmowej maszyny to zaawansowane technologicznie, bardzo drogie urządzenia  wykorzystujące zwykle technikę laserów gazowych rejestrujących cyfrowy obraz wysokiej rozdzielczości – nawet do 4K (tysięcy linii) wprost na negatywie. W ten sposób uzyskuje się kopię o jakości emisyjnej, przeznaczoną do wyświetlania w kinie, lub dalszego powielania.

Do naświetlania wykorzystuje się najczęściej niskoczuły negatyw, który charakteryzuje się małą ziarnistością, a oprogramowanie sterujące naświetlarką pozwala na uzyskanie wysokiej jakości obrazu na ekranie kinowym, zarówno pod względem reprodukcji barw, kontrastu, jak i ostrości. [59]

Przejdź do następnego rozdziału »

 

 


Przypisy do rozdziału:

[17] Leksykon Techniki hi-fi i video. WKŁ Warszawa 1984
[18] Op. cit. (Franek K.  Intermedium) str.59
[19] Ibidem, str. 60
[20] Duch W. Fascynujący świat komputerów. Nakom, Poznań 1997
[21] Eastman Kodak Company – Digital Learning Center  http://www.kodak.com
[22] Op. cit. (Franek K. Intermedium str.64)
[23] Time Life: Era Komputerów. Time Life Books, Amsterdam 1994
[24] „CHIP”, miesięcznik, Vogel Publishing sp. z o.o., Wrocław  Leśniorowski P., „Zamiast kliszy – technologia cyfrowych aparatów fotograficznych”.1998 nr 10, Str. 106-111
[25] Op.cit (Franek K. Intermedium,) str. 76-77
[26] Ibidem, str. 77
[27] Ibidem, str.68
[28] Ibidem, str.68, 109
[29] Słownik terminów audio. http://www.hifi.pl
[30] Op. cit. Franek K. Intermedium, str.111
[31] Digital Sound Page  http://www.isc.rit.edu/~axb8863/
[32] Dolby Laboratories http://www.dolby.com
[33] Digital Theatre Systems  http://www.ststech.com
[34] Sony Electronics – Sony Dynamic Digital Sound , http://www.sdds.com
[35] Lucasfilm THX Theatre Sounds Systems  http://www.thx.com
[36] Op. cit. (Franek K., Intermedium), str.116-117
[37] Wielka Encyklopedia Multimedialna, www.onet.pl/wiem
[38] Borukało T. Hollywood na biurku – cyfrowe urządzenia wideo, CHIP – Magazyn komputerowy 1999, nr12 str. 118-122
[40] Zdanowicz M. Cyfrowe wideo PC WORLD KOMPUTER SPECIAL  , nr2/2002
[41] Foley J, van Dam A., Feiner S, Hughes J, Philips R.: Wprowadzenie do grafiki komputerowej WNT , Warszawa 1995
[42] Op.cit. (Intermedium), str. 121-122
[43] Ibidem, str. 122
[44] Animo Software – Cambrige Animation Systems  http://www.animo.com
[45] Op.cit. (Intermedium) str. 123-124
[46] Pixar Animation Studios  http://www.pixar.com
[47] Op.cit.(Intermedium ) str. 126
[48] Ibidem, str. 127
[49] Op.cit. Pixar Animation Studios
[50] Ibidem, str. 128
[51] Eastman Kodak Company – Digital Learning Center, http://www.kodak.com
[52] The Chimney Pot , http://www.chimney.pl
[53] Op. cit. (Intermedium) str.128
[54]  Ibidem
[55] Kodak Polska, http://www.kodak.com.pl
[56] Kolorysta – technik obsługujący proces transferu i korekcji koloru
[57] Janiszewski W. Szwedzi w Warszawie. The Chimney Pot, Wideo i Komputer 2002
[58] Film&TV Kamera 2003, nr 1
[59] Op.cit. (The Chimney Pot)


Skrócony spis treści:

Obszary zastosowania technologii cyfrowej w produkcji i eksploatacji filmu (Wstęp i pełny spis treści)
Rozdział 1: Tradycyjne metody (i formaty) zapisu oraz obróbki obrazu i dźwięku w filmie
Rozdział 2: Istota i wykorzystanie technologii cyfrowej dla potrzeb produkcji filmu
Rozdział 3: Nowoczesne – digitalne – sposoby eksploatacji utworów audiowizualnych
Zakończenie, notka od autora i bibliografia

One Comment

  1. Uczeń 4TI 07/09/2011

    Jestem zatracony życiem ale wygram tę grę.. ;/

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *