Nowoczesne – digitalne – sposoby eksploatacji utworów audiowizualnych (Rozdział 3/3)

Dotychczas w przemyśle filmowym można było wyróżnić jako główne pola eksploatacji: rynek kinowy, rynek filmów wideo oraz emisję telewizyjną. Filmy rejestrowane i utrwalane na taśmie światłoczułej powiela się na potrzeby dystrybucji i wyświetla w kinach. Korzystamy z wypożyczalni filmów wideo, a w domach oglądamy telewizję.

Tradycyjne pola eksploatacji ulegają jednak ewolucji ze względu na zmianę sposobu produkcji oraz pojawianie się innych możliwości ich dystrybuowania. Prócz form dystrybucji, do jakich jest przyzwyczajony odbiorca, wskutek wkraczania nowoczesnych technologii można zaobserwować tworzenie się również alternatywnych pól eksploatacji. Tak dzieje się zarówno z produkcją filmową, jak i telewizyjną.

Upowszechniają się coraz to nowe nośniki cyfrowe, taśmy VHS wypierane są zdecydowanie przez optyczne dyski DVD, powszechne jest już oglądanie filmów „z komputera”, a prócz tradycyjnej telewizji analogowej odbieramy również różne, „cyfrowe” jej odmiany.

Podstawowe informacje dotyczące spektrum możliwości oferowanych przez nowoczesną technikę elektroniczną w sferze rozpowszechniania „produktów audiowizualnych” są treścią niniejszego rozdziału.

1. Archiwizowanie i odtwarzanie w standardzie cyfrowym

Aby możliwe było zapisywanie dźwięków i obrazów pod postacią bitów, konieczne jest ich podzielenie na zbiory danych możliwe do odczytania przy pomocy programów komputerowych oraz urządzeń obsługujących nośniki cyfrowe. Zbiory te, nazywane popularnie plikami, maja zawsze pewną wielkość wyrażoną w postaci liczby (potocznie mówi się o „wadze” pliku).

Różne pliki zakodowane są w różny sposób. Poza tym pliki zawierające informacje jednego rodzaju, również mogą różnić się sposobem kodowania. Mówimy wtedy o różnym formacie plików jednego rodzaju. Dla łatwiejszej identyfikacji rodzaju i formatu pliku stosuje się tzw. rozszerzenia, czyli zwykle trzy lub czteroliterowe oznaczenie, znajdujące się na końcu nazwy pliku, po kropce. Zwykle formaty umożliwiają zapis dźwięku lub obrazu w różnej jakości definiowanej przez użytkownika, co pozwala na kontrole wielkości zbioru danych w zależności od naszych oczekiwań.

Trzeba zdawać sobie sprawę, ze cyfrowy obraz zajmuje ogromna pamięć. Na przykład jedna klatka negatywu filmowego zapisana w jakości fotorealistycznej, konsumuje ilość bitów będącą odpowiednikiem ilości danych zapisanych na około 13 dyskietkach lub ponad 6000 stronach tekstu. Do zapisania jednej klatki obrazu w standardzie telewizyjnym potrzeba znacznie mniej pamięci. Mimo ciągłego postępu w dziedzinie pamięci stałych, nadal najważniejszą przeszkodą w przechowywaniu i odtwarzaniu ruchomych obrazów i dźwięku jest pojemność dysków. Dlatego ogromne znaczenie dla technologii korzystających z zapisu cyfrowego mają metody kompresji danych, czyli sposoby na zmniejszenie objętości zajmowanego przez obraz i dźwięk miejsca na przestrzeni dyskowej. [60]

1.1 Formaty cyfrowego zapisu dźwięku i obrazu; kompresja danych cyfrowych

Zasadniczo wyróżniamy dwa podstawowe typy kompresji danych:

  • kompresja bezstratna, umożliwiająca zmniejszenie objętości danych przeciętnie o niespełna połowę, odtwarzany obraz lub dźwięk będzie matematycznie i wizualnie (słyszalnie) identyczny z oryginałem ; oko i ucho ludzkie nie są w stanie wychwycić różnicy, niemniej jednak zawsze w tym procesie powstaną szumy i mikroskopijne błędy,
  • kompresja stratna (czyli z utratą danych) – pozwala na o wiele większy stopień „spakowania” danych, ale rekonstruowany obraz lub dźwięk nie będzie idealnie taki sam jak oryginał; straty te mogą być zauważalne, lub nie mieć większego wpływu na odbiór. Kompresja z niezauważalną utratą danych oparta jest na wiedzy o konstrukcji obrazu i dźwięku oraz ich percepcji przez człowieka. Najprościej mówiąc algorytmy kodowania izolują i „wyrzucają” elementy, których zmysły ludzkie i tak nie są w stanie wychwycić. To co pozostanie jest kompresowane.

Zamiast polowy, otrzymujemy finalnie plik mający od jednej dziesiątej do jednej pięćdziesiątej oryginalnych wymiarów. Zdekodowany obraz nie jest co prawda identyczny, ale wystarczająco podobny, aby oglądanie go nie oznaczało się mniejszym komfortem.

Praktycznie każdy format kompresji jest stratny, jeśli wziąć pod uwagę techniczną definicję kompresji bezstratnej, czyli kiedy proces kompresji zmniejsza fizycznie oryginalną ilość pierwotnego materiału. [61]

Kompresja stratna ma jeszcze jedna zaletę: można kontrolować jak duży ma być plik, kontrolując jak wiele informacji zostanie wyrzuconych. Oczywiście im więcej zostanie usunięte, tym gorzej wyglądać będzie obraz. Przy pewnym punkcie zwiększanie kompresji przestaje być opłacalne – zmniejszenie rozmiarów o 10% pociąga za sobą dziesięciokrotne obniżenie jakości. Występują wtedy tzw. (ang. compression artifacts) – charakterystyczne dla danego sposobu kompresji zniekształcenia. Niektóre z tych niepożądanych „efektów” rozmywają obraz, inne pokazują przypadkowe pixele w punktach kontrastujących, najczęściej jednak widzi się tzw. kwadraty kwantyzacyjne na jednolitych, zmieniających się powoli płaszczyznach. [62]

Na początku rozwoju techniki komputerowej prawie każda firma produkująca komputery opracowywała dla swoich maszyn własne formaty zapisu dźwięku i obrazu. Po pewnym czasie wyklarowały się w końcu pewne standardy, umożliwiające bardziej swobodną wymianę plików dźwiękowych i graficznych pomiędzy różnego typu komputerami.

Najbardziej obecnie popularne formaty służące do zapisu plików dźwiękowych, są to:

  • WAVE – jest najbardziej rozpowszechnionym formatem audio, należącym do grupy formatów odzwierciedlających kształt fali dźwiękowej. Opiera się na próbkowaniu w modulacji PCM na jednym lub wielu kanałach dźwiękowych.
  • MIDI – najbardziej popularny format audio należący do grupy formatów sterujących pracą cyfrowych instrumentów wytwarzających dźwięki. Zarówno WAVE jak i MIDI wchodzą w skład rodziny formatów pod wspólną nazwą RIFF (ang. Resource Interchange File Format), powstałych w celu zunifikowania operacji przechowywania danych w multimediach.
  • MPEG Audio Files – to grupa formatów audio o dużej kompresji danych, oparta na systemie kompresji MPEG.

Obrazy ruchome zapisuje się w następujących formatach plików:

  • AVI (Audio/Video Interleaved) – napisany jako standard do odtwarzania ruchomych obrazów z dźwiękiem pod programem Windows w komputerach PC. Charakterystyczne jest to, że strumienie danych audio i wideo są wzajemnie przeplecione.
  • QuickTime File Format – stworzony specjalnie dla komputerów MacIntosch, adaptowany także dla Windows. Tworzy bloki jednorodnych danych zwanych ścieżkami Quick Time, które nawet w jednym pliku mogą być pakowane inną odmianą kompresji.
  • MPEG Video Files – standard zapisu ruchomych obrazów wykorzystywany m.in. w telewizji cyfrowej i przy zapisywaniu na dyskach DVD. [63]

Do kompresji i dekompresji plików (wideo) używa się tzw. kodeków, czyli koderów i enkoderów, które jako narzędzia programowe zapisują i odczytują pliki w kompresji stratnej lub bezstratnej. Najpowszechniejsze kodeki z kompresją bezstratną to kodek DV (używany w większości najpopularniejszych formatów cyfrowych (miniDV, Digital8, DVDCAM i DVCPRO) oraz kodek MJPEG.

Natomiast popularne kodeki zapisujące z kompresją stratną to: MPEG-1, MPEG-2, MPEG-4/DivX, oraz SVCD. [64]

Każdy obrazek na monitorze komputerowym składa się z siatki pixeli ułożonych w rzędy i kolumny. Każdy kwadratowy piksel „trzyma” informacje o pojedynczym kolorze lub odcieniu szarości. Ilość pixeli stanowi o wymiarach obrazka. Ich wielkość stanowi o jego rozdzielczości.

Cyfrowa reprezentacja video składa się zawsze z serii obrazków, tzw. klatek lub ramek. Odtwarzając sekwencje klatek szybko po sobie uzyskujemy wrażenie ruchu. Szybkość odtwarzania klatek mierzy się w „fps” (frames per second – ang. klatki na sekundę). Im jest ich więcej, tym bardziej płynny wydaje się obraz. Profesjonalne filmy kręcone są zazwyczaj w 24 fps, a telewizja nadaje 25 (system PAL) lub 30 (system NTSC) klatek na sekundę.

Odtwarzanie dużej ilości klatek na sekundę jest niezbędne dla uzyskania dobrej jakości obrazu, niemniej jednak pojawia się w tym momencie problem z ogromna ilością pamięci potrzebnej do zarchiwizowania takiej ilości cyfrowych danych.

Dosyć często pojedyncze – zwłaszcza kolejne – klatki różnią się miedzy sobą bardzo niewiele – zmienia się tylko fragment obrazu, a jego reszta pozostaje bez zmian. Dlatego, żeby zminimalizować potrzebną ilość informacji, stosuje się tak zwane klatki różnicowe (ang. delta frames). Klatka taka nie posiada informacji o tym co jest wyświetlane w danej chwili na ekranie, posiada tylko informacje co zmieniło się od poprzedniej klatki. Zajmuje wiec ona oczywiście o wiele mniej miejsca. Możemy tez opisać i zaznaczyć następna klatkę różnicową, która powie nam co zmieniło się od poprzedniej i tym sposobem znacznie zmniejszymy rozmiary pliku.

Wadą jednak tego rozwiązania jest to, ąe aby narysować klatkę różnicową, musimy wiedzieć jak dokładnie wyglądała klatka przed nią, jeżeli ta przed nią również jest różnicowa, musimy znać także wygląd poprzedniej itd. Musimy wiec cofnąć się do ostatniej klatki, która „trzyma” cały obraz, tzw. klatki kluczowej (ang. keyframe).

O ile niektóre sposoby kompresji (MPEG , IntelIndeo5) zawierają informacje o dość wielu klatkach kluczowych (najczęściej co 5-30 klatek), o tyle inne (ASF, DIVX – MPEG4) mają je bardzo rzadko (co 10 sek. czyli co ok. 250 klatek) – powoduje to że podczas przeskoku do innego momentu musimy czekać na zdekodowanie wszystkich poprzednich klatek.

Nie wolno zapominać, ze omówione powyżej sposoby dotyczą ogólnych zasad archiwizowania danych cyfrowych. Nie robimy tu rozróżnienia pomiędzy materiałem końcowym, finalnie obrobionym, a tym, który jest „źródłowy”, czyli przeznaczony do dalszej obróbki i korekcji.

Trzeba zaznaczyć , ze zastosowanie jakiejkolwiek z metod kompresji najczęściej pociąga za sobą utratę jakości, co uniemożliwia skuteczna i dokładna edycje materiału. Tak wiec założyć można, ze kompresje (zwykle powodującą takie zmniejszenie jakości materiału, że nie nadaje się on już do edycji) stosuje już po ukończeniu obróbki, w celu zmniejszenia „wagi” pliku, przed ostatecznym zarchiwizowaniem dla potrzeb nośnika cyfrowego.

1.2  Technologia cyfrowego wideo; kodeki i formaty zapisu

Analogowy sprzęt wideo, który wszedł do powszechnego użytku na początku lat 80, umożliwiał nagrywanie udźwiękowionych filmów, które mogły być następnie odtwarzane w magnetowidzie. Wraz z rozwojem rynku pojawiły się nowe, bardziej funkcjonalne formaty zapisu i odtwarzania, zapewniające znacznie wyższą jakość. Formaty 8mm, VHS-C, i później Hi-8 zapewniały coraz wyższą jakość przy wciąż zmniejszających się gabarytach sprzętu. Jednak analogowy format wideo miał swoje ograniczenia, które spowodowały, że musiał ustąpić miejsca technologii cyfrowej.

Wprowadzenie cyfrowej technologii wideo(DV) zaowocowało mniejszymi rozmiarami kamer, wyższą jakością i większymi możliwościami edycji obrazu. Na przestrzeni kilku ostatnich lat technologia cyfrowa była wciąż udoskonalana.

Cyfrowy format wideo w kamerach amatorskich został wprowadzony na rynek przez firmy Panasonic i Sony w roku 1997. Jest on powszechnie znany jako DV (ang. Digital Video) albo MiniDV.

Tak jak w przypadku formatów analogowych, istnieje kilka cyfrowych formatów wideo (DV, Digital8, DVD-RAM), a nowe są właśnie opracowywane. Różnice w formacie w przypadku analogowych polegają na różnych rozmiarach taśmy i jakości nagrania . Różnice w formatach cyfrowych polegają głównie na różnicach w rodzaju nośnika oraz jego konstrukcji, rozmiarze i niezawodności. W najnowszych cyfrowych formatach wideo używane są taśmy, ale w niektórych stosowane są dyski optyczne, takie jak DVD-RAM. [65]

Kodek wideo można określić mianem fundamentalnego narzędzia do kompresji i dekompresji, natomiast format stanowi strukturę, w której to narzędzie jest umieszczone. Każdy format ma swoją własną strukturę. Jeżeli nośnikiem, na którym bazuje format, jest taśma, będą od niego zależeć rozmiar taśmy i długość nagrywania. Obecnie większość formatów używa kodeka DV, ale kilka najnowszych formatów korzysta z kodeka MPEG.

Na konsumenckim rynku cyfrowych kamer wideo dominują dwa formaty – MiniDV i Digital8. Oba używają tego samego kodeka DV, ale rejestracja odbywa się na taśmach o różnych rozmiarach. Na rynku profesjonalnym mamy również dwa główne formaty bazujące na kodeku DV – są to DVCAM i DVCPRO, o wysokim stopniu niezawodności. Nowe formaty bazujące na kodeku MPEG, jak na przykład MicroMV, nie są jeszcze w pełni dopracowane, nie zapewniają więc takiej jakości i niezawodności jak formaty bazujące na kodeku DV.

Poniżej krótko scharakteryzowany zostanie każdy z wymienionych formatów.

Mini DV – (zwany również DV), jest najpopularniejszym formatem z dostępnych na rynku. MiniDV używa kodeka DV. Rozmiar kasety z taśmą jest bardzo niewielki (około 6cm), dzięki czemu bardzo mała może być również sama kamera. Na typowej taśmie MiniDV można zarejestrować 60 minut w standardowym trybie nagrywania lub 90 minut w trybie longplay. W 2001 roku na rynku pojawiły się nowe taśmy umożliwiające zapisanie 80 minut w trybie standartowym.

Digital8 – używa tego samego kodeka DV co MiniDV i DVDCAM, a różnica polega na rozmiarze taśmy. Kamery wideo Digital8 umożliwiają nagrywanie na standartowych taśmach 8 mm lub na taśmach Hi-8 mm (jakość w obu przypadkach jest taka sama). Firma Sony wypuściła na rynek taśmę Digital8, ale jest to po prostu taśma Hi-8 o zmienionej nazwie.

MicroMV – jest najnowszym formatem opracowanym przez firmę Sony, przeznaczonym dla szerokiego kręgu odbiorców. Podobna ma zastąpić format Digital8, ale na razie są to tylko spekulacje. MicroMV jest formatem wykorzystującym taśmę jako nośnik i korzystającym z kodeka MPEG-2. Taśma jest dwa razy mniejsza niż w przypadku MiniDV, dzięki czemu również kamery mogą być jeszcze mniejsze. Firma Sony utrzymuje, że zastosowanie kodeka MPEG-2 umożliwia uzyskanie jakości porównywalnej z jakością, jaką zapewnia kodek DV (do 500 linii rozdzielczości). W związku z tym, że MPEG-2 jest bardziej wydajnym kodekiem, rozmiary plików są mniejsze o 50% lub nawet więcej.

DVCAM – taśmy MiniDV w standartowym trybie rejestracji używają ścieżek 10-cio mikronowych, a w trybie longplay – ścieżek szerokości 6,7 mikrona. Format DVCAM korzysta z tego samego kodeka (zatem potencjalnie jakość obrazu jest taka sama) i taśmy o tym samym rozmiarze, ale w standardowym trybie rejestracji używa ścieżek 15-mikronowych. Dzięki temu jest to format bardziej trwały (mniejsze zagrożenie powstawaniem luk na taśmie), o mniejszej pojemności w zakresie rejestracji. DVCAM został opracowany przez firmę Sony, jako bardziej profesjonalna alternatywa dla MiniDV.

DVDCPRO – format DVCPRO. opracowany przez firmę Panasonic, jest wykorzystywany w urządzeniach w pełni profesjonalnych. W formacie tym używany jest kodek DV. Taśmy używane w DVCPRO są większe od taśm DV i taśm Digital8. Na taśmach DVCPRO zastosowano 18-mikronowe ścieżki zapisu oraz dwie oddzielne ścieżki przeznaczone dla dźwięku i kontroli taśmy, dzięki czemu jest to najsolidniejszy format. Jest on zazwyczaj używany w zastosowaniach profesjonalnych. Głównym konkurentem formatu DVCPRO jest DVCAM firmy Sony.

Digital Betacam – firma Sony wprowadziła ten format w 1993 roku w celu zastąpienia bardo popularnego formatu Betacam SP, który był wówczas dominującym formatem w świecie profesjonalnego wideo. Stopień kompresji wynosi 2:1, a materiał jest rejestrowany na taśmach o szerokości pół cala. Digital Betacam jest obecnie standardowym formatem używanym w przemyśle telewizyjnym.

Prócz wymienionych opracowuje się oczywiście wciąż nowe formaty zapisu wideo do zastosowań profesjonalnych. Wśród nich można wyróżnić – wykorzystujące najnowszą technologię i nowe algorytmy kodowania – Digital-S i DVCPRO 50. W przyszłości będą one konkurować z formatem Digital Betacam na rynku profesjonalnego sprzętu najwyższej klasy. [66]

Natomiast należy być również przygotowanym na wkraczanie technologii pozwalających na zapisywanie wideo na twardym dysku. Są one na bieżąco opracowywane i testowane. Na razie mają jeszcze wiele słabych punktów, ale zyski ekonomiczne i czasowe, które przyniesie korzystanie z nich, warunkują proces ich doskonalenia.

Chociaż taśma wideo przetrwa jeszcze wiele lat, przejście na zapis na nieliniowym nośniku jest nieuchronne. Obecnie chodzi o twarde dyski, w przyszłości może o jakiś inny, pozbawiony części mechanicznych rodzaj pamięci cyfrowej. [67]

 2. Cyfrowe kanały dystrybucji filmów

Obecnie nadal najbardziej popularnym kanałem dystrybucji komercyjnej filmów jest kino. Ono generuje największe przychody, które napędzają produkcję filmową.

A jednak z perspektywy producenta i dystrybutora filmu dużym obciążeniem jest zwykle marża na cenę biletu. Faktyczny przychód producenta filmu to średnio 20-30% z całkowitych wpływów ze sprzedaży biletów w kinie. Zasady dystrybucji opartej na kinach dyktowane są głównie przez politykę dystrybutorów i właścicieli kin.

Widz jako jednostka – było nie było , do niego kierowany jest seans filmowy – nie ma praktycznie żadnego wpływu na dobór repertuaru przez kina. Jest on ustalany przez producentów i dystrybutorów, a wdrażany poprzez intensywne kampanie reklamowe, które służyć mają wytworzeniu w widzach chęci „skonsumowania” filmu. Po pewnym czasie jednak przeciętny widz traci zainteresowanie filmem (mowa tu a zainteresowaniu wywołanym skuteczną kampanią reklamową) i chęć zobaczenia filmu w kinie, co łączy się oczywiście z wydawaniem pieniędzy na bilet.

Można prognozować, że system dystrybucji filmów za pomocą sieci kin nie ma na dłuższą metę większych perspektyw, jeśli chodzi o generowanie optymalnych przychodów. Tutaj raczej będzie potrzebna tzw. „przewaga skali”, czyli uzyskanie większej ilości wpływów od szerszej publiczności, wnoszącej mniejszą (w stosunku do obecnych) opłatę za „użytkowania filmu”.

Jednym z rozwiązań mogą być alternatywne kanały dystrybucji, które dałyby możliwość dostarczenia filmu maksymalnej liczbie widzów za odpowiednią opłatą w okresie jego największej popularności.

„Cyfrowość” przekazu filmowego umożliwi zastosowanie w niedługim czasie bardzo wydajnych rozwiązań, które już teraz zaczynają tworzyć kolejny rynek zbytu nie tylko filmów, ale także innych rodzajów cyfrowej rozrywki, jak gry interaktywne, czy cyfrowe „programy na zamówienie”. [68]

Pomijając dywagacje na temat prawdopodobnego już niedługo procesu integrowania się telewizji, internetu i pozostałych mediów w jedną – rozpowszechnianą za pomocą sieci interaktywnej – całość, tworzącą jakość nowoczesnego i uniwersalnego medium, poniżej scharakteryzuję najbardziej aktualnie powszechne „alternatywne” kanały dystrybucji filmów.

2.1  Archiwizacja i odtwarzanie na dyskach optycznych – CD i DVD

CD

Technika współcześnie stosowanych płyt kompaktowych CD (ang. Compact Disc) powstała w połowie lat siedemdziesiątych. W roku 1982 wprowadziła na rynek fonograficzny pierwsze dyski audio CD, które zaledwie w ciągu kilku lat doprowadziły do prawie całkowitego wycofania analogowych płyt winylowych. Burzliwy rozwój rynku komputerowego sprawił, że kompakt-dyski zaadaptowano dla potrzeb przechowywania danych innych niż muzyka. I tak powstały nośniki cyfrowe znane pod wspólną nazwą (ang. Compact Disc Digital Data) , czyli dyski kompaktowe do zapisu danych cyfrowych. Jako pierwsze w roku 1985 wprowadzono na rynek CD-ROM (ang. Read Only Memory), z których można było jedynie odczytywać dane, w roku 1991 pojawił się CD-R, (Recordable), czyli dyski z możliwością jednokrotnego zapisu, a w roku 1996 CD-RW (ang. Re -Writable), które umożliwiają wielokrotny zapis danych na jednej płycie.

Najczęściej spotykane dyski mają średnicę 5,25″, czyli 12 cm i wykonane są z kilku warstw, z których najważniejsza to milimetrowej grubości krążek z włókna poliwęglanowego. Krążek poliwęglanowy pokryty jest warstewką aluminium, ta z kolei lakierem ochronnym, na którym znajduje się zazwyczaj nadruk informacyjny. Dane zapisane są na płycie w postaci „dołków” (tzw. pit) i płaskiej powierzchni między nimi (land), co jest odpowiednikiem cyfrowych „1” i „0”.

W przeciwieństwie do dysków magnetycznych (stosowanych w napędach stałych-komputerowych, czy dyskietkach), na których bity znajdują się na kilkudziesięciu lub kilkuset tysiącach „ścieżek”, na dysku CD jest tylko jedna spiralna „ścieżka” o długości ponad 5 km. Umożliwia to większe upakowanie bitów, ale przez to zwalnia czas dostępu – dyski CD są wolniejsze od magnetycznych dysków twardych.

Odczyt z dysków odbywa się techniką optyczną, za pomocą promienia wiązki lasera. Na specjalnej, ruchomej podstawce poruszającej się po szynach zainstalowana jest mała odczytująca głowica laserowa. Emitowany z niej promień lasera odbija się od powierzchni aluminium i trafia do elementu światłoczułego, aby przekształcić się ostatecznie na impuls elektryczny.

Największa zaleta CD to jego standaryzacja. „Cyfrowość” tęczowych płyt sprawiła, że stały się one powszechnym medium służącym do zapisu muzyki, gier, ruchomych obrazów oraz danych komputerowych. W porównaniu z innymi nośnikami mają one niemal same zalety: są nieduże, odporne na uszkodzenia, wpływ pola magnetycznego i zapewniają natychmiastowy dostęp do zapisanych danych. Obecnie niemal każdy komputer ma napęd CD, który potrafi czytać zarówno płyty CD-ROM, CD-R, CD-RW, a także zwykłe płyty CD audio.

Jednak najbliższa przyszłość nie należy bynajmniej do technologii CD. Główną jej wadą jest zbyt mała pojemność w stosunku do potrzeb, szczególnie przechowywania dużych aplikacji z cyfrowym dźwiękiem i obrazem, np. filmów.

Istnieje co prawda format Video CD, ale umożliwia jedynie przechowywanie maksymalnie 72 minut średniej jakości obrazów wideo. CD powoli ustępuje miejsca swojemu młodszemu bratu – DVD. [69]

DVD

W połowie roku 1996 przemysł filmowy i wytwórcy komputerów zaakceptowali ostatecznie standard płyty cyfrowej o dużej gęstości zapisu nazwanego DVD (ang. Digital Versatile Disc), czyli Uniwersalny Dysk Cyfrowy. DVD ma zastąpić płyty kompaktowe, wszystkie typy dysków do zapisu danych, a nawet wyprzeć w końcu przestarzałe kasety wideo, ponieważ technika ta umożliwia zapis filmów w dużo wyższej jakości niż obecnie stosowane formaty wideo.

Dyski DVD są wielkości CD, mają 12 cm średnicy i 1,5 mm grubości. Są zapisywane dwustronnie , w dwu warstwach po każdej stronie płyty. Daje to w sumie cztery warstwy przechowujące dane, które odczytywane są wiązką światła. Dało to w sumie ogromne, jak na dzisiejsze czasy, możliwości: najprostszy (jednowarstwowy) dysk DVD, tzw. DVD5 pozwala na zapis 4 700 MB, czyli 4,7 GB danych, co jest równoważne ponad siedmiu płytom CD-ROM. Umożliwia to nagranie filmu o długości 133 minut w standardzie kodowania MPEG2 z wielokanałowym dźwiękiem przestrzennym, ośmioma dodatkowymi ścieżkami dźwiękowymi (np. do dubbingu) oraz miejscem na napisy dialogowe w 32 językach. Poza tym jest jeszcze trochę wolnej przestrzeni na dodatkowe dane, np. szczegółowe biografie autorów filmu przedstawione w postaci interaktywnej bazy danych z możliwością odwołań do stron znajdujących się w sieci Internet.

Kolejne, gotowe już standardy umożliwiają:

  • DVD9 – pojemność 8,5 GB danych – zapis dwuwarstwowy, jednostronny;
  • DVD10 – pojemność 9,4 GB – zapis jednowarstwowy, dwustronny;
  • DVD18 – pojemność 17 GB – zapis dwuwarstwowy, dwustronny.

Dzisiejsze odtwarzacze DVD poza płytami DVD mogą bez problemu odtwarzać popularne płyty kompaktowe i pamięci CD. Potrafią współpracować z każdym systemem TV (np. PAL, NTSC,SECAM) w dowolnym formacie ekranu. Bez dodatkowych przeróbek można je podłączyć zarówno do monitora komputerowego jak i zwykłego telewizora, czy też zestawu audio.

Jakość dźwięku i wizji zapewniana przez DVD – choć daleko mu do taśmy 35mm – jest bez porównania lepsza niż w standardzie VHS. DVD może wyświetlać 525 linii rozdzielczości poziomej, podczas gdy VHS tylko 240. W zakresie dźwięku DVD umożliwia korzystanie z czystego dźwięku stereo, jak również z systemu dźwiękowego 5,1 Digital Dolby lub DTS (te dwa ostatnie wymagają odpowiedniego systemu nagłośnienia). Po dobraniu odpowiednich zestawów głośnikowych jakość dźwięku z DVD może być nie gorsza niż w kinie.

Pewne zahamowanie rozwoju tej technologii wynika z tego, że mamy do czynienia z dwoma konkurencyjnymi formatami. DVD-R/RW i DVD+R/RW to dwa różne formaty DVD, promowane przez ich producentów. Oba umożliwiają odtwarzanie w większości odtwarzaczy DVD, ale zastosowane w nich rozwiązania oparte są na różnych technologiach. Na razie jest za wcześnie, żeby przewidywać, który z nich odniesie sukces; być może obydwa. [70,71]

2.2 Cyfrowe projekcje wizyjne

Tematem łączącym się z omówioną uprzednio technologią DVD jest upowszechnianie się tzw. „domowego kina” i projektorów wizyjnych.

Niewielkie rozmiary dysków DVD, a przede wszystkim możliwość zapisu filmów fabularnych w niespotykanej dotąd jakości obrazu i dźwięku. Odtwarzacze DVD zastępują przestarzałe już magnetowidy i w końcu doprowadzą do wycofania z rynku „ułomnych” kaset wideo, tak jak kiedyś płyty kompaktowe spowodowały upadek analogowych czarnych krążków.

W połączeniu z ekranem wielkoformatowym, lub rzutnikiem wizyjnym, DVD staje się , po wideo i telewizji, następną konkurencją dla kina, zatrzymującą w domach sporą część dzisiejszej publiczności kinowej. [72] Filmy nabierają nowego wyrazu dzięki jakości dostępnej do tej pory jedynie widzom najnowocześniejszych sal kinowych. Urządzeniami, które umożliwiają oglądanie zapisanych w postaci cyfrowej filmów (pomijając oczywiście monitory kineskopowe i komputerowe), są monitory plazmowe oraz projektory wizyjne.

Zasada działania monitorów plazmowych opiera się na właściwościach świetlnych gazów (tak jak np. w lampach jarzeniowych). Ekran monitora plazmowego złożony jest z mikroskopijnych komórek w kształcie szklanych baniek wypełnionych rozrzedzonym, zjonizowanym gazem (najczęściej ksenonem). Bańki rozmieszczone są w odległości od kilkuset do kilkudziesięciu mikronów od siebie i mają wbudowane dwie małe elektrody umieszczone u góry oraz na dole każdej komórki. Każda taka komórka odpowiada jednemu punktowi na ekranie. Aby uzyskać kolor komórki wypełnione są barwnym luminoforem. Trzy sąsiednie bańki tworzą jeden kolorowy piksel. Kiedy do elektrod przyłożone zostanie napięcie, powstaje wyładowanie elektryczne powodujące emitowanie przez gaz promieniowania ultrafioletowego. Promieniowanie pobudza do świecenia luminofor znajdujący się na spodzie każdej komórki.

Technologia wytwarzania ekranów plazmowych jest bardzo zaawansowana i daje rewelacyjne perspektywy. Monitory plazmowe mogą mieć prawie nie ograniczoną wielkość ekranu przy niezwykle małej grubości (zaledwie kilka centymetrów). Pozwala to oczywiście na dużą swobodę manewrowania takim ekranem.

Poza tym istnieją już ekrany, łączące cechy LCD i plazmowych, które nawzajem uzupełniają braki obu technologii dając dobrej jakości obraz na płaskiej, bardzo dużej powierzchni, np. technologia ciekłokrystalicznego adresowania plazmowego PALC (ang. Plasma Addressed Liquid Crystal) lub polimerów luminescencyjnych LEP (ang. Light Emitting Polymers). [73,74]

Stosunkowo tańszą – jak na razie – niż monitory plazmowe technologią umożliwiającą oglądanie w „dużym formacie”, jest wykorzystanie projektorów wizyjnych. Generalnie można je podzielić na projektory CRT, LCD i DLP.

Projektory CRT

Działanie projektorów CRT jest oparte na technologii analogowej. Zastosowano w nich rozwiązanie znane z wielkich telewizorów projekcyjnych (stosowane również w standardowych telewizorach). Ich cechą charakterystyczną jest to, że rzutują obraz z trzech niezależnych reflektorów – zielonego, niebieskiego i czerwonego. Oferują wysoką jakość, ale są urządzeniami o bardzo dużych rozmiarach. Główną zaletą projektorów CRT jest możliwość prawidłowego wyświetlania ciemnych barw – w obrazie z innych projektorów czerń zawsze wygląda jak kolor ciemnoszary; ich z kolei największym ograniczeniem – w kwestii wyświetlanego obrazu – jest niski poziom jasności.

Projektory LCD

W projektorach LCD (z wyświetlaczem ciekłokrystalicznym) wykorzystano technologię stosowaną w tzw. płaskich monitorach komputerowych. Jednak w tym przypadku wyświetlacz ciekłokrystaliczny jest dużo mniejszy i obraz w pełnej rozdzielczości jest rzutowany na ekran przy użyciu bardzo jasnej lampy i powiększających elementów optycznych. Projektory te charakteryzuje wysoka jakość, niska waga i atrakcyjna cena – są to najtańsze projektory.

Projektory LCD doskonale się sprawdzają w prezentacjach handlowych, gdyż świetnie prezentują wykresy i tekst, ale nie nadają się do wyświetlania filmów. Przy projekcji filmu na ekranie można zaobserwować puste miejsca między pikselami – wygląda to tak, jakby obraz był oglądany przez siatkę.

Główną zaletą projektorów LCD jest to, że stosuje się w nich trzy przetworniki LCD, z których każdy – podobnie jak w przypadku kamer z trzema przetwornikami – obsługuje oddzielny kolor. Systemy z trzema przetwornikami zapewniają zazwyczaj wierniejsze odtworzenie kolorów i lepszą rozdzielczość niż systemy z jednym przetwornikiem.

Projekcja DLP

Technologia projekcji DLP została opracowana przez firmę Texas Instruments i jest najnowszym i zarazem najbardziej obiecującym rozwiązaniem. Skrót DLP oznacza cyfrową obróbkę światła (ang. digital light processing). W projektorze zastosowano specjalny mikroprocesor DMD (ang. digital Micromirror Device – cyfrowy sterownik mikroluster), a układ DLP składa się z setek tysięcy mikroskopijnych luster (jedno na każdy piksel), sterowanych impulsami elektrycznymi. Każde z tych luster, po odpowiednim ustawieniu, powoduje wyświetlenie odpowiedniego koloru.

Obraz w projektorach DLP jest tworzony przez światło odbite, co dobrze wpływa na jakość kolorów, ale źle na jakość czerni. Na razie wadą ich jest – podobnie zresztą jak w przypadku omówionych wcześniej projektorów LCD – jest niska trwałość lampy. Modele DLP charakteryzują się większą naturalnością barw i płynnością obrazu niż modele LCD, które z kolei mają niewielką przewagę, jeśli chodzi o kontrast. Jest to bardzo obiecująca, stosunkowo nowa technologia, która zaczyna dominować rynek ultralekkich urządzeń. [75]

2.3  Odtwarzanie  za pośrednictwem komputera i internetu

Odtwarzanie poprzez komputer danych audiowizualnych, będących zasobami sieci – intranetowej lub internetowej – to tak zwana technologia „mediów strumieniowych”. Określenie „media strumieniowe” [76] należy do terminologii komputerowej i dotyczy takiego rodzaju danych multimedialnych, których transmisja odbywa się w ramach globalnej sieci (w tym internetu). [77]

W tym przypadku pod pojęciem danych multimedialnych rozumie się  muzykę i obraz (czyli filmy), które zostały poddane konwersji z zapisu analogowego na cyfrowy , bądź też od podstaw są przygotowane w tej technologii. [78]

Mogą one być przesyłane w czasie rzeczywistym (odpowiednik tradycyjnej telewizji czy też radia), albo też odgrywane „na żądanie” (sytuując się na pograniczu pomiędzy korzystaniem z wideo i zachodnich systemów typu pay-per-view  lub video-on-demand, w których zamawia się , a następnie płaci za wyemitowany program lub film).

Według terminologii komputerowej i w ścisłym znaczeniu tego słowa „media strumieniowe” odnoszą się tylko i wyłącznie do tych danych multimedialnych, które są nadawane na żywo jako transmisja, czy też retransmitowane – czyli „przekazywane na życzenie”. Natomiast wszystko to, co w całości zostanie zapisane na nośniku typu DVD czy CD-ROM, jest określane mianem „multimediów”. Można posłużyć się jednak pewnym uproszczeniem i mówiąc o mediach strumieniowych pod tym hasłem zawrzeć także opisy, które według powyższej definicji powinny być zaliczane właśnie do „multimediów”. Syntezę taką uzasadnić można tym, iż na obecnym stadium rozwoju każde dane „multimedialne”, po krótszej lub dłuższej konwersji, mogą przyjąć formę strumienia danych, nie pozostając tylko statyczną zawartością nośnika.

Prędkość transmisji w pierwszych latach istnienia sieci wynosiła zaledwie 30 bajtów na sekundę; nikt wtedy nie przypuszczał, że zaledwie kilkanaście lat później możliwe będzie przesyłanie dźwięku i ruchomych obrazów w ten sposób. Obecnie – dzięki – zastosowaniu nowocześniejszych sposobów przesyłania danych – jak światłowód i łącza radiowe, można domniemywać, że „przepustowość” sieci teleinformatycznej w niedługim czasie nic już nie będzie ograniczać.

Główną cechą transmisji za pomocą sieci komputerowej, w przeciwieństwie do innych obecnych mediów, jest jej dwukierunkowy charakter. Między nadawcą i odbiorcą istnieje ścisła współzależność. Wyróżnikiem internetowego przekazu jest właśnie „interaktywność”, czyli wzajemne oddziaływanie twórcy i adresata. Pozwala to do głównego przekazu dołączyć wiele dodatkowych informacji, które są łatwo dostępne dla odbiorcy po wyborze odpowiedniej opcji.

Internet to także „nielinearność” przekazu. W sieci odbiorca może decydować co i kiedy chce zobaczyć, wybierając  własną drogę do informacji. Sieć komputerowa to także „cyfrowość”, czyli doskonała jakość; każda wysłana przez nadawcę kopia jest identyczna z oryginałem i przy każdym odtworzeniu nie niszczy się, jak inne tradycyjne metody zapisu informacji. Wszystko to stwarza niespotykane dotychczas, jeśli chodzi o wszechstronność zastosowań, nowe medium.

Jest już standardem korzystanie z internetowego radia i wykorzystywanie w budowie stron internetowych elementów multimedialnych, umożliwiających obejrzenie i słuchanie „online” materiałów audiowizualnych.

Realizuje się też koncepcje „wypożyczalni” sieciowych,   komercyjnych bądź edukacyjnych, umożliwiających obejrzenie, lub ściągnięcie na własny komputer udostępnianego zasobu, jakim może być np. film.

Idea ogólnoświatowej sieci komputerowej zmienia podejście również do najpotężniejszego mass-medium, jakim jest telewizja. Nadawana w standardzie cyfrowym, łatwo może być dystrybuowana poprzez internet.

Współczesna sieć telewizyjna to stacja nadawcza i wielu identycznych odbiorców, którzy odbierają sygnał – w procesie jednostronnego przekazu.

To podejście radykalnie zmienia telewizja cyfrowa – informacja przesyłana siecią komputerową jest prawie całkowitym przeciwieństwem tradycyjnego przekazu telewizyjnego. Sieć to jakby szachownica różnych współzależności, gdzie każdy może być równocześnie źródłem i odbiorcą informacji.

„Interaktywna telewizja”, dostosowana idealnie do skrajnie zróżnicowanych potrzeb odbiorcy swą elastyczną ofertą zatrzyma w domach część spośród dzisiejszych kinomanów, którzy z nowościami zapoznawać będą się w zaciszu domowym, bez konieczności kupowania biletów, co najwyżej za opłatą abonamentową, lub „pay per view”. [79]

Jakość emisji uzyskanej za pomocą sieci uzależniona jest od używanego oprogramowania i sprzętu oraz szybkości połączenia. Obecne rozwiązania techniczne oraz klasa komputerów, które posiada większość użytkowników internetu pozwala na satysfakcjonujący odbiór programów nadawanych przez stacje radiowe , jak i telewizyjne. Główną barierą jest jak na razie mała szybkość przesyłania danych, jednak ciągłe prace nad tą kwestią oraz tzw. otwarta architektura sieci pozwalają modernizować i udoskonalać technologie internetowe w bardzo szybkim tempie. [80]

Można stwierdzić, że o ile w dzisiejszej postaci sieć komputerowa nie jest jeszcze gotowym nośnikiem dla nowego, interaktywnego medium, to ogromny wachlarz jej możliwości oraz tendencja do przechodzenia na „cyfrowość” współczesnych środków masowego przekazu powoduje, że już w najbliższej przyszłości sieć stać się może polem największej aktywności dla różnorakich działań medialnych, a tym samym dominującym wśród mas-mediów.

Osobną kwestią jest funkcjonujący niejako „w drugim obiegu” (pomiędzy użytkownikami komputerów, poza komercyjnymi i legalnymi inicjatywami) rynek obrotu plikami multimedialnymi . Jest on niewyobrażalnie duży.

Będące poza legalnym (opodatkowanym i rozliczonym) obrotem kopie filmów, utworów muzycznych i najróżniejszych form audiowizualnych tworzą rynek dóbr ogólnie dostępnych wszystkim użytkownikom komputera i sieci komputerowych. Rynek ten rośnie w postępie geometrycznym, dowolny utwór zamieniony na postać cyfrową z racji swojej formuły multiplikuje się z łatwością wirusa komputerowego. Można powiedzieć że jeśli plik multimedialny trafił do jednego komputera podłączonego do sieci, która korzysta z połączenia internetowego i można go – plik –  powielić (a najczęściej jest to możliwe), wtedy błyskawicznie staje się on „dobrem wspólnym”, dostępnym w nielimitowanej podaży. Jeżeli oczywiście wystąpi na niego popyt.

2.4  Emisja TV w systemie cyfrowym

Obecnie dominującym systemem rozprowadzającym programy telewizyjne jest system telewizji analogowej, przekazywaną drogą naziemną, satelitarną lub kablową. Naziemny analogowy system rozprowadzania stanie się jednak zanikającym medium transmisyjnym, głównie z powodu ograniczonej liczby programów jaką może zaoferować widzom.

Podstawową różnicą pomiędzy telewizją analogową a cyfrową jest fakt, że „ucyfrowienie” sygnału telewizyjnego zwiększa przepustowość technologii transmisyjnej – pozwalając tym samym nadawcom korzystać z większej ilości kanałów telewizyjnych. [81]

Jednak podobnie jak w przypadku operatorów telefonicznych, dostawcy telewizji kablowej czy satelitarnej muszą najpierw uaktualnić swoje systemy i sieci do nadawania audycji DTV ( ang. digital tv ) – co wymaga dużych nakładów finansowych oraz konsekwentnej realizacji długofalowych planów. Warto jednak ponosić koszty, bowiem oprócz zwiększenia ilości kanałów nadawania i liczby odbiorców, „ucyfrowienie” sygnału telewizyjnego pozwoli operatorom oferować telewizję wysokiej rozdzielczości HDTV (ang. High Definition TV ) z dźwiękiem jakości płyty CD i panoramicznym ekranem oraz audycje telewizji interaktywnej.

Obecnie istnieją trzy podstawowe platformy cyfrowe, które będą w przyszłych latach walczyć o konsumentów: cyfrowa telewizja kablowa, cyfrowe systemy satelitarne (DBS lub DTH) oraz cyfrowe nadajniki naziemne (DTT). Czwartym konkurentem jest technologia Digital Subscriber Line (DSL), która trafiła już na kilka światowych rynków. [82]

Każda z technologii posiada swoje plusy i minusy oraz każda z nich ma szansę odnieść sukces na różnych światowych rynkach. Podstawową przewagą cyfrowego kabla i DSL nad systemami satelitarnymi i naziemnymi jest bardzo szybki kanał zwrotny (return path) , który umożliwia równoczesne oferowanie usług telefonicznych, dostępu do danych sieciowych i filmów wideo, za pomocą jednego łącza.

Technologie te pozwalają także oferować usługi telewizji interaktywnej takie jak np. dostarczania filmów na życzenie (video-on-demand) czy gry przeznaczone dla tzw. platformy „multiplayer”.

Wadą telewizji kablowej i łącz DSL jest jednak długi i kosztowny okres budowania takich sieci, a oprócz tego nie wiadomo jaki efekt przyniesie potencjalna przemiana firm telekomunikacyjnych w nadawców telewizyjnych i czy będzie to korzystne dla odbiorców cyfrowej zawartości.

Zaletą systemów satelitarnych jest fakt, że praktycznie każdy odbiornik  z dostępem do sygnału satelitarnego może odbierać sygnały takiej telewizji, a większość satelitarnych programów jest już cyfrowa. Podstawową wadą takich rozwiązań jest jednak konieczność zakupu satelitarnej anteny i precyzyjnego jej ustawienia. Platforma ta nie zapewnia także szybkiego kanału zwrotnego, co ogranicza potencjalne możliwości nadawania serwisów interaktywnych.

Bezsprzeczną zaletą systemów opierających się na nadajnikach naziemnych jest fakt, że widz korzystający z tradycyjnej telewizji zmuszony jest jedynie do zakupu taniej przystawki (tzw. set-top box), która pozwala mu odbierać wielokanałową telewizję interaktywną. Podobnie jednak jak w przypadku rozwiązań satelitarnych, wadą tej technologii jest brak szybkiego kanału zwrotnego i konieczność wykorzystywania przez użytkownika do tego celu istniejących linii telefonicznych.

Oprócz lepszej jakości obrazu i większej ilości kanałów, cyfrowa telewizja jest w stanie oferować rozbudowane opcje interaktywne, włącznie np. z wysyłaniem precyzyjnie spersonalizowanych reklam czy plików multimedialnych.

Oczywiście wiele programów telewizji cyfrowej jest i będzie kodowanych , by za możliwość dostępu do ich treści ściągać od telewidzów opłaty . Dzięki przesyłaniu w jednym kanale wielu konkurencyjnych programów ograniczy to zyski jaki będzie przynosić telewizja z emisji i tworzenia poszczególnego programu . Dochody jakie będą możliwe do uzyskania z reklam także ulegną ograniczeniu .

Będą musiały pojawić się nowe warianty wykorzystania kanałów TV , jak np.:

  • pay-per-chanel – opłata za kanał,
  • pay-per-view – opłata za oglądanie konkretnego programu lub filmu,
  • teleshoping – oferty sklepów wysyłkowych przedstawiające swoje artykuły za pomocą telewizji,
  • telecoaching – opłata za kanały oferujące programy edukacyjne, lub kursy. [83]

Aby w cyfrowym systemie transmisji telewizyjnej zmieścić jak najwięcej sygnałów, bez utraty ich jakości, stosuje się różne typy kompresji. Sygnały wizyjne koduje się obecnie według systemu kompresji MPEG-2, a sygnały foniczne według systemu MPEG Layer II (MUSICAM), lecz równocześnie opracowuje się nowe, bardziej efektywne standardy.

W celu unifikacji cyfrowego odbiornika telewizyjnego podejmowane są obecnie inicjatywy mające na celu stworzenie systemów transmisyjnych dla telewizji satelitarnej, kablowej i naziemnej opartych na wspólnych podstawach i tworzących wspólną całość.

2.4.1  HDTV

Omawiając telewizję nadawaną w standardzie cyfrowym, nie sposób nie omówić wielokrotnie nagłaśnianego projektu  HDTV. Jego pomysł jest w zasadzie prosty – opiera się na lepszej jakości obrazu – stąd zresztą właściwa nazwa systemu , opracowanego przez ekspertów NHK (Japan Broadcasting Corporation), czyli High Vision ( z ang. wysoka jakość ). [84]

High Definition Television (HDTV) to standard telewizyjny, który miał całkowicie wyprzeć inne, stare standardy. Wielu twórców entuzjazmowało się tą techniką, przepowiadając rychły koniec taśmy światłoczułej oraz tradycyjnych technik wideo, dziś jednak, z perspektywy kilkunastu lat widać, że teoria ta – dotychczas – nie sprawdziła się.

HDTV różni się od aktualnej, analogowej telewizji pod trzema względami:

  • nadawanie w HDTV odbywa się z wykorzystaniem technologii cyfrowej,
  • HDTV ma większy współczynnik szerokości do wysokości obrazu niż aktualnie wykorzystywana technologia telewizyjna (16:9 zamiast4:3, albo inaczej – szeroki ekran zamiast prawie kwadratowego),
  • system HDTV cechuje czterokrotnie wyższa rozdzielczość. [85]

Upowszechniony obecnie pomiędzy różnymi krajami i producentami sprzętu standard produkcyjny dla Hi-Vision wynosi 1225 linii rozdzielczości i format obrazu 16:9.

Pomimo podejmowania starań upowszechnienia tego standardu, w technologii HDTV regularnie nadawane są programy TV tylko w Japonii i w USA. Wynika to w dużej mierze z wyższych kosztów zakupu urządzeń służących do produkcji (kamer, obiektywów, systemów montażowych, monitorów, oraz odbiorników telewizyjnych), a także panujące powszechnie przekonanie „konsumentów TV” o tym, że jakość oferowana przez standardowe odbiorniki jest wystarczająca.

Badania nad HDTV przyniosły opracowanie systemu High Definition, systemu nowoczesnego zapisu obrazu w jakości mogącej konkurować z rejestracją na taśmie światłoczułej.

Kamera HD może rejestrować obraz z różną prędkością – od kilku do kilkudziesięciu klatek na sekundę. Drugim istotnym elementem w kamerze HD jest możliwość rejestracji z przeplotem [86] (tj. międzyliniowo) i bez (tj. progresywnie). Oznacza to, że istnieje możliwość rejestracji obrazu jako pełnej ramki bez przeplotu – tak samo jak na taśmie światłoczułej. [87]

Materiały rejestrowane na taśmie HDCAM posiadają parametry techniczne porównywalne z wysokiej klasy negatywem [88], a przy tym ich obróbka ( oraz cena nośnika ) posiada wszystkie atuty standardów cyfrowych.

Dokładność odwzorowywania rzeczywistości przez kamerę HD wymaga – nieco paradoksalnie – większej dbałości o prawidłowe oświetlenie planu zdjęciowego, aby zarejestrowany obraz ustrzec przed nienaturalnością.

Technologia zdjęciowa High Definition otwiera zupełnie nowe, ogromne możliwości – zarówno kreacyjne, jak i produkcyjne. Skrócenie czasu realizacji filmu i zmniejszenie kosztów jego produkcji to główne jej przewagi w odniesieniu do tradycyjnego filmowania na taśmie światłoczułej.

W postprodukcji można wykorzystać jeszcze jedną z przewag technologii cyfrowej nad tradycyjną: możliwość regulacji nasycenia każdej barwy z osobna, bez wpływania na inne barwy. To samo dotyczy regulacji jasności i kontrastu poszczególnych partii obrazu.

Wiele i od dawna mówi się o wprowadzeniu standardu HDTV i pozyskaniu dla tej idei ostatecznego odbiorcy. Prognozuje się kolejne daty, kiedy to w użytku będą już monitory wyświetlające obraz w jakości HD, a cena ich będzie dostępna. Do sprzedaży wejdą odtwarzacze filmów, kręconych w HD, archiwizowanych np. na DVD… Wszyscy wiedzą, że tak będzie, ale kiedy?

Otóż  krótko przedstawiając jeden z możliwych scenariuszy: będzie to w sytuacji, kiedy jakość obrazu telewizyjnego transmitowanego przez telewizję będzie o wiele gorsza od obrazu zapisanego na powszechnie dostępnych nośnikach, odtwarzanych na równie upowszechnionych urządzeniach. Takiego porównania będzie mógł dokonać już niedługo w warunkach domowych każdy widz. I stąd właśnie ma przyjść „impuls”, który spowoduje wejście w życie standardu zapisu w jakości High Definition. [89]

2.5  Projekcje cyfrowe na ekranach kin

Obecnie jedną z najważniejszych kwestii stawianych w kręgach twórców cyfrowej technologii wideo jest pytanie, kiedy cyfrowy zapis wideo zastąpi zapis na taśmie filmowej.

Kiedy George Lucas nakręcił swój nowy film „Gwiezdne wojny: część II – Atak klonów” przy użyciu cyfrowej kamery wysokiej rozdzielczości (Sony HDW-F900), wydawało się , że nastąpi to niebawem. Jednak aby film Lucasa mógł być wyświetlany w projektorach kinowych, musiał zostać przeniesiony na taśmę filmową, gdyż jest to jak na razie powszechny standard projekcji. W przyszłości jednak w kinach będziemy oglądać filmy wyświetlane za pomocą projektora cyfrowego. [90]

Telekomunikacja i informatyka doprowadzą wkrótce do jednego z największych przełomów w stuletniej historii kina; w salach projekcyjnych nie będzie już często psujących się projektorów taśmy filmowej, a zastąpi je odpowiedni „hardware”.

Znani światowi producenci urządzeń audiowizualnych – na co dzień konkurenci – zawierają szereg porozumień z myślą o zaoferowaniu przemysłowi filmowemu cyfrowej alternatywy dla tradycyjnej techniki filmowej.

Kino jest w zasadzie ostatnim z wielkich mediów, które opiera się technice cyfrowej; jest cyfrowa telewizja, telefonia, fotografia, a kino nadal posługuje się techniką analogową, celuloidową taśmą filmową i optycznymi projektorami. Zapewniają one bardzo dobrą jakość obrazu, ale to właściwie wszystkie zalety tej techniki. [91]

Na technologię cyfrowego kina składają się: produkcja filmów w technice cyfrowej (lub konwersja na ten format), dystrybucja za pośrednictwem specjalnej infrastruktury, oraz projekcje w kinach wyposażonych w odpowiedni sprzęt.

O ile produkcja i postprodukcja filmów jest już na etapie praktycznego i coraz głębszego upowszechniania się nowej technologii, to ten ostatni element jest ciągle największą przeszkodą na drodze do „kina przyszłości”; główną tego przyczyną są ogromne koszta zestawów do projekcji cyfrowych. Tak więc, aby uzyskać oszczędności, należy najpierw wydać pieniądze na wyposażenie kin. [92]

Do rozwoju tego rynku przyczyniać będą się na pewno w dużej mierze pierwsze, realizowane całkowicie cyfrowo wielkie superprodukcje, które – zdaniem producentów – prezentując bardzo wysoką jakość przekonają publiczność do nowej technologii. [93]

Wprowadzenie do kin techniki cyfrowej pozwoliłoby natychmiast na radykalne zmniejszenie kosztów dystrybucji filmów. Mogłyby one być wtedy przekazywane do kin sieciami telekomunikacyjnymi – np. poprzez pasma światłowodowe, lub łącza satelitarne. Nowa technologia transmisji umożliwiać będzie transfer dużych ilości danych w czasie rzeczywistym do wielu kin jednocześnie, dokonywanie natychmiastowych zmian w programie i oferowanie usług, które zmienią oblicze tradycyjnego kina. Mogą być to – oferowane w nowoczesnych centrach rozrywki „multimedialnej” – usługi takie jak: najbardziej różnorodne transmisje „na żywo”, wideokonferencje dla świata polityki i biznesu, czy szkolenia na odległość.


Przypisy do rozdziału:

[60] Op.cit (Intermedium) str. 84-85
[61] op.cit. (Tworzenie cyfrowego wideo), str. 32
[62] op.cit. (Intermedium) , str. 85
[63] ibibdem, str. 88-89
[64] op.cit (Tworzenie cyfrowego…), str.28-31
[65] op.cit (Technologia cyfrowego wideo) str. 32-33
[66] ibidem, str.34-35
[67] Kopyś T. Videonics FireStore  Film&TVKamera , nr 2 , 2002, str. 54
[68] op.cit. (Intermedium) str. 146
[69] Leśniorowski P., Brol J. , Tęczowe megabajby – napędy CD-ROM i DVD-ROM CHIP. Magazyn komputerowy 1999, nr 10, str. 80-98
[70] op.cit. (Tworzenie cyfrowego…) str. 39-40
[71] op.cit. (Intermedium) str. 96-98
[72] Herman D., Morgiel G. Cyfrowy iluzjon – przegląd rozwiązań kina domowego, CHIP 1999, nr11 , str. 190-204
[73] Michalczyk J, Lampa Aladyna – technologia monitorów kineskopowych , CHIP 1999, nr 10 str.80-83
[74] Pawlak M, Monitor jutra – wyświetlacze z tworzywa sztucznego, CHIP 1999, nr 10, str.54-58
[75] op.cit. (Tworzenie cyfrowego wideo), str. 63-65
[76] Tutka P. Gdzie strumyk płynie z wolna… „CHIP. Magazyn komputerowy” 2000 nr 8, str. 136-138
[77] I. Borkowski: Internet czy internet? „CHIP. Magazyn komputerowy” 2001, nr 1 , str. 208
[78] Jaroszewicz P. Trzej królowie .”CHIP. Magazyn komputerowy” 2001, nr 1, str. 149-152
[79] op.cit. (Intermedium) str.162
[80] op.cit. (Intermedium) str. 158-159
[81] www.internetstandard.com.pl
[82] DVB-T  www.emitel.pl
[83] www.internetstandard.com.pl
[84] Bucken R. Innowacyjna maszyna  FILM&KAMERA 2002, nr 4, str. 42
[85] op.cit. (Tworzenie cyfrowego…) str.33
[86] Obraz wideo w trybie z przeplotem jest tworzony z następujących po sobie półobrazów. Zaletą trybu z przeplotem jest możliwość rejestrowania dwukrotnie większej liczby obrazów z akcją (niż w przypadku rejestrowania całych obrazów} na takiej samej przestrzenia z danymi.(op.cit. Tworzenie cyfrowego…) str.384
[87] Ługowski A. Montaż High Definition FILM&KAMERA 2002 , nr 2 str. 74
[88] Bukowiecki A. Zawsze są tylko światła i cienie – wywiad z Kszysztofem Ptakiem, http://www.film.onet.pl, data :  czerwiec 2003
[89] HD na IBC  Film&TVKamera, nr 4/2002 , str.126
[90] op.cit. (Tworzenie cyfrowego..) ,str. 37-39
[91] Zwierzchowski Z. Kino bez filmu Rzeczpospolita 23.12.1999
[92] ibidem, str. 11
[93] Ćwiklak D. Cyfrowy atak klonów. Gazeta Wyborcza 15.04.2002

 


 

Od autora:

Ta praca magisterska nie powstałaby bez wymienionych w bibliografii opracowań źródłowych, a także bez  innych pozycji, niejednokrotnie nie wymienionych tutaj z tytułu, oraz bez moich ówczesnych (oraz przyszłych jak się później okazało) wykładowców, którym niniejszym bardzo serdecznie dziękuję za wkład w jej powstanie. Szczególne podziękowanie należy się panu Krzysztofowi Frankowi, autorowi książki „Intermedium”, która stanowiła niezastąpione źródło wiedzy i inspiracji przy pisaniu tej pracy. Co zresztą widać po ilości przypisów poświęconych temu tytułowi 🙂

Bibliografia:

I. Opracowania książkowe

1. Deras F. Tworzenie cyfrowego wideo. Helion, Gliwice 2002
2. Duch W. Fascynujący świat komputerów. Nakom , Poznań 1997
3. Echrenfeucht J. : Fizyka. WSiP, Warszawa 1974
4. Foley J, van Dam A., Feiner S, Hughes J, Philips R.: Wprowadzenie do grafiki omputerowej WNT , Warszawa 1995
5. Franek K.: Intermedium ; Cyfrowa przyszłość filmu i tele-wizji . WkiŁ ,Warszawa 2000
6. Gates B.: Droga ku przyszłości. Studio Emka, Warszawa 1997
7. Leksykon techniki hi-fi i video. WKŁ Warszawa 1984
8. Lenartowicz K. , Stec B. Architektura – sztuka multime-dialna. W: Piękno w sieci. Estetyka a nowe media. Red. K. Wilkoszewska. Warszawa 1999, s. 204
9. Ostrowski W. : Kinotechnika. WAF Warszawa 1959
10. Rossano A.: Inside Softimage 3D. New Riders, USA 1998
11. Time Life: Era Komputerów. Time Life Books, Amsterdam 1994
12. Zabłocki M.: Filmujemy na video. WKŁ, Warszawa 1989

II. Czasopisma

13. Bucken R. Innowacyjna maszyna FILM&KAMERA 2002, nr 4
14. Borkowski I.: Internet czy internet? CHIP, 2001, nr 1
15. Borukało T. Hollywood na biurku – cyfrowe urządzenia wi-deo, CHIP 1999, nr 12
16. Cinefex, kwartalnik, Riverside, USA , nr 78 – czerwiec 1999
17. Ćwiklak D. Cyfrowy atak klonów.Gazeta Wyborcza 15.04.2002
18. Film&TV Kamera 2003, nr 1
19. HD na IBC Film&TVKamera 2002, nr 4
20. Herman D., Morgiel G. Cyfrowy iluzjon – przegląd rozwią-zań kina domowego, CHIP 1999, nr 11
21. Janiszewski W. Szwedzi w Warszawie. The Chimney Pot, Wideo i Komputer 2002
22. Jaroszewicz P.: Trzej królowie CHIP, 2001, nr 1
23. Leśniorowski P., Brol J. , Tęczowe megabajby – napędy CD-ROM i DVD-ROM CHIP, 1999, nr 10
24. Leśniorowski P., Zamiast kliszy – technologia cyfrowych aparatów fotograficznych CHIP, 1998 nr 10
25. Tutka P. Gdzie strumyk płynie z wolna… CHIP, 2000 nr 8
26. Zdanowicz M. Cyfrowe wideo PC WORLD KOMPUTER SPECIAL 2002, nr 2
27. Zwierzchowski Z.Kino bez filmu Rzeczpospolita 23.12.1999
28. Nie odpuszczać – rozmowa z Krzysztofem Ptakiem” Film&TV Kamera 2003 , nr 1

III. Źródła internetowe

29. Agfa – Gevaert AG
http://www.agfa.com
http://www.agfa.com.pl
data: marzec 2003

30. The American WideScreen Museum – Broken Anvil Institute
http://www.mar-digital.com.pl
data: 2002

31. Animo Software – Cambrige Animation Systems
http://www.animo.com
data: kwiecień 2003

32. Bukowiecki A. Zawsze są tylko światła i cienie – wywiad z Kszysztofem Ptakiem, http://www.film.onet.pl,
data : czerwiec 2003

33. DVB-T
www.emitel.pl
data: czerwiec 2003

34. Eastman Kodak Company – Digital Learning Center
http://www.kodak.com
data: maj 2003

35. Internetstandard
www.internetstandard.com.pl
data: czerwiec 2003

36. The Chimney Pot
http://www.chimney.pl
data : kwiecień 2003

37. Digital Sound Page
http://www.isc.rit.edu/~axb8863/
data: maj 2003

38. Dolby Laboratories
http://www.dolby.com
data: kwiecień 2003

39. Digital Theatre Systems
http://www.ststech.com
data: maj 2003

40. Kodak Polska
http://www.kodak.com.pl
data: maj 2003

41. Lucasfilm THX Theatre Sounds Systems
http://www.thx.com
data: luty 2003

42. Pixar Animation Studios
http:www.pixar.com
data: kwiecień 2003

43. Sony Corporation – Media Technology
http://www.sony.com
data: 2002

44. Słownik terminów audio
http://www.hifi.pl
data: marzec 2003

45. Wielka Encyklopedia Multimedialna
www.onet.pl/wiem
data: maj 2003

IV. Inne

46. Avery L. Tłumaczenie pliku pomocy dołączonej do progra-mu komputerowego “Virtual Dub” 1998-2000


Skrócony spis treści:

Obszary zastosowania technologii cyfrowej w produkcji i eksploatacji filmu (Wstęp i pełny spis treści)
Rozdział 1: Tradycyjne metody (i formaty) zapisu oraz obróbki obrazu i dźwięku w filmie
Rozdział 2: Istota i wykorzystanie technologii cyfrowej dla potrzeb produkcji filmu
Rozdział 3: Nowoczesne – digitalne – sposoby eksploatacji utworów audiowizualnych
Zakończenie, notka od autora i bibliografia

One Comment

  1. Pozdrawiam ładna stron

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *