Reklama

Drgająca warga Borgowa

Drgająca warga Borgowa

30.11.2020
Czyta się kilka minut
Już przełożenie zdania z jednego języka na drugi bywa trudne, czasem wręcz niemożliwe. A jak przetłumaczyć na słowa malujące się na czyjejś twarzy emocje?
Instalacja „Blind light” Antony’ego Gormleya w Hayward Gallery, Londyn, 2007 r. HORST FRIEDRICHS / ANZENBERGER / FORUM
K

Kiedy w kulminacyjnej scenie „Gambitu królowej”, serialu Netflixa bijącego obecnie rekordy popularności, arcymistrz szachowy Borgow przesuwa pion na D5, muzyka na chwilę zamiera. Potem słyszymy, jak Townes mówi: „Szlag, nie tak miał grać”, Beth oddycha głęboko, a w delikatną melodię wygrywaną na fortepianie triumfalnie wkraczają gorączkowe skrzypce.

Wystarczą jednak dwa kliknięcia, żebyśmy – oglądając dokładnie tę samą scenę – usłyszeli znacznie więcej:

„Townes marszczy brwi. Beth patrzy na Borgowa. Jego warga drga. Beth zamyka oczy. Beth patrzy na szachownicę, a potem na Borgowa. Wzrok Beth podąża ku sufitowi. Figury szachowe szybko przesuwają się po ogromnej, odwróconej do góry nogami szachownicy na suficie. Borgow mruży oczy, po czym podąża za spojrzeniem Beth. Obaj komentatorzy patrzą w górę. Borgow spogląda na Beth i marszczy brwi”.

Ten werbalny opis informacji wizualnych wpleciony w ścieżkę dźwiękową filmu to audiodeskrypcja: tłumaczenie filmu przeznaczone dla osób z dysfunkcją wzroku. Specjaliści zgodnie twierdzą, że choć oficjalnie jest to dodatek stosunkowo nowy, to tak naprawdę towarzyszył osobom niewidomym i niedowidzącym od zawsze.

Prawo do widzenia

Praprzodkiem audiodeskrypcji jest przyjacielski komentarz szeptany na ucho. To dzięki prywatnym opisom niepełnosprawni mogli w większym stopniu korzystać z dobrodziejstw kultury, podziwiać spektakle tworzone przez naturę czy sprawniej poruszać się w naszym, stopniowo coraz bardziej opierającym się na obrazie świecie. Usługą sformalizowaną audiodeskrypcja zaczęła stawać się w latach 80. ubiegłego stulecia. Obecnie tego typu innowacjom sprzyjają zmiany w prawodawstwie, wymuszające na nadawcach zapewnienie dostępu do treści audiowizualnych osobom z dysfunkcją wzroku. W Polsce ustawa o radiofonii i telewizji mówi o dostosowaniu w ten sposób 10 proc. kwartalnego czasu nadawania programu. W 2003 r. dostęp do informacji (a więc do mediów) został uznany przez Unię Europejską za jedno z podstawowych praw człowieka.

W rezultacie wizjonerów i eksperymentatorów, którzy w Stanach Zjednoczonych i Wielkiej Brytanii zaszczepiali zwyczaj opisywania obrazów na głos, najpierw na gruncie teatralnym, a potem w telewizji, zastąpili profesjonaliści. Adepci tego fachu mogą kształcić się na studiach podyplomowych poświęconych tylko temu zagadnieniu. Ustalony program nauczania wykracza poza intuicyjne wskazówki praktyków – opiera się także na oficjalnie przyjętych w danym kraju standardach tworzenia skryptów. Największą zaletą stosowania audiodeskrypcji jest niewątpliwie jej rzeczywista, a nie tylko postulowana inkluzywność: audiodeskrybowane są dziś nie tylko niszowe filmy prezentowane zainteresowanemu gronu entuzjastów w czasie zamkniętych pokazów, ale także seriale na największych platformach streamingowych i hitowe premiery kinowe.

Jedno nie uległo zmianie: audiodeskrypcja to wciąż – cytując Barbarę Szymańską, jedną z jej pionierek na polskim rynku – „obraz słowem malowany”.

Co mówią zmarszczone brwi

Przytoczona wyżej definicja może wydawać się górnolotna, a cele audiodeskryptorów są niewątpliwie szczytne. Podstawowa zasada przyświecająca ich pracy brzmi za to mniej romantycznie. Mówi ona: „What you see is what you say” („Opisujesz to, co widzisz”). Idealna audiodeskrypcja ma być trzeźwa, zwięzła, a przede wszystkim – neutralna. To odbiorca na podstawie informacji dostarczonych mu przez oryginalną ścieżkę dźwiękową dzieła, uzupełnioną o bezstronny opis jego warstwy wizualnej, ma na własną rękę interpretować daną scenę czy zachowanie bohatera. Z teoretycznego punktu widzenia wszelkie odgórnie narzucone sugestie są uznawane za absolutnie niepożądane podważanie samodzielności odbiorcy.

W praktyce potrzeba doprecyzowania i ujednoznacznienia komunikatu często okazuje się jednak silniejsza niż formalne wytyczne. Napięcie między ogólnie przyjętymi normami kładącymi nacisk na obiektywność a skłonnością autorów skryptów do ułatwiania słuchaczom procesu odczytania „obrazu” najsilniej chyba wyczuwalne jest w przypadku emocji. I Townes, i Borgow „zmarszczyli brwi”, bo zgodnie z zaleceniami stan emocjonalny bohatera powinno się nakreślić za pomocą dosłownego opisu mimiki czy gestu. Czy oznacza to jednak, że obaj byli dokładnie tak samo – no właśnie: zmartwieni, zaskoczeni, zaniepokojeni?

Choć eksplicytacja – bezpośrednie nazwanie emocji w rodzaju „Kasia jest smutna” – rzeczywiście zdarza się rzadko, audiodeskryptorzy (zarówno polscy, jak angielscy czy hiszpańscy) imają się różnych strategii, by przemycić tego rodzaju informację nie wprost: Kasia może „wyglądać smutno” (co przecież nie oznacza, że rzeczywiście taka jest), może „smutno patrzeć”, „smutne” mogą być nawet jej oczy (ale nie ona sama). Najczęściej jednak mamy do czynienia z połączeniem tego, co sugerowane, z tym, co zakazane: a więc mamy Kasię, która „zacisnęła powieki ze smutkiem”. W „Gambicie...” też ostatecznie dowiadujemy się po chwili, że Townes „patrzy z niepokojem”.

Zwolennicy tego rozwiązania argumentują, że nazwanie danej emocji ogranicza wysiłek, jaki odbiorcy muszą włożyć w zintegrowanie informacji docierających do nich z wielu źródeł. Ich zdaniem obciążenie poznawcze jest ogromne nawet bez konieczności dopasowywania konkretnej emocji do każdego podniesionego bądź opuszczonego kącika ust. Co równie istotne, na szczegółowy opis mimiki, który pozwoliłby słuchaczowi wysnuć jednoznaczne wnioski na temat uczuć targających przedstawianą postacią, często najzwyczajniej nie ma czasu.

Obraz wart tysiąc słów

Każdy przekład audiowizualny – a do takich zalicza się audiodeskrypcja – jest bowiem silnie ograniczony nie tylko materią językową, ale również specyfiką medium. Widzowie znający w pewnym stopniu język źródłowy, często nie zdając sobie sprawy z przyjętych zasad, ubolewają nad jakością napisów czy skryptu czytanego przez lektora. A na ostateczny kształt treści może wpływać choćby prędkość czytania statystycznego odbiorcy: linijka napisów to nieprzekraczalne 42 znaki, niezależnie od tego, ile słów w danym momencie wyrzuca z siebie człowiek widoczny na ekranie.

W przypadku audiodeskrypcji ograniczeniem jest sama oryginalna ścieżka dźwiękowa. Opis sceny w żadnym wypadku nie powinien jej zagłuszać, przy czym nie chodzi tylko o pokrywanie się z dialogami – nie jest wskazane także wypełnianie tekstem wszystkich luk między nimi, by nie pozbawiać odbiorcy możliwości wczucia się w atmosferę poprzez towarzyszącą widowisku muzykę. Mimo wszystkich obwarowań ta forma ułatwiania dostępu powinna – jak twierdzi Izabela Künstler, audiodeskryptorka i współtwórczyni polskich standardów audiodeskrypcji – wywoływać „emocje podobne do tych, jakie przeżywają widzowie, by odbiór filmu z audiodeskrypcją dawał podobną satysfakcję jak jego oglądanie”, a więc spełniać wymogi dobrego tłumaczenia według George’a Steinera.

Myliłby się jednak ktoś, kto na podstawie powyższych uwag o dosłowności skryptów wysnułby wniosek, że ma ona być w założeniu tłumaczeniem raczej wiernym niż pięknym. Joel Snyder, jeden z najbardziej niestrudzonych propagatorów audiodeskrypcji na świecie, uważa, że jest to wręcz „literacka forma sztuki, rodzaj poezji”, niemalże odmiana haiku. Jej skondensowana, maksymalnie plastyczna forma wynika po pierwsze z potrzeby wpasowania się między linie dialogowe, po drugie zaś z faktu, że jest ona tłumaczeniem z jednego typu znaku (obrazu) na zupełnie inny (tekst) – a więc przekładem intersemiotycznym.

Obraz jest bytem przestrzennym: odbieramy go holistycznie, jako całość, przy czym nie wszystkim składającym się nań elementom przypisujemy tę samą wartość. Chłoniemy go podobnie jak zapach czy smak. Choć dysponujemy od razu kompletem informacji, nie musimy koniecznie przetwarzać ich wszystkich w tej samej chwili: skupiamy się na fragmentach pierwszego planu, a następnie, wedle uznania i potrzeb, uzupełniamy o wybrane szczegóły. Z językiem mówionym jest inaczej. Jego linearność wymaga ciągłego skupienia i nie pozwala odłożyć niczego na później, w związku z czym wymusza selekcję i określone porządkowanie wybranego materiału. Nie da się opisać wszystkiego. Audiodeskryptor bierze więc na siebie olbrzymią odpowiedzialność: tylko od niego zależy, co „zobaczy” odbiorca.

Błysk szachownicy w oczach

„Wzrok Beth jest utkwiony w odwróconej szachownicy. Figury przesuwają się, układają w różnych konfiguracjach, po czym wracają na wcześniejsze pozycje. W oczach Beth widać odbicie odwróconej szachownicy. Beth opuszcza wzrok i umieszcza swojego gońca między dwoma pionami Borgowa”.

Czy dodatkowa ścieżka dźwiękowa pozwoli osobie niewidomej lub niedowidzącej w odpowiednim momencie wyobrazić sobie dokładnie nienaturalnie wielkie, orzechowe tęczówki Anyi Taylor-Joy (Beth Harmon) albo nienaganny przedziałek Marcina Dorocińskiego grającego Borgowa? Raczej nie. Ale z pewnością dzięki niej coraz bardziej hektyczne z sekundy na sekundę smyczki w tle w końcu nabierają znaczenia. ©

Ten materiał jest bezpłatny, bo Fundacja Tygodnika Powszechnego troszczy się o promowanie czytelnictwa i niezależnych mediów. Wspierając ją, pomagasz zapewnić "Tygodnikowi" suwerenność, warunek rzetelnego i niezależnego dziennikarstwa. Przekaż swój datek:

Dodaj komentarz

Usługodawca nie ponosi odpowiedzialności za treści zamieszczane przez Użytkowników w ramach komentarzy do Materiałów udostępnianych przez Usługodawcę.

Zapoznaj się z Regułami forum

Jeśli widzisz komentarz naruszający prawo lub dobre obyczaje, zgłoś go klikając w link "Zgłoś naruszenie" pod komentarzem.

Zaloguj się albo zarejestruj aby dodać komentarz

© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]