Emocjonalna łączność

DOMHNAILL HERNON, inżynier: W świecie cyfrowym straciliśmy kontakt ze zmysłem dotyku. A przecież najlepiej mieć to wszystko razem – dźwięk, dotyk i obraz. My zajmujemy się pierwszymi dwoma.

01.10.2018

Czyta się kilka minut

 / MIMI; HADDON / GETTY IMAGES
/ MIMI; HADDON / GETTY IMAGES

ADAM PUCHEJDA: Słyszałem, że chce Pan teleportować emocje?

DOMHNAILL HERNON: O tak. Proszę pomyśleć o tym tak: dlaczego miałby pan zdezintegrować całe swoje ciało, przenieść je gdzieś indziej, a potem na nowo złączyć w całość, kiedy wystarczyłoby, żebyśmy zmierzyli nasze poczucie siebie i przesłali ten stan za pomocą zer i jedynek za pośrednictwem jakiegoś medium z prędkością światła? Po co tracić tyle energii, żeby teleportować obiekt fizyczny, kiedy wystarczy przesłać informację o obrazie, reprezentacji danej osoby?

Rozłożyć emocje na ciąg zer i jedynek, które prześlemy kablem?

Tak. Tworzymy właśnie technologię, którą można uznać za swego rodzaju emocjonalny łącznik między ludźmi. Oto przykład: jeśli pracujemy razem nad jakimś projektem i pan wysyła mi wiadomość tekstową o treści: „Dlaczego się spóźniasz?” z dodaną emotikonką, mogę z tego wnioskować o pańskich emocjach, ale w sposób bardzo ograniczony. To, co chcielibyśmy zrobić, polega jednak na fizjologicznym, biometrycznym pomiarze, umożliwiającym zrozumienie rzeczywistych emocji, które to informacje możemy wysłać razem z tekstem. Zamiast prostego esemesa i emotikonki będziemy mogli zatem przesłać coś w rodzaju emocjonalnej nakładki, zrozumiałej dla naszego mózgu, którą dodamy do prostego komunikatu słownego.

W jaki sposób?

Jest dużo możliwości. Możemy mierzyć poziom kortyzolu lub stresu w ciele, sprawdzać, jak często i z jaką siłą naciskamy klawisze klawiatury. Albo użyć aparatu w telefonie lub komputerze, dzięki którym dokonamy rozpoznania emocji poprzez badanie twarzy. Może to być też analiza słów, jakich używamy, tonu naszego głosu nagranego przez mikrofon. Możemy mierzyć różne aspekty naszej cielesności bez potrzeby psychologizowania. A poprzez połączenie tych rozmaitych danych sensorycznych – nazywamy to fuzją sensoryczną – da się określić stan emocjonalny danej osoby.

Poziom kortyzolu nie mówi chyba wiele o moich emocjach.

To prawda, ale w danych szukamy wzorców, regularności. Eksperymentujemy też z muzyką, ponieważ to muzyka jest uniwersalnym językiem emocji, rozumianym przez ludzi na całym świecie. Dzięki neuronauce wiemy, że nasz mózg jest skomplikowaną maszyną przyswajającą dane sensoryczne, które są po prostu materiałem do obróbki. Jeśli zatem możemy nauczyć osobę niewidomą widzieć dzięki wibracjom, to samo możemy zrobić z innymi formami komunikacji.

Możemy nauczyć osobę niewidomą widzieć?

David Eagelman dowiódł, że to możliwe. Na ciele osoby niewidomej umieszczamy małą kamerę i łączymy ją z tzw. kamizelką haptyczną, która zamienia sygnały wizualne w sygnały wibracyjne. Po kilku tygodniach mózg uczy się, w jaki sposób interpretować te sygnały jako wskazówki wizualne. W tym sensie osoba niewidoma może samodzielnie „widzieć” i interpretować rzeczywistość wizualną.

Jak to się ma do emocji i muzyki?

Na tej samej zasadzie przekładamy wskazówki emocjonalne we wzory wibracyjne, które mogą zostać zrozumiane przez mózg. Te wzory przekazują emocje do mózgu tak, jakby ten słuchał muzyki.

Mamy więc „emocjonalne” miary i „wibracje”, które powiedzą nam, jak się czujemy?

Zgadza się. Wróćmy do przykładu z telefonem. Dostajemy esemesa. Czytamy go, ale zamiast tekstu i wizualnej emotikonki, otrzymujemy sygnał wibracyjny. I nie chodzi mi o coś w rodzaju alarmu czy dźwięku, mówię o sygnale wibracyjnym, który reprezentuje emocje osoby, która wysłała wiadomość. Powiedzmy, że po otrzymaniu takich sygnałów za pośrednictwem ręki mózg nauczy się ten wzorzec akceptować. Nauczy się, tak samo jak pański mózg rozumie emocje i muzykę, i nagle okaże się, że nasz mózg umie na to odpowiedzieć lub zrozumieć na podstawie tego, co wiemy o tych emocjach. A wszystko poprzez ten język wibracji.

Dlaczego muzyka? Nie jest to medium zbyt ograniczone? Czy wirtualna rzeczywistość nie jest lepsza w odtwarzaniu rzeczywistości i w tym sensie nie jest też lepszym narzędziem do rozumienia emocji?

Muzyka jest tylko elementem. Pracujemy jeszcze ze zmysłem dotyku. Niestety jest to ta część naszego życia, z którą straciliśmy związek, ponieważ wszystko stało się cyfrowe. A nie wystarczy być z kimś w kontakcie wirtualnym, trzeba być też w kontakcie fizycznym. Najlepiej mieć to wszystko razem – dźwięk, dotyk i obraz. My zajmujemy się pierwszymi dwoma. Wirtualna rzeczywistość, tzw. VR (virtual reality), bez nich zresztą nie działa, ponieważ nie da się aż tak ogłupić naszego mózgu. Jeśli mamy tylko wizualną VR, nasz mózg nie wierzy w to, co widzi. I możemy się od tego pochorować.

Dlaczego pochorować?

Z dwóch powodów. Jeśli próbujemy sprzedać naszemu mózgowi obraz jako rzeczywiste doświadczenie, on wie, że to kłamstwo. To paradoks, ale im bardziej chcemy upodobnić przekaz wizualny do rzeczywistości, tym bardziej nasz mózg stara się go zwalczyć. Drugi powód to technologia – kiedy transmitujemy treści VR, musimy mieć możliwość przesłania informacji z tzw. niską latencją – czyli opóźnieniem między wygenerowaniem treści a możliwością jej odbioru. W tym wypadku dana wirtualna scena nie może zmieniać się dłużej niż raz na 7 milisekund. Jeśli to się nie uda, obraz zaczyna drgać. To wygląda tak, że kiedy zakładamy gogle VR i oglądamy daną scenę, obraz porusza się płynnie i nagle skacze – to jest efekt drgań, który może sprawić, że się rozchorujemy. I nie chodzi tu o złe samopoczucie, możemy fizycznie poczuć się chorzy, tak jak po zjedzeniu pewnych pokarmów, które nasz organizm odrzuca. Nasz mózg jest tak, a nie inaczej wyszkolony w interpretowaniu rzeczywistości.


CZYTAJ TAKŻE

ŁUKASZ LAMŻA: Dawno już przyzwyczailiśmy się, że ekran oszukuje nasz zmysł wzroku, a głośnik – nasz słuch. Słyszeliśmy też pewnie o eksperymentach nad „kinem węchowym”. A co z dotykiem?


A dźwięk i dotyk sprawiają, że mózg jednak daje się oszukać?

Tak, jeśli dodamy inne sygnały sensoryczne, które my nazywamy „łańcuchami perswazji”, takie jak dźwięk czy dotyk. Lub mówiąc inaczej: sygnały haptyczne – wibracje, o których mówiliśmy – i dźwięk przestrzenny. Przestrzenny to znaczy taki, który słyszymy dookoła naszej głowy, tak jak doświadczamy go w rzeczywistym życiu. W ten sposób możemy uniknąć problemów z brakiem realności, którego doświadcza nas mózg w wirtualnej rzeczywistości. Do tego dochodzą technologie haptyczne. Rozwiązaniem problemów drgań i niskiej latencji ma być też technologia 5G, która pozwoli na przesyłanie informacji z opóźnieniem rzędu 1 milisekundy, przy wysokiej ­przepustowości, rozdzielczości i prędkości. To by pozwoliło ­uniknąć ­problemów zdrowotnych przy oglądaniu obrazów VR.

Jesteśmy wobec tego bliscy stworzenia technologii, która będzie umiała mierzyć nasze emocje, będzie wiedziała, jak przekładać je na sygnały wizualne i dźwiękowe, i która będzie zdolna do stworzenia fałszywej rzeczywistości niczym nieróżniącej się od tej prawdziwej. To przerażające.

Upłynie jeszcze dużo czasu, zanim to, co pan opisuje, będzie możliwe. Dziś nie mamy odpowiedniej ilości danych, które moglibyśmy przeliczyć dzięki uczeniu maszynowemu i w ten sposób lepiej rozumieć kontekst, w jakim emocje się ujawniają lub w jakich ludzie się nimi dzielą. Nie mówiąc już o innych problemach technicznych.

Ale dzięki tej nowej technologii moglibyśmy zacząć zbierać te dane.

Tak, moglibyśmy zacząć gromadzić potrzebne dane i dzięki uczeniu maszynowemu moglibyśmy zacząć uczyć roboty, jak rozumieć ludzkie uczucia lub być bardziej empatycznym. Ale czy chcielibyśmy, żeby roboty posiadały takie umiejętności?

Mogłyby pomóc starszym, którzy cierpią na samotność, lub osobom z depresją.

To prawda, potencjalnie to jedno z zastosowań naszej technologii, choć sami się tym nie zajmujemy. Naszym celem jest dać ludziom możliwość lepszego rozumienia tego, jak się czują i jak czują się inni, a tym sposobem poprawić komunikację między ludźmi. W przypadku opieki nad osobami starszymi nadal potrzebny jest ktoś, kto będzie chętny do rozmowy. Ale nasza praca nie polega na rozwiązywaniu problemów psychicznych, z jakimi ludzie się zmagają.

Trudno uwierzyć, by ktoś nie chciał wykorzystać tej technologii do niecnych celów, np. manipulacji.

Zgadzam się, dlatego jesteśmy bardzo uważni, jeśli chodzi o kwestie prywatności – nie każdy będzie chciał dzielić się swoimi danymi w takim samym stopniu. Osobiście nie mam problemu z tym, by mówić o swoich emocjach, ale inni mogą myśleć inaczej. Z tego powodu częścią naszej technologii jest możliwość kontrolowania przez użytkownika tego, jak wiele chce przekazać. Można myśleć o tym jako swego rodzaju filtrze emocji. Tworzymy też narzędzia, które same będą uczyć się tego, jak reagujemy w pewnych sytuacjach. Jesteśmy świadomi tych problemów i chcemy, by to użytkownik miał pełną kontrolę. ©

DOMHNAILL HERNON jest inżynierem i fizykiem; kierownik działu Eksperymenty w Sztuce i Technologii (E.A.T.) w Nokia Bell Labs.

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp kwartalny

Kwartalny dostęp do TygodnikPowszechny.pl
  • Natychmiastowy dostęp
  • 92 dni dostępu = aż 13 numerów Tygodnika
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
89,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]

Artykuł pochodzi z numeru Nr 41/2018