Czasem to się dzieje wbrew naszej woli – na przykład kiedy z głośników wydobywają się dźwięki piosenki „Superstition” Steviego Wondera. Nasza głowa zaczyna miarowo się poruszać, a palce i stopy wystukują rytm. Badania Haley Kragness z zespołem pokazały, że muzyka działa w podobny sposób także na dzieci – już kilkulatki do wybranych utworów poruszały się chętniej i z większą energią niż do pozostałych. Wystarczy, że piosenka ma „to coś”; ma groove.
Na czym polega muzyczny groove
Jeśli zapytasz muzyka o to, czym jest groove, pewnie odpowie, że dowiesz się, jak tylko to usłyszysz. Na potrzeby badań naukowych ustalono jednak nieco bardziej precyzyjną definicję – groove to „przyjemne uczucie chęci poruszania się w rytm muzyki”. W badaniu przeprowadzonym przez Petra Janatę i jego współpracowników wśród piosenek, które zostały uznane przez ankietowanych za te posiadające najlepszy groove, znalazły się m.in. właśnie „Superstition” Steviego Wondera, „Yeah!” Ushera, „Lady Marmalade” w wykonaniu LaBelle czy utwór „Music” Leeli James. Wystarczy ich posłuchać, by dostrzec jakiś wspólny mianownik, a jednocześnie odkryć, że nie wszystkie piosenki (nawet jeśli są w naszym guście) go mają. Dlatego naukowcy podjęli próbę uchwycenia jego natury i wskazania, czym „to coś” faktycznie jest.
Chociaż niezawodny przepis na groove wciąż im się wymyka, to według metaanalizy badań wykonanej przez Takahide Etaniego ze współpracownikami jeden składnik wydaje się być niezawodny: synkopa. To zabieg, który polega na drobnym przesunięciu akcentów w rytmie – wybrzmiewają one nie tam, gdzie się tego spodziewamy, ale w innych miejscach taktu. Szerzej definiuje się ją także jako „wydarzenie rytmiczne, które podważa oczekiwania metryczne słuchacza”.
Na przykład w powszechnie stosowanym w muzyce popowej metrum 4/4 standardem są akcenty padające na pierwsze i trzecie uderzenie. Nasz mózg słyszał ten schemat wielokrotnie, więc wybiera go jako ten najbardziej prawdopodobny. Jeżeli muzycy zagrają mocniej (lub dłużej) nuty znajdujące się na słabych pozycjach metrycznych i tym samym przesuną akcent w niespodziewane miejsce, mózg będzie zaskoczony. Dzięki temu muzyka wyda nam się bardziej intrygująca, rytm będzie bardziej wciągający i być może poczujemy trudną do zwalczenia ochotę, by zacząć bujać się do pulsu muzyki.
Z przesunięciami akcentów nie można jednak przesadzać – badania pokazują, że pomiędzy miarą synkopy a wskaźnikami groove’u występuje zależność odpowiadająca odwróconej literze „U”. Jeżeli nie ma jej wcale, utwór będzie sprawiał wrażenie nudnego, nieangażującego, mechanicznie powtarzalnego. Gdy będzie zbyt duża – struktura się rozmyje, utwór nie będzie wydawał się płynny i rytmiczny, ale chaotyczny. Jeśli kompozytorowi uda się znaleźć złoty środek, to słuchacz będzie mógł z drobnych przesunięć akcentów czerpać wielką przyjemność.
Jak mózg rozpoznaje znajome schematy
Nieoczekiwane łamanie schematów to jednak nie tylko domena rytmu – tworzymy przewidywania także co do struktury utworu, melodii czy tempa. Nasz mózg – niekoniecznie dla nas świadomie – zapamiętuje pewne schematy powszechnie używane w muzyce popularnej i uznaje, że najprawdopodobniej powtórzą się one w kolejnych słuchanych przez nas utworach. A muzycy od wieków grają na tych oczekiwaniach.
Jako przykład takiego podważania oczekiwań Daniel J. Levitin, autor książki „Zasłuchany mózg”, podaje finałową część IX symfonii Beethovena – „Odę do radości”. Zdaniem Levitina zaskoczenie jest nieodłączonym elementem muzyki, która może przypaść nam do gustu. Utwory, które znamy, wciąż nam się podobają, bo zaskakują nas za każdym razem – nasze oczekiwania co do znanych schematów „tkwią w nas nawet głębiej niż to, jak pamiętamy właśnie tę piosenkę”.
Jeżeli już zacznie się wypatrywać zaskoczenia, to nietrudno poczuć się nim osaczonym. Spotkamy je nie tylko w muzyce – towarzyszy nam podczas zaciętych pojedynków sportowych, czyha na nas w błyskotliwych reklamach i jest nieodłącznym elementem wielu żartów. Niby nie wszyscy lubimy niespodzianki – a jednak w wielu sytuacjach zaskoczenie ma swój unikalny powab.
Zaskoczenie pozwala nam się uczyć
James Gleick, autor książki „Informacja. Bit, wszechświat, rewolucja” pozwala nam wysnuć prosty wniosek: zaskoczenie to znak, że dotarła do nas informacja. Nie da się nas zaskoczyć czymś, o czym już wiedzieliśmy. Jeżeli coś nawet w najmniejszym stopniu nas nie zaskakuje, to znaczy, że nie ma dla nas wartości: nie redukuje niepewności, nie wzbogaca naszej wiedzy ani nie ma tej kluczowej właściwości, która wyróżnia informację – nie pozwala odróżnić jednego stanu od drugiego.
W przeciwieństwie do nawet największych zbiorów danych, które nie są dla nas niczym nowym, zaskoczenie to niezwykle łakomy kąsek – bo pozwala poszerzyć zasób swojej wiedzy. A to zasób bardzo cenny – nigdy nie wiadomo, która informacja może przyczynić się do zwiększenia sukcesu reprodukcyjnego. Zauważenie niespodziewanego drapieżnika daje możliwość ucieczki, poznanie nowego źródła pożywienia zwiększa szansę na przetrwanie w trudnych warunkach, a zasłyszenie jakichś poufnych wiadomości może przyczynić się do tego, że nasz status społeczny wzrośnie.
Niebywała zdolność do przyswajania nowych informacji, a więc uczenia się, dała ludziom niebotyczną przewagę nad innymi gatunkami, które mniej efektywnie przyswajają nową wiedzę i umiejętności.
Stanislas Dehaene, neurobiolog specjalizujący się w mechanizmach uczenia się, w książce „Jak się uczymy” uznaje zaskoczenie za jeden z fundamentalnych motorów procesu nauki. Uważa się, że u niemowlaków miarą zaskoczenia może być ilość czasu, jaką poświęcają na obserwację czegoś. Badania wskazują, że jedenastomiesięczne dzieci dłużej patrzą na przedmioty, które zachowują się w sposób sprzeczny z zasadami fizyki – np. przenikają przez ściany albo lewitują. Aimee Stahl i Lisa Feigenson pokazały, że podczas obserwacji takich nieprawdopodobnych scenek dzieci także lepiej zapamiętywały dźwięki wydawane przez przedmioty, a nawet słowa używane przez dorosłych do ich opisu.
Co więcej, dzięki takim obserwacjom dzieci same stawały się naukowcami – próbowały np. same sprawdzić, czy upuszczone klocki naprawdę mogą zacząć lewitować. To sugeruje, że zjawiska stojące w sprzeczności z wiedzą niemowlaków przykuwają ich uwagę w szczególny sposób, a ich mózgi potrafią doskonale tę sposobność wykorzystać.
Kiedy jesteśmy zaskoczeni, w naszym mózgu zaczyna wydzielać się noradrenalina – neuroprzekaźnik, który pełni istotną funkcji w regulacji pobudzenia organizmu. Widoczną oznaką jej działania są choćby rozszerzone źrenice, a jej obecność może sprawić, że cała nasza uwaga zostanie przekierowana na zaskakujące wydarzenie i pomoże nam więcej z niego zapamiętać. Jeżeli przyczyna zaskoczenia okaże się z kolei niebezpieczna, będziemy już gotowi do ucieczki. Stąd okoliczności nie są bez znaczenia dla tego, czy zaskoczenie da nam przyjemność, czy nie. Wydaje się, że niewielu ludzi pasjonują mecze, w których brak jakichkolwiek niespodzianek.
Wolimy ból niż niepewność
Niewykluczone, że motywacja do poszukiwania nowych informacji była promowana przez ewolucję, bo obdarzone nią osobniki mogły lepiej radzić sobie z wyzwaniami. To może stanowić także jedną z przyczyn, dla których dzisiaj kompulsywnie odświeżamy aplikacje dostarczające nam ulubionych treści – nawet jeśli nie spodziewamy się znaleźć tam nic użytecznego.
Badanie opisane przez Daniela Bennetta i współpracowników w czasopiśmie „PLOS Computational Biology” pokazuje, że ludzie są skłonni zapłacić, by dowiedzieć się, jaka jest wysokość nagrody, którą mają później otrzymać – nawet jeśli nie mają na nią wpływu, a pozyskana wiedza może posłużyć im tylko do zredukowania niepewności. Inne badanie pokazało natomiast, że wielu z nas jest skłonnych pójść nawet o krok dalej – i zgodzić się na doświadczanie fizycznego bólu, byle tylko wcześniej poskromić niepewność, tj. wcześniej dowiedzieć się, czy wynik rzutu monetą okazał się dla nich korzystny.
Nasz mózg pod wieloma względami traktuje informacje jak inne nagrody, np. pieniądze czy przekąski. Chociaż wiąże się to z aktywnością mózgu w tzw. obszarze nagrody, niekoniecznie oznacza to, że czujemy przyjemność – słowo „nagroda” w tym kontekście odnosi się raczej do czegoś, co motywuje nas do podejmowania określonego działania. Zaobserwowano, że u szczurów najwyższa aktywność w tym obszarze nie pojawia się wtedy, gdy dostaną to, co lubią – ale kiedy niespodziewanie dostały coś wystarczająco dobrego.
Jacques Mirenowicz i Wolfram Schultz przeprowadzili badanie, w którym pokazali, że jeśli małpy nauczą się, że jakiś bodziec zapowiada nagrodę (np. sok), to ich układ nagrody będzie aktywny i zacznie wydzielać dopaminę wtedy, kiedy zobaczą bodziec zapowiadający nagrodę – a nie wtedy, gdy tę nagrodę otrzymają.
Między innymi na tej podstawie badacze zaczęli podejrzewać, że poziom dopaminy odzwierciedla rozbieżność pomiędzy nagrodą oczekiwaną a nagrodą faktycznie otrzymaną. W uproszczeniu, jeśli otrzymamy mniejszą nagrodę, niż oczekiwaliśmy, poziom dopaminy spadnie, a idąca za tym aktywność mózgu przyczyni się do zmniejszenia prawdopodobieństwa wystąpienia tego zachowania w przyszłości. Jeżeli nagroda będzie większa, niż się spodziewaliśmy, wydzielanie dopaminy wzrośnie, a w mózgu utrwali się sygnał, że prowadzące do niej zachowanie powinno być powtarzane częściej. W tym drugim przypadku mogą towarzyszyć nam także przyjemne odczucia, które jednak nie wynikają bezpośrednio z działania samej dopaminy.
Mózg i muzyka: jądro półleżące wskazuje, co lubimy
Częścią układu nagrody jest jądro półleżące. Jego aktywność podczas słuchania muzyki pozwoliła badaczom dość skutecznie przewidzieć to, ile słuchacze będą w stanie zapłacić za słuchany utwór. Benjamin Gold ze współpracownikami w pracy opublikowanej w czasopiśmie „The Journal of Neuroscience” zwracają uwagę, że aktywność jądra półleżącego często wzrasta także w reakcji na muzyczne zaskoczenie.
Autorzy przekonują, że doznania związane z słuchaniem muzyki w dużej mierze wynikają właśnie z tego, jak mózg reaguje na redukowanie niepewności i zdobywanie nowych informacji. Taka teoria jest spójna z wynikami ich badania, które pokazało, że utwory o umiarkowanym stopniu złożoności (niekoniecznie zawierające synkopę) są tymi najchętniej słuchanymi. To te utwory mają zapewniać nam optymalne parametry zaskoczenia i przewidywalności – z jednej strony wiemy, czego się spodziewać, i formułujemy w miarę trafne przewidywania, a z drugiej elementy zaskoczenia pozwalają nam czerpać z nich nowe informacje i aktualizować zasób wiedzy. Dzięki temu słuchanie muzyki ma być satysfakcjonujące samo w sobie – tak jak uczenie się.
Związkowi przyjemności i muzycznego zaskoczenia jeszcze bliżej przyjrzeli się Vincent Cheung i jego współpracownicy. Aby to zrobić, odtwarzali badanym progresje akordów zaczerpnięte ze znanych piosenek popowych (usunęli jednak melodię i rytm, żeby nie zaburzały one wyników badania, a jednocześnie by uniemożliwić badanym rozpoznanie piosenki). Stopień nieprzewidywalności i związanego z nim zaskoczenia określili liczbowo dzięki modelom statystycznym, a przyjemność doświadczaną podczas odtwarzania poszczególnych sekwencji określali sami badani za pomocą suwaków, czyli skali ciągłej.
Wyniki pokazały, że zaskoczenie może wyjaśniać przyjemność uzyskiwaną ze słuchania muzyki, ale tylko jeśli jednocześnie weźmie się pod uwagę stopień pewności predykcji. Jeżeli badani nie byli pewni swoich przewidywań, to największą przyjemność wywoływał u nich obiektywnie mało zaskakujący akord. Jeżeli jednak byli przekonani o tym, jakie dźwięki nastąpią, to największą przyjemność odczuwali, gdy usłyszeli akord obiektywnie mocno zaskakujący. A więc niepewni słuchacze docenili standardowe rozwiązania, a balansujący na granicy nudy byli bardziej skłonni do polubienia czegoś nietypowego. Można to interpretować w ten sposób, że trafienie w warunkach niepewności jest dużym zaskoczeniem, bo spodziewaliśmy się ponieść porażkę, a jednak predykcje okazały się poprawne – otrzymujemy więc silne pozytywne wzmocnienie. Natomiast gdy sekwencje są przewidywalne, to kolejne potwierdzenie oczekiwań nie przyniesie zbyt wiele korzyści – więc z przyjemnością usłyszymy coś zaskakującego, nawet kosztem popełnienia błędu.
Groove okiem neurobiologów
Peter Vuust, muzyk jazzowy i neurobiolog z Uniwersytetu Aarhus, uznał, że w wyjaśnianiu reakcji mózgu na muzykę pomocne może być odwołanie się do tzw. teorii kodowania predykcyjnego.
Według tej teorii mózg tworzy pewien model świata, nieustannie generując przewidywania dotyczące danych, które będą napływały do niego poprzez zmysły. Aby zwiększyć szanse, że jego predykcje będą odpowiadały rzeczywistości (co daje organizmowi szansę na podejmowanie skutecznych działań), mózg musi stale je udoskonalać. W tym celu śledzi spójność przewidywań z danymi, które faktycznie napływają poprzez zmysły. Jeżeli coś go zaskoczy, tzn. zauważy rozbieżności, powinien zaktualizować swoje predykcje. W ten sposób uczy się i zmniejsza ryzyko popełnienia błędu w przyszłości. Redukowanie tych rozbieżności nazywa się „minimalizowaniem błędu predykcyjnego” i według tej teorii jest w zasadzie naczelnym zadaniem mózgu, do którego ten nie potrzebuje żadnej zewnętrznej zachęty.
Można pokusić się o stwierdzenie, że według tej teorii muzyka jest dla mózgu niezwykłym placem zabaw – bo choć opiera się na pewnej strukturze, która jest przewidywalna, to stale z tymi oczekiwaniami pogrywa. Tymczasem skutki wykrywania błędów popełnionych przez system predykcji nie zawsze są pozbawione konsekwencji. Czasem mogą okazać się śmiertelnie niebezpieczne – np. kiedy błędnie założymy, że szelest liści to tylko wiatr, a nie czający się na nas drapieżnik.
Ale co się dzieje, kiedy akcent rytmiczny nie pada tam, gdzie go oczekiwaliśmy? Mózg powinien dążyć do zminimalizowania błędów. Wydaje się, że najprostszym sposobem, by to osiągnąć, jest dostosowanie przewidywań do napływających bodźców. Ale zdaniem różnych badaczy, w tym Vuusta, logika sugeruje jeszcze inny sposób poradzenia sobie z problemem – wystarczy osłabić precyzję predykcji. W jaki sposób? Na przykład zaczynając się bujać. Kiedy się poruszamy, informacje sensoryczne z naszego ciała mieszają się z danymi wejściowymi zmysłu słuchu – a przez to różnice pomiędzy przewidywaniami a muzyką stają się mniej precyzyjne, a błędy wydają się mniejsze i są mniej dotkliwe.
Może się zatem okazać, że groove, który odczuwamy jako chęć poruszania się do rytmu, jest sposobem, w jaki nasz mózg rozbraja napięcie wynikające z powstania błędu predykcji – tj. rozdźwięku pomiędzy przewidywaniami a rzeczywistością. To wyjaśniałoby także, dlaczego silna chęć poruszania się nie pojawia się, gdy poziom synkopy jest zbyt niski lub zbyt wysoki – w pierwszym przypadku błędy są zbyt małe, by wygenerować duży błąd predykcji wymagający jego natychmiastowej poprawy, w drugim – przewidywania zbyt niepewne, więc pogubiliśmy się w tańcu. Na dodatek, zapewne nie bawiąc się przy tym zbyt dobrze.
Na szczęście, do czerpania przyjemności z słuchania muzyki nie potrzebujemy żadnych teorii. Tym bardziej że chyba nikt nie będzie zdziwiony, jeśli okaże się, że zaskoczenie wyjaśnia tylko część jej fenomenu.

Projekt dofinansowany ze środków budżetu państwa, przyznanych przez Ministra Nauki i Szkolnictwa Wyższego w ramach Programu „Społeczna Odpowiedzialność Nauki II”.
„Tygodnik Powszechny” – jedyny polski tygodnik społeczno-kulturalny.
30 tys. Czytelniczek i Czytelników. Najlepsze Autorki i najlepsi Autorzy.
Wspólnota, która myśli samodzielnie.



















