W poszukiwaniu fundamentów

Zastępy naukowców pracują nad stworzeniem teorii, która ujmowałaby wszystkie znane nam dzisiaj oddziaływania fizyczne w jeden matematyczny wzór. Ale nawet jeśli ją stworzymy, nie będziemy wiedzieć o świecie wszystkiego.

17.03.2020

Czyta się kilka minut

 / KOLAŻ: NATALIA POLASIK / @MOONWATERPL
/ KOLAŻ: NATALIA POLASIK / @MOONWATERPL

Już u zarania dziejów ludzie zdawali sobie sprawę, że światem rządzą pewne prawa. Przejawiały się one w regularnościach zachodzących w przyrodzie, takich jak następowanie po sobie pór roku czy też cykliczne wylewy Nilu. Z czasem okazało się, że owe regularności można precyzyjnie opisać w języku matematyki. Co więcej, niektóre matematyczne modele okazały się na tyle żywotne, że pozwoliły przewidzieć i odkryć nowe zjawiska, które ukazały nam nieznane oblicza przyrody.

Dzisiaj metoda matematyczno-empiryczna święci triumfy zarówno w sferze czysto poznawczej, jak i technicznej. Trudno jednak nie odnieść wrażenia, że – nawet na gruncie samej tylko fizyki – teorie nam się „rozjechały”. Każda z nich bardzo dobrze modeluje jakiś wycinek rzeczywistości, ale nie wydaje się, aby tworzyły spójną całość.

Spora część fizyków, w tym tak znamienitych jak Stephen Hawking, Gerardus ’t Hooft czy Steven Weinberg, uważa, że możemy skonstruować „teorię wszystkiego”, która będzie w sobie zawierać wszystkie dotychczasowe modele jako szczególne przypadki. Przekonanie to wynika z sukcesów fizyki teoretycznej, która rozwijała się na drodze unifikacji. Rzeczywiście, w historii nauki wielokrotnie okazywało się, że pozornie niezwiązane ze sobą zjawiska podlegają w istocie tym samym zasadom. Czy jednak program ten można rozwijać dowolnie daleko?

Początki praw

Jeszcze na początku XVII w. powszechnie uważano, że fizyką ziemską rządzą inne prawa niż sferą gwiazd i planet. Model kopernikański stanowił rewolucję w zrozumieniu tej drugiej, ale nie mówił nic o przedmiotach materialnych w zasięgu naszych rąk. Z kolei np. prawa balistyki sformułowane przez Niccolò Fontanę Tartaglię w 1537 r. dobrze opisywały trajektorię kuli armatniej, ale nikomu nawet nie przyszło do głowy, że mogą one mieć cokolwiek wspólnego z ruchami sfer niebieskich.

Pierwszym, który zaczął podejrzewać, że na Ziemi obowiązują takie same prawa co w kosmosie, był Johannes Kepler. W 1609 r. w traktacie „Astronomia Nova” wysnuł podejrzenie, że ciała niebieskie składają się zasadniczo z takiej samej materii jak inne obiekty w naszym otoczeniu. W konsekwencji poszukiwał „fizycznej przyczyny” ruchów planet i poprawnie zidentyfikował ją jako siłę przyciągania.

Choć intuicja Keplera była właściwa, nie udało mu się odpowiednio sformalizować swoich praw grawitacji. Dokonał tego dopiero Isaac Newton w 1686 r. Geniusz jego teorii polegał na jej uniwersalności. Istotnie, mówimy o powszechnym prawie ciążenia, co oznacza, że wszystkie masywne obiekty muszą przyciągać się z siłą odwrotnie proporcjonalną do kwadratu odległości między nimi.


CZYTAJ TAKŻE: Budulcem Wszechświata, być może najważniejszym ze wszystkich, jest sama geometria - pisze Sebastian J. Szybka


Prawo powszechnego ciążenia, a także prawa mechaniki klasycznej okazały się dalece bardziej uniwersalne, niż Newton mógł się spodziewać. Do dzisiaj stosujemy je z powodzeniem do modelowania ruchu obiektów fizycznych odległych od siebie od około milimetra po miliony kilometrów. Co więcej, okazało się że sama matematyczna struktura teorii Newtona kryje w sobie niespodzianki.

Na jedną z nich natrafił w latach 80. XIX w. francuski fizyk matematyczny Henri Poincaré. Rozważał problem trzech ciał przyciągających się grawitacyjnie zgodnie z równaniami Newtona. Poincaré za zdumieniem zauważył, że niektóre trajektorie są wysoce nieregularne. To odkrycie teoretyczne (dokonane ponad 200 lat po publikacji „Principiów” Newtona) zapoczątkowało nową dziedzinę chaosu deterministycznego, która ma zastosowanie w niemal każdej dziedzinie wiedzy: od mechaniki do meteorologii i ekonomii.

Unifikacja fizyki

W połowie XIX w. nastąpiła druga kluczowa unifikacja praw fizyki. Dokonał jej James Clerk Maxwell, łącząc prawa Ampère’a, Faradaya i Gaussa, dotyczące różnych zjawisk elektrycznych i magnetycznych, w jeden spójny układ równań. W dodatku Maxwell szybko zdał sobie sprawę, że jego równania implikują istnienie fal elektromagnetycznych, które są niczym innym jak światłem. W ten sposób powstała teoria elektromagnetyzmu, obejmująca również zjawiska optyczne. Bez niej trudno byłoby sobie nawet wyobrazić dzisiejszy świat przeniknięty elektroniką.

W 1865 r. mieliśmy zatem dwie fizyczne „teorie wszystkiego”: jedna dotyczyła ruchu obiektów masywnych, a druga zjawisk elektromagnetycznych. Sam Maxwell uważał, że jego równania są jedynie efektywnym opisem, a fale elektromagnetyczne rozchodzą się w ośrodku materialnym zwanym eterem, niczym fale na powierzchni wody. Żeby poznać mechaniczne własności eteru, należało zatem zmierzyć prędkość światła względem niego. Jednak, ku powszechnemu zaskoczeniu, eksperyment Alberta A. Michelsona i Edwarda W. Morleya przeprowadzony w 1887 r. sugerował, że prędkość światła jest stała i niezależna od jakiegokolwiek kierunku. Stanowiło to poważny problem dla mechanicznej „teorii wszystkiego”.

Kryzys w fizyce nie trwał jednak zbyt długo. W 1905 r. Albert Einstein ogłosił szczególną teorię względności postulując, że prędkość światła w próżni jest stałą przyrody – niezależną od ruchu obserwatora oraz własności mikroskopowych obiektów materialnych. Udało się wyjaśnić naturę fal elektromagnetycznych jako obiektów nieposiadających masy, ale niosących energię. Rozchodzą się one w próżni z prędkością światła i żaden eter nie jest do tego potrzebny.

Postulat Einsteina stanowił przewrót, bo podważył obowiązującą od wieków mechanistyczną wizję świata. Jednak jeśli prędkości obiektów są małe (dużo mniejsze od prędkości światła), to równania dynamiki wynikające z teorii względności efektywnie sprowadzają się do równań mechaniki klasycznej. Einstein stworzył zatem w 1905 r. nową „teorię (prawie) wszystkiego”, w której mechanika klasyczna była zawarta jako przypadek graniczny. Prawie, ponieważ na uboczu pozostawało wciąż Newtonowskie prawo powszechnego ciążenia. Pełnej unifikacji Einstein dokonał 10 lat później w ramach ogólnej teorii względności. Zmieniła ona dramatycznie nasze rozumienie nie tylko w kwestii obiektów niebieskich, ale i całego Wszechświata, a nawet czasu i przestrzeni (zob. tekst Sebastiana Szybki pt. „Utkany z czasu i przestrzeni”).

O ile jednak Einsteinowska czasoprzestrzeń stanowi odpowiednią „scenę” dla zjawisk elektromagnetycznych, o tyle ogólna teoria względności o samym elektromagnetyzmie już nie mówi. Einstein poświęcił sporo energii na poszukiwanie „teorii wszystkiego”, w której równania pola grawitacyjnego i równania Maxwella zostałyby zunifikowane w ramach jednego nadrzędnego prawa.

Ten program okazał się dużo trudniejszy do zrealizowania, niż można było przypuszczać. A to dlatego, że w XX w. wydarzyła się jeszcze druga rewolucja, która obnażyła granice stosowalności mechaniki klasycznej w mikroświecie. Mowa oczywiście o teorii kwantów królującej w fizyce atomowej. Podobnie jak teoria Einsteina, tak i mechanika kwantowa wniosła nową stałą przyrody – h – wprowadzoną w 1900 r. przez Maxa Plancka. Charakteryzuje ona m.in. nieoznaczoność pędu i położenia cząstek kwantowych (głoszącą, że im więcej wiemy o pędzie jakiejś cząstki, tym mniej wiemy o jej położeniu – i odwrotnie). Mechanikę klasyczną możemy rozpatrywać jako granicę mechaniki kwantowej dla h = 0.

Możemy więc powiedzieć, że mechanika kwantowa jest ogólniejsza niż mechanika klasyczna, gdyż obejmuje szerszy zasięg zjawisk. Skoro jednak ani teoria względności, ani mechanika kwantowa nie są teoriami „wszystkiego”, to konieczne wydaje się poszukiwanie ich unifikacji.

Pionierami konstruowania relatywistycznej mechaniki kwantowej byli m.in. Paul Dirac i Richard Feynman. W ten sposób narodziła się kwantowa teoria pola unifikująca mechanikę kwantową ze szczególną teorią względności. Jak mają się do tego jednak równania Maxwella? Otóż okazuje się, że na poziomie fundamentalnym fale elektromagnetyczne rzeczywiście podlegają prawom mechaniki, tyle że jest to mechanika kwantowa. Rolę „cząstek światła” przejęły fotony – kwanty pola elektromagnetycznego.

Sen o teorii ostatecznej

Dzisiaj mamy zatem dwie „teorie wszystkiego”: kwantową teorię pola oraz ogólną teorię względności. Wiemy, że są one niekompatybilne – zasady Einsteinowskie stoją w sprzeczności z zasadami kwantowymi. Dlatego też fizycy nie ustają w wysiłkach, aby zunifikować obie te teorie w ramach jednego uniwersalnego zestawu praw.

Nasuwa się jednak pytanie, po co nam właściwie jedna teoria wszystkiego? Zarówno kwantowa teoria pola, jak i ogólna teoria względności działają doskonale i nie znamy obecnie żadnych zjawisk, które nie dałyby się modelować w ramach jednej z nich.

Pierwszym powodem jest nadzieja, że teoria kwantowej grawitacji pozwoli nam przewidzieć nowe zjawiska, z których istnienia nie zdajemy sobie nawet sprawy. Rzeczywiście, sukces teorii względności i mechaniki kwantowej, a uprzednio także teorii Newtona, zasadza się na ich niebywałej wręcz mocy predykcyjnej. Na przykład teoria kwantowa niemal natychmiast ukazała nam zupełnie nowe oblicze atomów i ich skomplikowanej struktury wewnętrznej, a z ogólnej teorii względności wynika choćby istnienie fal grawitacyjnych – przewidzianych na gruncie matematyki sto lat przed ich faktycznym zaobserwowaniem w 2015 r.

Uzasadnione jest zatem oczekiwanie, że unifikacja mechaniki kwantowej z teorią Einsteina ukaże nam zupełnie nowe oblicze Przyrody. Co więcej, należy się spodziewać, że „teoria wszystkiego” da nam nie tylko satysfakcję poznawczą, ale pozwoli wykorzystać zjawiska do opracowania być może zaskakujących technologii. Niestety, żadnej z teorii pretendujących do miana „ostatecznej unifikacji” (jak np. teoria strun, pętlowa kwantowa grawitacja, geometria nieprzemienna, teoria twistorów... – zob. ramka „Grawitacja kwantowa w pięciu smakach”) nie udało się uzyskać potwierdzenia doświadczalnego, o zastosowaniach technicznych nie wspominając.


CZYTAJ TAKŻE: Łukasz Lamża o „Śnie o teorii ostatecznej” Stevena Weinberga: Miał być świetlistą wizją teorii wszystkiego. Z każdą kolejną stroną wizja ta zaczyna się jednak rozmywać...


Druga kwestia motywująca poszukiwanie „teorii wszystkiego” to fakt, że unifikacja fizyki nie jest jedynie zabiegiem formalnym. Oprócz oddziaływań elektromagnetycznych znane są również słabe oraz silne siły jądrowe, odpowiedzialne m.in. za rozpad promieniotwórczy pierwiastków. W latach 60. XX w. Sheldon Glashow, Abdus Salam i Steven Weinberg dokonali unifikacji oddziaływań elektromagnetycznych i słabych w ramach kwantowej teorii pól „elektrosłabych”. Zakłada ona, że przy odpowiednio dużych gęstościach energii nośniki oddziaływań – fotony i bozony słabe W i Z – tworzą jeden byt. Aby sprawdzić tę odważną hipotezę, zbudowano akcelerator cząstek elementarnych w CERN pod Genewą, gdzie udało się wytworzyć odpowiednie warunki fizyczne. Teoria Glashowa-Salama-Weinberga okazała się prawdziwa i przyniosła jej autorom Nagrodę Nobla w 1979 r.

Elektrosłaba unifikacja oddziaływań jest jednak czymś znacznie poważniejszym niż abstrakcyjnym modelem zjawisk w ekstremalnych warunkach fizycznych. Wysokim energiom odpowiadają małe skale odległości, a również, w zgodzie z obowiązującym modelem kosmologicznym, bardzo wczesne dzieje całego Wszechświata. Oznacza to, że 10-11 sekundy po Wielkim Wybuchu nie było jeszcze żadnych fotonów ani bozonów słabych, tylko jedno kwantowe pole elektrosłabe, a fizyka bliższa naszemu codziennemu doświadczeniu dopiero później się z niego wyłoniła. Dzisiaj ślady tej pierwotnej jedności możemy zaobserwować wewnątrz jąder atomowych, na skalach 10-15 metra, co wymaga ogromnej energii osiąganej tylko w akceleratorach, takich jak LHC w CERN.

To właśnie owo rewolucyjne odkrycie zainspirowało fizyków do poszukiwania jednej teorii wszystkich oddziaływań. Na pierwszy ogień wzięto oddziaływania jądrowe silne, co do których spodziewamy się, że tworzyły jedność z elektrosłabymi ok. 10-36 sekundy po Wielkim Wybuchu. Żeby się o tym przekonać, musielibyśmy jednak zbadać strukturę materii na skalach ok. 10-30 metra, co wymagałoby gigantycznych energii – o rzędy wielkości wyższych niż te dostępne nawet w najmocniejszych akceleratorach. Poszukuje się zatem intensywnie dowodów pośrednich, na razie bez sukcesów.

Pełna unifikacja, owa mityczna, prawdziwie kwantowa grawitacja, miałaby panować jeszcze wcześniej – 10-43 sekundy po Wielkim Wybuchu, a jej obecne królestwo to skale rzędu 10-35 metra. Tak ekstremalne skale wykluczają jakikolwiek bezpośredni wgląd doświadczalny w dającej się przewidzieć przyszłości. Niemniej jednak były i są przeprowadzane rozmaite eksperymenty i obserwacje kosmiczne testujące niektóre z modeli kwantowej grawitacji. Na razie przyroda nie daje nam jednak żadnej wskazówki na temat tego, która z wielu konkurujących teorii „ostatecznej unifikacji” jest prawdziwa (o ile którakolwiek z nich jest prawdziwa).

Przestroga Newtona

Przypuśćmy, że udało nam się odkryć kwantową teorię grawitacji – mamy spójny model i dowód empiryczny. Nazwanie jej „teorią wszystkiego” brzmi jednak cokolwiek nieskromnie. Rzeczywiście, unifikacja wszystkich czterech znanych oddziaływań to tylko częściowy sukces, jeśli mamy ambicję wyjaśnienia całości zjawisk. „Teoria wszystkiego” musiałaby wytłumaczyć m.in. naturę ciemnej materii stanowiącej 27 proc. energii Wszechświata, tajemnicę stałej kosmologicznej odpowiedzialnej za jego przyspieszoną ekspansję czy też zagadkową hierarchię mas cząstek elementarnych, które rozciągają się od ułamków aż do set miliardów elektronowoltów.

Inna sprawa to: skąd właściwie mielibyśmy wiedzieć, że rzeczywiście dysponujemy ostateczną „teorią wszystkiego”? Samo wyjaśnienie wszystkich wyników dotychczasowych obserwacji i eksperymentów nie wystarczy. Od dobrej teorii fizycznej wymaga się również przewidywania przyszłości. Musiałaby zatem antycypować nowe zjawiska, które rzeczywiście zostałyby zaobserwowane w nowych doświadczeniach.

Choć ten scenariusz może wydawać się mało realistyczny, to warto pamiętać, że między zapisaniem równań teorii a zrozumieniem klasy ich rozwiązań jest przepaść. Dziś nikt nie wątpi, że równania Einsteina doskonale modelują Wszechświat na dużych skalach i że to się nie zmieni, jeśli okażą się one jedynie przybliżeniem jakiejś ogólniejszej struktury. Jest to niezależne od faktu, że ścisłych rozwiązań równań pola grawitacyjnego jest, po ponad stu latach, dosłownie garstka i nie mamy żadnych ogólnych metod ich konstruowania. I to też się nie zmieni, nawet jeśli teoria Einsteina zostanie wchłonięta przez jakiś ogólniejszy formalizm. Wprost przeciwnie, równania „teorii wszystkiego” najprawdopodobniej byłyby tak skomplikowane, że rozwiązywanie ich zapewniłoby zajęcie dla wielu pokoleń fizyków.

Odkrycie tak rozumianej „teorii wszystkiego” jest marzeniem wielu fizyków. Teoria ta miałaby stanowić ostateczną i niewzruszoną podstawę do budowy wszelkich modeli zjawisk fizycznych.

W świetle historii rozwoju fizyki to oczekiwanie wydaje się naiwne. Raptem 150 lat temu gotowi byliśmy uznać, że to teoria Newtona jest podstawą wszechrzeczy. Dzisiaj większość fizyków wskazałaby raczej na kwantową teorię pola, choć niektórzy, jak np. sir Roger Penrose, twierdzą, że bardziej fundamentalna jest ogólna teoria względności.

Warto wspomnieć, że sam Newton, choć świadomy doniosłości swoich odkryć, był raczej ostrożny w ferowaniu ostatecznych wyroków. W „Matematycznych zasadach filozofii przyrody” zawarł Regułę 4., która głosi, że reguły teoretyczne opracowane na podstawie danych empirycznych powinny być uważane za prawdziwe bądź „prawie prawdziwe” dopóty, dopóki nie zostaną odkryte doświadczalnie wyjątki od tych reguł.

Nauka na błędach

Dlaczego zatem znamienici fizycy poszukują jednej „teorii wszystkiego” z uporem godnym lepszej sprawy? Sądzę, że pierwszym powodem są niewątpliwe sukcesy unifikacji fizyki zapoczątkowane przez Keplera i Newtona, a obecnie kontynuowane dzięki akceleratorom cząstek i potężnym teleskopom. Druga kwestia to dyskomfort związany z tym, że dysponujemy dwiema teoriami fundamentalnymi, których zasady są wzajemnie sprzeczne. Istotnie, budowa spójnego obrazu świata stanowi trzon metody naukowej, która tak niebywale dobrze funkcjonuje już od kilkuset lat.

W Regule 4. Newtona jest jednak ukryta jeszcze jedna przestroga metodologiczna. Jeśli eksperyment ma w sposób wiarygodny zaświadczać o prawdziwości danej teorii, to musi z konieczności wykraczać poza nią. To zabija w zarodku samą możliwość istnienia „teorii wszystkiego”. Innymi słowy, jeśli skonstruujemy formalizm przewidujący wyniki wszystkich przyszłych eksperymentów, to de facto utracimy możliwość jego empirycznej weryfikacji. Zamiast testować teorie, zajęlibyśmy się wówczas utwierdzaniem siebie samych w przekonaniu, że jesteśmy na dobrej ścieżce. O tym, że jest to realne zagrożenie, niech świadczy fakt, że teoria epicykli (w gruncie rzeczy fałszywa) była stosowana i rozwijana przez blisko 2 tys. lat dlatego, że nikt nie próbował podważyć jej założeń o geocentryzmie i kolistości ruchów ciał niebieskich.

Sztuka uprawiania fizyki opiera się na umiejętności lawirowania pomiędzy budowaniem teorii na podstawie przyjętych zasad i kwestionowaniem tychże zasad. Z jednej strony musimy zakładać, że jakaś „Teoria Wszystkiego” – zbiór praw Przyrody – rzeczywiście istnieje i nasze teorie przez małe „t” mogą się do niej zbliżać. Z drugiej strony nie wolno nam nigdy uznać, że już ją osiągnęliśmy. ©


Zobacz także: Wielkie Pytania na nowo: serwis specjalny

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp kwartalny

Kwartalny dostęp do TygodnikPowszechny.pl
  • Natychmiastowy dostęp
  • 92 dni dostępu = aż 13 numerów Tygodnika
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
89,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]
Fizyk i matematyk, pracuje w Krajowym Centrum Informatyki Kwantowej na Uniwersytecie Gdańskim. Jego zainteresowania badawcze sięgają od abstrakcyjnej algebry i geometrii nieprzemiennej po fizykę kwantową i Ogólną Teorię Względności. Członek Centrum Kopernika… więcej

Artykuł pochodzi z numeru Nr 12/2020