Boskie myśli

Sprzężenie ludzkich mózgów z techniką i wzajemnie ze sobą warunkuje istnienie CERN. Ale działa tu też inne sprzężenie, może nawet bardziej zadziwiające: sprzężenie teorii z eksperymentem. CERN jest wielką, teoretyczno-doświadczalną fabryką.

10.07.2012

Czyta się kilka minut

 / rys. Andrzej Dudziński
/ rys. Andrzej Dudziński

Genewa w porywach wiatru. Ciężka zasłona chmur gna nad miastem. Zniknął pióropusz fontanny na Jeziorze Lemańskim, wyłączonej z racji bezpieczeństwa. Przeciągi hulają po uporządkowanych uliczkach Starego Miasta. Ogrzewamy się w zimnym wnętrzu protestanckiej katedry. Niedaleko katedry, w Audytorium Kalvina, bezdźwięcznie poruszając ustami, przemawia duch Wielkiego Reformatora, zmaterializowany w elektronicznej postaci naturalnej wielkości. Po założeniu słuchawek można wysłuchać jego wykładu po angielsku, francusku lub niemiecku, wedle życzenia. Jak Wielki Reformator zareagowałby na zredukowanie go do roli turystycznej atrakcji? Miła Pani z Polskiego Przedstawicielstwa przy ONZ, która utrzymuje służbowe kontakty z różnymi instytucjami w Genewie i organizuje nasz pobyt, najbardziej lubi współpracować z CERN (francuski skrót Europejskiego Centrum Badań Jądrowych). Bo fizycy są konkretni i zależy im na tym, co robią. MACHINY Co uderza nawet w dość pobieżnym zetknięciu z CERN-em? Tu krąży myśl. W ogromnym konglomeracie budynków, kabli, podziemnych tuneli, łączy, światłowodów, tysięcy komputerów, w niewyobrażalnej liczbie procesowanych bitów i przede wszystkim ludzkich mózgów – krąży myśl. Myśl zsynchronizowana, zwielokrotniana przez system wzajemnych sprzężeń, myśl wykraczająca poza możliwości nawet najgenialniejszej jednostki. Ludzkie mózgi to wszystko stworzyły i same wkomponowały się w ten system. Bez całej reszty rozpadłyby się na swoje indywidualne światy, ale teraz tworzą tę najbardziej newralgiczną sieć systemu, który bez ludzkich mózgów bardzo szybko zmieniłby się w zbiorowisko złomu. W CERN-ie na stałe zatrudnionych jest ok. 2,4 tys. pracowników: fizyków, inżynierów, personelu obsługi, ale wraz z aktualnie przebywającymi na jego terenie uczonymi z innych współpracujących z CERN-em krajów i instytucji jego załoga może liczyć ponad 10 tys. pracowników. Na tym nie koniec: sieć instytucji współpracujących z CERN-em pokrywa niemal całą kulę ziemską. Dane doświadczalne nie są tajne, a produkuje się je w takiej ilości, że ich przetwarzanie i przechowywanie stanowi poważny problem technologiczny. Wielki zbiorowy wysiłek międzynarodowej społeczności fizyków jest niezbędny do tego, by je wszystkie skonsumować – odcyfrować, zinterpretować, wyciągnąć wnioski i przynajmniej niektóre odpowiednio zastosować. Stopień skomplikowania CERN-owskiej machiny jest trudny do wyobrażenia. Spośród wielu przykładów właśnie ten zrobił na mnie wrażenie: zwoje nadprzewodzących elektromagnesów w LHC (Large Hadron Collider, Wielki Zderzacz Hadronów) są splecione z kabli. Każdy kabel składa się z 36 włókien o grubości 15 mm. Każde włókno z kolei to 6 – 9 tys. jeszcze mniejszych włókien; każde z nich o średnicy 7 mikrometrów (grubość ludzkiego włosa wynosi 50 mikrometrów). Na całej długości LHC znajduje się 7,6 tys. km takich kabli. Wszystko utrzymane w temperaturze 1,9 stopnia w skali bezwzględnej. Sumaryczna długość najcieńszych włókien pokryłaby pięciokrotną odległość z Ziemi do Słońca tam i z powrotem i pozostałoby jeszcze na kilkukrotną odległość z Ziemi do Księżyca. A to tylko jeden z bardzo wielu elementów całej konstrukcji! Z takich elementów trzeba było poskładać całość. Nad każdym szczegółem musiał pracować oddzielny zespół wysoko wykwalifikowanych specjalistów. I nie wystarczyło, żeby te zespoły zrobiły swoje i poszły do domu. To wszystko musi działać, być w nieustannym ruchu, dynamice. Nieuniknione są awarie i potrzeba nieustannej konserwacji. Utrzymać zespoły ludzkich mózgów w nieustannej i skutecznej aktywności to wyzwanie niepomiernie większe niż splatanie kabli z włókien o astronomicznej długości, cieńszych niż ludzki włos. Teilhard de Chardin snuł wizje noosfery – zbiorowej świadomości ludzkości. Tu wizja ta jest najbliższa urzeczywistnienia, choć tylko we fragmencie, w jednej dziedzinie: w fizyce wysokich energii i jej zastosowań. Tak, ale po co to wszystko? Może się to wydawać niewiarygodne, ale głównym motywem tego zbiorowego wysiłku jest naukowa ciekawość: jak świat jest zbudowany i jak funkcjonuje? Skąd się wziął i jak przebiegła jego ewolucja? I jak odpowiedzi, choćby częściowe, na te pytania można wykorzystać dla dobra człowieka? W konstytucji CERN-u jest zapisana jawność wszystkich uzyskiwanych wyników i zakaz ich bezpośredniego wykorzystywania do celów militarnych. Być może któreś z państw członkowskich (Polska do nich należy) lub stowarzyszonych (Rosja i USA należą do państw obserwatorów) ma nadzieję na nieoczekiwane źródło energii i potem wykorzystanie jej do jakiejś „superbomby”. Ale to stary problem – nożem można odkroić kromkę chleba dla biednego albo wbić go komuś w serce. SPRZĘŻENIA W CERN-ie wielka fizyka jest sprzęgnięta z wielką techniką. Jedna bez drugiej nie byłaby możliwa. Rozwiązania techniczne są nie mniej wyrafinowane niż teorie fizyczne, na których wszystko się opiera. Coraz odważniejsze eksperymenty wymuszają coraz bardziej skomplikowane technologie. Ale skomplikowanie nie może iść na kompromis z niezawodnością. Wyzwania są coraz bardziej wygórowane. Jest rzeczą zrozumiałą, że nowe rozwiązania bazują na dawniejszych. Poprzednikiem obecnego LHC był dawny LEP (Large Electron-Positron collider, lata 80.). Wiele ówczesnych rozwiązań (łącznie z tunelem o obwodzie 27 km) zostało przystosowanych do obecnych celów. Ale przystosowanie to nie tylko uwzględnienie nowych zadań, lecz również włączenie w proces takich rozwiązań technicznych, które 30 lat temu były nieosiągalne (np. w międzyczasie ogromnie wzrosła moc obliczeniowa komputerów). Co więcej, bez nowych rozwiązań osiągnięcie nowych celów byłoby nierealne. W CERN-ie, zwłaszcza w pawilonach, w których pieczołowicie przechowuje się „okazy” dawnych technologii, gołym okiem widać ewolucję techniki. Dokonuje się ona na zasadzie podobnej do ewolucji biologicznej. Środowisko nowych zadań naukowych wymusza uruchomienie mechanizmów przystosowawczych. Wprawdzie przypadkowe mutacje zdarzają się raczej wyjątkowo, ale do pewnego stopnia zastępuje je metoda prób i błędów, która – choć kosztowna – często musi być stosowana. Sprzężenie ludzkich mózgów z techniką i wzajemnie ze sobą jest osnową warunkującą istnienie CERN-u. Ale działa tu także inne sprzężenie, może nawet bardziej zadziwiające i nie mniej istotne: sprzężenie teorii z eksperymentem. CERN jest wielką, teoretyczno-doświadczalną fabryką. Jednym z głównych celów LHC jest stwierdzenie, czy cząstka Higgsa istnieje, czy nie. LHC rozpędza protony do ogromnej prędkości. Dwie paczki protonów zderzają się ze sobą i w każdym akcie zderzenia proton-proton produkowana jest kaskada innych cząstek. Skąd wiemy, która z tych cząstek jest fotonem, która elektronem, protonem, mionem..., a która poszukiwaną cząstką Higgsa? Cząstki identyfikuje się po ich własnościach. Dla przykładu rozpatrzmy, jak rozpoznaje się niektóre własności masywnych cząstek naładowanych elektrycznie. Współczesne detektory, rejestrując „elektryczne ślady” takich cząstek, są w stanie wyznaczyć ich tory. Tory te w polu magnetycznym ulegają zakrzywieniu: cząstki o ujemnym ładunku elektrycznym biegną po torach zakrzywionych w przeciwnym kierunku niż cząstki o ładunku dodatnim. Również z kształtu toru można wyznaczyć pęd cząstki: cząstki o dużym pędzie poruszają się po prawie prostych liniach, cząstki o małym pędzie poruszają się po ciasnych spiralach. Znając pęd i rejestrując pewien rodzaj promieniowania emitowanego przez naładowane cząstki (tzw. promieniowanie Czerenkowa), wylicza się masę cząstki. Jeżeli znamy ładunek elektryczny, pęd i masę cząstki, to wiemy już o niej całkiem sporo. Ale to tylko skromna ilustracja teoretycznych i eksperymentalnych problemów, z którymi trzeba się zmierzyć, by uzyskać wgląd w to, co dzieje się w Wielkim Zderzaczu. Oczywiście wszystko odbywa się automatycznie. Setki komputerów wykonuje niezbędne obliczenia, przetwarza informacje i przede wszystkim decyduje, które zdarzenia mają szansę być interesujące. W ten sposób ogromna liczba danych, sięgająca 600 mln/sek., redukuje się do kilkuset na sekundę, które zostaną poddane dalszej analizie. Czy to, o czym się dowiedzieliśmy, jest wynikiem doświadczenia? Na pewno, ale nie tylko. Bez zaangażowania bardzo wyrafinowanych teorii fizycznych i wykonania wielu rachunków, nie potrafilibyśmy nie tylko zaprojektować całego doświadczenia, ale nawet gdyby ktoś nam je podarował i uruchomił, nie mielibyśmy pojęcia, co otrzymaliśmy „na wyjściu”. Ten splot teorii i doświadczenia jest ponadto wkomponowany w niezwykle złożoną technologię, która realizuje eksperyment. 8 tys. serwerów czuwa nad wszystkim, co tu się dzieje. Co trzy lata wymienia się każdy serwer i chcąc zachować ten rytm, codziennie trzeba wymienić ich kilka. Ta potężna moc obliczeniowa radzi sobie tylko z ok. 20 proc. danych otrzymywanych z LHC. Resztę muszą „przetrawić” inne instytuty rozsiane po całym świecie. Teoria – doświadczenie – technologia – współpraca zlewają się w CERN-ie w jedno. EKSPERYMENTY Trzeba by się wreszcie przyjrzeć, co się tu właściwie robi. Nie jest to możliwe w krótkim sprawozdaniu, gdyż przebiega tu równolegle bardzo wiele eksperymentów. Jedne wykorzystują rozpędzone w LHC wiązki protonów, inne są zupełnie od LHC niezależne. Oto kilka nie tyle najważniejszych, ile najbardziej spektakularnych. Jak już wspomniałem, najgłośniejszym w mediach bohaterem związanym z LHC jest cząstka Higgsa. Jeśli istnieje, to jest stowarzyszona z „polem Higgsa”, które odgrywa ważną rolę w teorii cząstek elementarnych, bo przez oddziaływanie z tym polem cząstki nabierają masy. Tzw. standardowa teoria cząstek elementarnych, choć matematycznie nie jest bardzo elegancka, została jednak potwierdzona eksperymentalnie z ogromną precyzją. Teoria „pola Higgsa” jest raczej sztucznie dołączona do teorii standardowej i niektórzy teoretycy woleliby nawet, żeby eksperyment LHC nie wykazał istnienia cząstki Higgsa. Oznaczałoby to bowiem konieczność poszukiwania innej, lepszej i matematycznie bardziej eleganckiej teorii. A więc czy cząstka Higgsa istnieje, czy nie istnieje? Eksperyment jest w toku, wstępne wyniki, nawet tak optymistyczne jak ogłoszone kilka dni temu, wciąż nie przesądzają ostatecznie sprawy. Zdaniem ekspertów, trzeba poczekać jeszcze wiele miesięcy, żeby zgromadzić tyle danych, by statystyka pomiarów nie budziła żadnych zastrzeżeń i by wiedzieć, co ostatecznie odkryto. Jednym z najważniejszych zagadnień współczesnej fizyki jest zunifikowanie wszystkich oddziaływań fizycznych w jedno oddziaływanie. Przypuszcza się, że zaraz po Wielkim Wybuchu, w tzw. erze Plancka, gdy obecnie znane prawa fizyki zaczęły obowiązywać (temperatura Wszechświata wynosiła wówczas 1033 st.C), istniało tylko jedno „super-oddziaływanie” fizyczne, które potem – w miarę spadania temperatury – rozpadło się na cztery znane obecnie oddziaływania: grawitacyjne, elektromagnetyczne oraz silne jądrowe i słabe jądrowe. LHC jest w stanie osiągnąć temperaturę rzędu 1016 st.C. To jeszcze bardzo daleko do temperatury ery Plancka: aż 17 rzędów wielkości! Osiągnięcie takiej temperatury w przewidywalnej przyszłości nie wydaje się możliwe. Nie możemy więc zobaczyć super-oddziaływania przy pomocy LHC. Możemy jednak mieć nadzieję, że uda się zidentyfikować jakiś jego skutek. Tzw. teoria supersymetrii przewiduje, że takim skutkiem są cząstki cięższe od obecnie znanych. Najlżejsze z nich mogłyby dotrwać do ery, w której temperatura wynosi 1016 st.C. Fizycy z CERN-u polują na takie „supersymetryczne” cząstki. Gdyby udało się je wykryć, byłaby to pierwsza empiryczna wskazówka, w którym kierunku szukać superunifikacji. Wymieńmy już tylko jednym tchem kilka dalszych problemów, których rozwiązania lub częściowego rozwiązania możemy oczekiwać od LHC. Zderzenia już nie „pojedynczych” protonów, lecz protonów (i neutronów) upakowanych w jądro ołowiu prowadzą do rozpadu protonów na kwarki i gluony. Ich mieszanina, kwarkowo-gluonowa plazma, wypełniała Wszechświat w bardzo wczesnych fazach jego ewolucji. Nie trzeba dodawać, jak bardzo to interesuje kosmologów. Jakiś czas temu sądzono, że Wszechświat składa się w połowie z materii i w połowie z antymaterii. Dziś wiemy, że nie. W laboratoriach potrafimy produkować antycząstki, a nawet już pierwsze antyatomy. Wiemy, że w przestrzeni kosmicznej istnieją antycząstki, ale jak wiele? I czy nie ma antyatomów? Kosmologiczne i astrofizyczne obserwacje wskazują, że materia, którą znamy z codziennego doświadczenia i z której jesteśmy zbudowani (tzw. materia barionowa), stanowi jedynie ok. 4 proc. całego budulca Wszechświata. Przypuszcza się, że 23 proc. to tzw. ciemna materia, a 73 proc. – ciemna energia. Ale co je tworzy? Toniemy w domysłach. LHC ma oczy otwarte i na te zagadnienia. *** Jeżeli ktoś miałby wątpliwości co do tego, czy Bóg myśli matematycznie, niech odwiedzi CERN i spróbuje sięgnąć myślą poza kolorowe plansze, gęsto tam porozwieszane. Już uważna lektura wyjaśnień na planszach da sporo do myślenia. Nawet ci spośród fizyków pracujących w CERN-ie, którzy nie wierzą w Boga, nie mają wątpliwości, że myśli On matematycznie. Fragmenty Jego zamysłu, wyssane ze struktury Wszechświata przez wymyślne eksperymenty, krążą w komputerowych sieciach ciasno oplatających wszystkie urządzenia CERN-u i rozchodzą się do wielu naukowych instytutów na świecie. Zbiorowy wysiłek uczonych odczytuje poszczególne sylaby przesłania i składa z nich przejmującą treść. Treść jest przejmująca, bo nie jest jak zwykły tekst, który się czyta i stara zapamiętać. Ten tekst to pełen dynamiki Logos, dzięki któremu myślimy, żyjemy i jesteśmy.  
Ks. MICHAŁ HELLER jest kosmologiem i filozofem, laureatem Nagrody Templetona, przyznawanej za pokonywanie barier między nauką a religią. Stały współpracownik „TP”, autor ponad 30 książek.

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp kwartalny

Kwartalny dostęp do TygodnikPowszechny.pl
  • Natychmiastowy dostęp
  • 92 dni dostępu = aż 13 numerów Tygodnika
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
89,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]
Kosmolog, filozof i teolog. Profesor nauk filozoficznych, specjalizuje się w filozofii przyrody, fizyce, kosmologii relatywistycznej oraz relacji nauka-wiara. Kawaler Orderu Orła Białego. Dyrektor, fundator i pomysłodawca Centrum Kopernika Badań… więcej

Artykuł pochodzi z numeru TP 29/2012