Idea, która zmieniła świat

Historia pojęcia „mechanizm” to opowieść o naszej odwiecznej fascynacji maszynami i pragnieniu zrozumienia tajemnic życia i umysłu. To także historia wielkich przełomów naukowych i śmiałych eksperymentów myślowych.

14.05.2024

Czyta się kilka minut

Natalia Polasik „Na celowniku postępu”, 2024 r.

Richard Feynman (1918-1988) powiadał, że nie potrafi zrozumieć czegoś, czego nie umie zbudować. Nie on pierwszy. Idea, że możemy pojąć świat na podobieństwo maszyn, które budujemy, zrodziła się już w starożytności. Niestety, wzięta dosłownie, jest ewidentną nieprawdą – nikt przecież tak naprawdę nie rozumie, dlaczego stworzony przez ludzi Chat GPT udzielał nam zdawkowych odpowiedzi w okresie świątecznym, chociaż wcześniej był gadatliwy i „pracowity”. Twórca czasem naprawdę nie rozumie swojego dzieła. Niemniej, mechanicystyczne podejście często pozwala nam zrozumieć rzeczywistość, a wraz z rozwojem techniki zmienia się nasze postrzeganie samych mechanizmów.

Idea mechanizmu pobudzała wyobraźnię i rodziła śmiałe hipotezy – od starożytnych legend o mechanicznych słowikach i gadających posągach, przez renesansowe zegary i XVIII-wieczne automaty grające na flecie, po współczesne komputery i roboty. Jednocześnie rodziła gorące spory filozoficzne. Czy jesteśmy tylko bezwolnymi trybikami w maszynie wszechświata? Czy można zredukować piękno muzyki lub miłosny wiersz do bezdusznej mechaniki? Czy da się zbudować maszynę, która będzie myśleć i czuć jak człowiek?


PROGRAM COPERNICUS FESTIVAL 2024: Wykłady i warsztaty rodzinne, rozmowy i pasma filmowe, wystawy i wiele więcej. Sprawdź wszystkie wydarzenia tegorocznej edycji COPERNICUS FESTIVAL: MASZYNA i wybierz z naszych propozycji coś dla siebie


Teatr ziemski, teatr niebiański

Archimedes, wybitny grecki matematyk i wynalazca żyjący w III wieku p.n.e., nie tylko wyskoczył z wanny po odkryciu prawa wypierania cieczy, ale także sformułował prawo dźwigni, które mówi, że aby dźwignia pozostawała w równowadze, iloczyn siły i długości ramienia po jednej stronie punktu podparcia musi być równy iloczynowi siły i długości ramienia po drugiej stronie. Dzięki temu odkryciu zrozumiano, że za pomocą dźwigni można podnosić ciężkie przedmioty, przykładając niewielką siłę na dłuższym ramieniu. Jego prace pozwoliły wyjaśnić działanie wielu prostych maszyn i narzędzi używanych od wieków, takich jak kołowrót, blok, klin czy śruba. Archimedesowi przypisuje się stwierdzenie: „Dajcie mi punkt podparcia, a poruszę Ziemię”.

Dźwignie to maszyny proste. Ale w starożytności powstawały też zadziwiająco skomplikowane urządzenia. Weźmy słynny mechanizm z Antykithiry – służący do obliczania ruchów ciał niebieskich, zbudowany z setek brązowych kół zębatych. Jaki geniusz stał za jego powstaniem? Jakie obliczenia potrafił wykonywać? Jego przeznaczenie pozostaje zagadką, ale jedno jest pewne – mechanizm z Antykithiry to dowód, że już w II wieku p.n.e. istniały umysły zdolne pojąć i odtworzyć matematyczną harmonię sfer niebieskich. Do dzisiaj nie wiemy, jak zdołano je zbudować.

Starożytny Rzym też ma się czym pochwalić. Wyobraźmy sobie uczty w pałacach patrycjuszy, gdzie goście raczyli się winem nalewanym przez automaty. Albo teatry, gdzie bogowie pojawiali się na scenie, poruszani ukrytymi linkami i kołowrotami. Budziły podziw i trwogę. Czyż nie były dowodem boskiej mocy, która umie tchnąć życie w martwy metal?

Tak właśnie postrzegano automaty w starożytności – jako dzieła boskiej inżynierii, zesłane przez Hefajstosa lub Wulkana. Dziś wiemy, że za tymi cudami stali ludzie – genialni wynalazcy tacy jak Ktesibios czy Heron z Aleksandrii. Ówczesne automaty były kruche, zawodne, uzależnione od siły mięśni lub przepływu wody. Brakowało im precyzji i mocy obliczeniowej współczesnych komputerów. Heron potrafił zbudować teatr automatów, ale nie sztuczny umysł. Jego maszyny mogły odgrywać zaprogramowane sceny, ale nie były w stanie uczyć się ani myśleć.

Dokonania starożytnych podsuwają też najważniejszą bodaj myśl mechanicyzmu: że złożone zjawiska powstają w wyniku wielu prostych oddziaływań między prostymi składnikami. Uważali tak już atomiści, torując drogę późniejszemu redukcjonizmowi, ale nie łączyli tego z prawami odkrytymi przez Archimedesa. Na rozumienie świata w takich kategoriach było jeszcze trochę za wcześnie. Ale wynalazki starożytne przyczyniły się do rozwoju kolejnych maszyn, takich jak coraz doskonalsze młyny budowane w średniowieczu – czy wreszcie prasy drukarskie.


WIELKIE WYZWANIA: ANTROPOCEN

Przyglądamy się największym wyzwaniom epoki człowieka oraz drodze, która zaprowadziła nas od afrykańskich sawann do globalnej wioski. Omawiamy badania naukowe i dyskusje nad interakcjami między człowiekiem i innymi elementami przyrody – zarówno tymi współczesnymi, jak i przeszłymi.


Kartezjusz, kaczki i kłopoty z duszą

Przenieśmy się teraz do XVII-wiecznej Europy, gdzie wśród peruk, koronek i barokowych zdobień kiełkują nowe, rewolucyjne idee. Jedna z nich to nowożytny mechanicyzm – pogląd, że cały wszechświat, włącznie z żywymi organizmami, to w gruncie rzeczy maszyna, którą można opisać za pomocą praw fizyki. Ta myśl przychodzi wraz z narodzinami nowożytnej nauki, a jednym ze sprawców tej rewolucji jest René Descartes (1596-1650), znany też jako Kartezjusz.

Kartezjusz, genialny matematyk, tworzy geometrię analityczną – od tej pory możemy nie tylko tworzyć dowody konstrukcyjne, ale też posługiwać się układem współrzędnych. Przestrzeń zaczyna lubić się z arytmetyką. Co znaczy, że możemy też precyzyjnie wyjaśniać ruchy ciał – traktując je jak mechanizmy, które popychają się w przestrzeni geometrycznej. Kartezjusz do tego stopnia zawierza tej koncepcji, że odrzuca mechanikę Newtona z tajemniczą – bo niedającą się ująć w kategoriach popychających się trybików – grawitacją. W zamian proponuje kuriozalną dzisiaj teorię wirów.

Zwierzęce i ludzkie ciała to też maszyny, które kartezjaniści chcą rozumieć jako automaty reagujące na bodźce niczym dobrze zaprojektowany zegar. Zdaniem Kartezjusza układ nerwowy jest zbiorem łuków odruchowych, łączących bodźce z reakcjami. Takie postrzeganie tego układu pozostaje wpływowe do dzisiaj.

Kartezjusz dochodzi jednak do wniosku, że podczas gdy można stworzyć maszynę zachowującą się jak zwierzę, to nie powstanie nigdy machina, która potrafiłaby opanować język lepiej niż papuga. Język i myśl wymykają się wyjaśnianiu na modłę geometryczną, a więc nie można ich traktować jako obiektów przestrzennych. W odróżnieniu od ciała rzecz myśląca jest poza przestrzenią. Ten kartezjański dualizm wyrasta w istocie z refleksji nad ograniczeniami ówczesnego mechanicyzmu.

Nie wszyscy uznają te ograniczenia. Thomas Hobbes (1588-1679), enfant terrible angielskiej filozofii, idzie znacznie dalej. Dla niego nawet ludzkie myślenie to rodzaj obliczania, ważenia racji i sumowania bodźców. Gottfried Leibniz (1646-1716), matematyczny geniusz, marzy o uniwersalnym języku myśli, w którym rozumowanie sprowadza się do przekształcania symboli według ustalonych reguł. Brzmi to znajomo? Oto pierwsze zwiastuny komputacjonizmu, idei głoszącej, że umysł działa na wzór programu komputerowego czy algorytmu.

Tymczasem w realnym świecie powstają coraz bardziej wyrafinowane automaty. Doskonalą się zegary. Jacques de Vaucanson (1709-1782), nieodrodny syn epoki rozumu, konstruuje słynną mechaniczną kaczkę. Sztuczny ptak, który je, trawi i wydala – czyż nie jest dowodem, że organizmy to tylko bardzo wymyślne maszyny? Vaucanson staje się bohaterem paryskich salonów, symbolem triumfu ludzkiej pomysłowości nad tajemnicami natury.

Mózgi, szczury i roboty

Nauka i technika nabierają rozpędu w XIX wieku. Rodzą się nowe idee. Do lamusa odchodzi stary mechanicyzm, odrzucający wszystko, co nie daje się sprowadzić do lokalnych oddziaływań. Redukcja złożoności do prostych maszyn okazuje się nie do przeprowadzenia.

Fizyka odkrywa pole magnetyczne, którego nie można wyjaśnić w kategoriach mechanicznych oddziaływań, jak zderzenia czy naciski. Pole magnetyczne oddziałuje na ładunki elektryczne i inne magnesy na odległość, bez bezpośredniego kontaktu. Inaczej niż maszyny proste.

Termodynamika wprowadza do słownika nauki pojęcia entropii i nieodwracalności procesów. Procesy termodynamiczne, takie jak przepływ ciepła czy praca, nie dają się opisać za pomocą prostych zmian i zderzeń. Co więcej, procesy nieodwracalne nie są do pogodzenia z odwracalnymi prawami mechaniki.

Wreszcie szczególna teoria względności Einsteina z 1905 r. podważa istnienie absolutnej przestrzeni i czasu, fundamentalnego założenia mechaniki Newtona. Okazało się, że interwały czasowe i przestrzenne zależą od układu odniesienia obserwatora. Pojawiły się też efekty relatywistyczne, niemożliwe do wyjaśnienia na gruncie klasycznej mechaniki.

Pozostaje więc albo odrzucić mechanicyzm, albo postrzegać mechanizmy w świetle zupełnie nowych maszyn, zastępujących rzekome siły duchowe. Karol Darwin (1809-1882) rewolucjonizuje biologię, proponując teorię ewolucji drogą doboru naturalnego. Organizmy nie są już postrzegane jako dzieła boskiego zegarmistrza, ale jako wytwory ślepego, mechanicznego procesu selekcji. Cechy sprzyjające przetrwaniu i reprodukcji są przekazywane kolejnym pokoleniom, prowadząc do stopniowych zmian i adaptacji. Odkrycia Gregora Mendla (1822-1884) dotyczące dziedziczenia cech groszku położyły podwaliny pod genetykę. Gdy już w XX w. dokonano syntezy darwinizmu z mendelizmem, powstała zunifikowana teoria ewolucji, tłumacząca zarówno zmienność, jak i dziedziczność cech w kategoriach czysto mechanicznych. Geny zaczęto rozumieć jako nośniki informacji podlegające bezlitosnym prawom doboru, niczym trybiki w maszynie życia. Tak oto biologia wkroczyła w erę mechanicyzmu.

W takiej mechanistycznej biologii pojawia się np. koncepcja neuronu – podstawowej jednostki układu nerwowego, odkrytej przez Ramóna y Cajala (1852-1934). Neuron jawi się jako rodzaj żywego przełącznika, przekazującego impulsy niczym telegrafista depeszę. A może cały mózg to rodzaj sieci telegraficznej, po której mkną sygnały między nadawcą a odbiorcą?

Tak właśnie myślą asocjacjoniści, tacy jak Alexander Bain (1818-1903). Dla nich umysł to sieć skojarzeń, gdzie każda myśl wywołuje kolejną na zasadzie mechanicznego odruchu. Uczenie się? To nic innego jak wzmacnianie połączeń między neuronami, niczym wydeptywanie ścieżki w gąszczu mózgu. Bain idzie o krok dalej i buduje model „sztucznego neuronu” z przewodów i baterii. Czy to pierwowzór współczesnych sieci neuronowych?

Inni próbują symulować mózg za pomocą rurek i zaworów. Tak jak hydraulicy kontrolują przepływ wody, tak może dałoby się regulować przepływ myśli? Zygmunt Freud (1856-1939), młody neurolog zafascynowany maszynami, widzi w umyśle system naczyń połączonych, gdzie popędy i emocje krążą niczym ciecze pod ciśnieniem. Ale czy da się zredukować całą złożoność psychiki do prostej gry sił i przepływów? Freud w ostateczności porzuca tę ideę.

Tymczasem w Ameryce Edward Thorndike (1874-1949) zamyka głodne koty w klatkach i każe im naciskać dźwignie w zamian za rybę. Tak rodzi się behawioryzm – teoria, która jak Kartezjusz widzi w zwierzętach i ludziach automaty reagujące na bodźce według prostych reguł, lecz bez żadnych wyjątków dla rzekomo nieprzestrzennej rzeczy myślącej. Dla Thorndike’a uczenie się to nic innego jak wzmacnianie pożądanych odruchów za pomocą nagród i kar.

Atraktory, bifurkacje, emergencje

Rozwijająca się matematyka i potrzeby wojska w trakcie dwóch wojen światowych inspirują idee, które zrewolucjonizują nasze myślenie o umyśle i maszynie. Jedną z najważniejszych jest cybernetyka – nauka o sterowaniu, komunikacji i przetwarzaniu informacji w złożonych systemach.

Jednak zanim zagłębimy się w świat cybernetyki, musimy poznać Alana Turinga (1912-1954). Ten genialny matematyk, łamacz hitlerowskiej Enigmy i ojciec informatyki, dokonuje czegoś, co jeszcze niedawno wydawało się niemożliwe – tworzy teorię uniwersalnej maszyny liczącej. To mechanizm, który potrafi symulować dowolny inny mechanizm, o ile tylko dostanie odpowiedni program. Czyż to nie przepis na sztuczną inteligencję? To właśnie Turing w 1950 r. proponuje, żeby o maszynach mówić w kategoriach inteligencji, a nie myślenia. Jeszcze nie „sztucznej inteligencji”, ale ten termin pojawi się już kilka lat po jego śmierci. Turing stawia prowokacyjne pytanie: czy maszyna może być inteligentna? Jego słynny test zakłada, że jeśli komputer rozmawia w sposób nieodróżnialny od człowieka, to musimy przypisać mu inteligencję.

Tymczasem grupa naukowców, inżynierów i wizjonerów tworzy nową naukę – cybernetykę. Jej ojcowie chrzestni to Norbert Wiener (1894-1964), Claude Shannon (1916-2001)  i Warren McCulloch (1898-1969). Ich wspólną obsesją są sprzężenia zwrotne – pętle, w których skutek wpływa z powrotem na kolejną przyczynę. Tak jak termostat reguluje temperaturę, tak mózg kontroluje zachowanie za pomocą ciągłych sprzężeń między percepcją a działaniem. Wszystko to opisuje teoria informacji Shannona – matematyczny język, w którym myśli stają się bitami.

Cybernetycy marzą o stworzeniu maszyn, które będą uczyć się i adaptować do otoczenia tak jak żywe organizmy. William Grey Walter (1910-1977) buduje słynne „żółwie” – proste roboty wyposażone w fotokomórki, reagujące na światło i dźwięk (podobieństwo do dzisiejszych robotów sprzątających jest uderzające). Żółwie Waltera to nie tylko zabawki, ale także modele minimalnego zachowania celowego. Pokazują, jak proste reguły i sprzężenia zwrotne mogą prowadzić do złożonych, adaptacyjnych strategii.

Ross Ashby (1903-1972), psychiatra zafascynowany teoriami systemów, tworzy homeostat – maszynę, która potrafi utrzymywać stabilny stan wewnętrzny pomimo zakłóceń z otoczenia. Czy to model ludzkiej psychiki, ciągle oscylującej między równowagą a chaosem? A może prototyp samoorganizującej się sztucznej inteligencji? Ashby wierzy, że kluczem do zrozumienia umysłu jest teoria systemów dynamicznych – matematyka atraktorów, bifurkacji i emergencji.

Ale prawdziwą rewolucję przynosi rozwój komputerów cyfrowych. Powstają maszyny przetwarzające nie tylko liczby, ale też symbole, reguły, algorytmy. Programy komputerowe stają się nowym modelem procesów umysłowych – sekwencjami instrukcji, które transformują informacje krok po kroku. Mózg jawi się teraz jako biologiczny komputer, neuron jako bramka logiczna, a myśl jako obliczenie.

Sztuczna inteligencja to dziś już nie tylko marzenie wizjonerów, ale rzeczywistość. Algorytmy głębokiego uczenia rozpoznają obrazy, tłumaczą języki czy grają w szachy i go lepiej niż mistrzowie świata. Chatboty prowadzą swobodne konwersacje, a wirtualni asystenci organizują nam życie. Czy to oznacza, że maszyny rzeczywiście myślą? Wszystko zależy od tego, jak zdefiniujemy „myślenie”. Jeśli chodzi o manipulację symbolami według określonych reguł – tak, komputery są w tym mistrzami. Turing nie miałby wątpliwości, że są do pewnego stopnia inteligentne, chociaż współczesna sztuczna inteligencja pozostaje osobliwie ślepa na prawdę – temu, co umie wygenerować, zdarza się mocno odbiegać od rzeczywistości.

Mechanicyzm 2.0

Czy mechanicyzm, wielki projekt wyjaśnienia życia i umysłu w kategoriach maszyn, przetrwał próbę czasu? Odpowiedź brzmi: tak, ale w nowej, ulepszonej wersji. To mechanicyzm 2.0.

Oto bowiem na naszych oczach dokonuje się prawdziwy renesans myślenia mechanistycznego we współczesnej filozofii nauki. Tacy myśliciele jak William Bechtel (ur. 1951), Carl Craver (ur. 1969) czy Gualtiero Piccinini (ur. 1970) przekonują, że najlepszą drogą do zrozumienia złożonych systemów – w tym mózgu i umysłu – jest poszukiwanie ich wewnętrznych mechanizmów. Ale uwaga – nie chodzi tu o proste, zegarowe mechanizmy rodem z XVII w. Nauka posługuje się nowym pojęciem mechanizmu – jako zorganizowanego procesu, którego struktura części i oddziaływań odpowiada za interesujące nas zjawiska. Pojęcie mechanizmu występuje często w naukach o życiu – gdzie teoria ewolucji ostatecznie wyrugowała już pozostałości witalizmu wiążącego organizmy z rzekomą iskrą życiową. Pojawia się też w naukach społecznych, kognitywistyce, inżynierii. Wszędzie tam, gdzie mamy do czynienia ze strukturami przyczynowymi.

Mechanicyzm 2.0 nie rości sobie już prawa do wyłączności – jest jasne, że nie wszystko wyjaśnimy w kategoriach mechanistycznych. Kiedy pytamy, dlaczego należy normy prawne interpretować tak, a nie inaczej, odwołujemy się do idealnej racjonalności wyidealizowanego prawodawcy, a nie do faktycznego przebiegu procesów stanowienia prawa. Współcześni mechanicyści nie mają też ambicji, żeby mechanistycznie wyjaśniać wszystkie zjawiska fizyczne. Pojęcie mechanizmu staje się zaś bardzo ogólne: wystarcza przyczynowo zorganizowana struktura procesu odpowiedzialna za jakieś zjawisko, aby można mówić o mechanizmie.

Nowe pytania, stare odpowiedzi

Uderzająca jest plastyczność i adaptacyjność samego pojęcia „mechanizm”. Zaczynaliśmy od prostych układów przestrzennych – kół zębatych, dźwigni, sprężyn, które może opisać kartezjańska geometria. Wraz z rozwojem technologii nasze wyobrażenia o mechanizmach ewoluowały – od zegarów i automatów, przez maszyny parowe i silniki, po komputery i sieci neuronowe. Za każdym razem nowe narzędzia dostarczały nowych modeli służących do rozumienia świata.

Ta ewolucja pojęciowa szła w parze z postępującym poszerzaniem zakresu mechanistycznych wyjaśnień. Od najprostszych odruchów i zachowań, przez percepcję i pamięć, po język, rozumowanie, a nawet świadomość – kolejne bastiony umysłu padały pod naporem redukcjonistycznych teorii. Oczywiście, nie bez oporów i kontrowersji. Wciąż toczy się debata, czy mechanicyzm potrafi uchwycić to, co w umyśle najbardziej zagadkowe. Sceptycy argumentują, że zawsze pozostanie jakaś niewyjaśniona reszta, wymykająca się obiektywizacji. Ale zwolennicy nie tracą nadziei – wierzą, że w miarę postępu nauki i techniki zakres mechanistycznego wyjaśnienia będzie się poszerzał, aż obejmie wszystko, nawet całość naszego życia psychicznego.

Czy mają rację? Czy czeka nas świt ery, w której umysł zostanie ostatecznie zredukowany do algorytmów i równań? Trudno wyrokować, gdyż żadna teoria naukowa nie jest odporna na ząb czasu i może ulec rewizji czy nawet zostać porzucona. Ale jest kilka powodów do ostrożnego optymizmu. Po pierwsze, dotychczasowe sukcesy podejścia mechanistycznego – od odkrycia odruchów, przez teorie przetwarzania informacji, po współczesne modele kognitywne. Po drugie, postęp w dziedzinach takich jak neuronauka obliczeniowa, uczenie maszynowe czy robotyka, dostarczający coraz lepszych narzędzi do badania i symulowania procesów umysłowych. I po trzecie, sama atrakcyjność i płodność mechanistycznej wizji – jej wielka moc inspirowania nowych pytań, eksperymentów, teorii.


 

 

Projekt dofinansowany ze środków budżetu państwa, przyznanych przez Ministra Nauki i Szkolnictwa Wyższego w ramach Programu „Społeczna Odpowiedzialność Nauki II”.

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp roczny

365 zł 95 zł taniej (od oferty "10/10" na rok)

  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
269,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]
Marcin Miłkowski to kognitywista i filozof, dr hab., profesor nadzwyczajny w Instytutcie Filozofii i Socjologii Polskiej Akademii Nauk, wykłada na Uniwersytecie Warszawskim. Zajmuje się zagadnieniami filozofii kognitywistyki, w szczególności mechanistycznym i… więcej

Artykuł pochodzi z numeru Nr 20/2024

Artykuł pochodzi z dodatku „Copernicus Festival 2024: Maszyna