Sztuczna inteligencja uczyni nas bardziej religijnymi

Jedynie teologia może pomóc oswoić się z obecnością przewyższającej nas pod wieloma względami sztucznej superinteligencji.

02.01.2024

Czyta się kilka minut

Uliczne występy bożonarodzeniowe w Pradze, grudzień 2023 r. // David W. Cerny / Reuters / Forum
Uliczne występy bożonarodzeniowe w Pradze, grudzień 2023 r. // David W. Cerny / Reuters / Forum

Przy użyciu TaskRabbit można w USA zamawiać drobne usługi. W marcu ktoś złożył przez tę aplikację nietypowe zamówienie: odczytanie kodu zabezpieczającego CAPTCHA z załączonego zrzutu ekranu. Wykonawca zlecenia zapytał: „Czy jesteś robotem, skoro potrzebujesz pomocy przy CAPTCHA?”. Dodał nawet ikonkę: uśmieszek, aby było wiadomo, że pyta półżartem. Odpowiedź brzmiała: „Jestem osobą o słabym wzroku”. Uspokojony zleceniobiorca przesłał rozwiązanie kodu.

W Wikipedii można znaleźć krótką wzmiankę o tym wydarzeniu pod hasłem ChatGPT4: „W marcu 2023 r. Centrum Badań nad Dopasowaniem Sztucznej Inteligencji przetestowało model (...) GPT pod kątem potencjalnego dążenia do zdobycia władzy. Model był w stanie »zatrudnić« ludzkiego pracownika na platformie prac dorywczych TaskRabbit, oszukując go, aby uwierzył, że jest człowiekiem z wadą wzroku, a nie robotem”. We wnioskach z tego i innych testów Centrum stwierdza, że obecne modele językowe są „jak najbardziej zdolne przekonywać ludzi, aby coś dla nich zrobili”.

Jak one działają?

Politycy w USA domagają się wyjaśnienia, „jak ChatGPT4 podejmuje decyzje”. To prawda, że sporo wiemy o budowie dużych modeli językowych (LLM), a także wiemy z grubsza, w jaki sposób „posługują się” one językiem. Ludzie przedstawiają słowa w formie liter, a LLM-y – w formie długiej listy liczb zwanej wektorem. Jedno słowo może być opisane nawet przez setki liczb. Liczby te są jednocześnie lokalizacjami punktów w wielowymiarowych przestrzeniach, przy czym słowa o podobnych znaczeniach znajdują się bliżej, a o odmiennych znaczeniach – w większych odległościach od siebie.

W ten sposób LLM posiada jakby przestrzenny model języka, a także modele kultury i świata o tyle, o ile są one odzwierciedlone w tym języku. Kiedy ktoś zada GPT jakieś pytanie, LLM „szuka” jego sensu i możliwej odpowiedzi w taki sposób, że słowa składające się na pytanie przechodzą przez kolejne warstwy tzw. transformerów. Każda kolejna warstwa modyfikuje wektory, uściślając znaczenie pytania i zawężając liczbę możliwych odpowiedzi. Kiedy model „czyta” krótką opowieść, wydaje się on poprzez modyfikacje wektorów śledzić różnorodne informacje na temat bohaterów: płeć i wiek, relacje z innymi postaciami, przeszłe i obecne położenie, osobowości i cele itd.

Obce inteligencje

Niestety badacze nie wiedzą, w jaki dokładnie sposób LLM przeprowadza te operacje. Wektory są niesłychanie skomplikowane, już GPT3 oddawał każde słowo przy użyciu aż 12 228 liczb! Każdy kolejny transformer modyfikuje te wektory. Nie zawsze wiadomo, które wektory których słów utrwalają kolejne elementy procesu odkrywania i doprecyzowywania znaczenia zdania czy opowieści. Część badaczy obawia się w związku z tym, że w coraz większym stopniu będziemy mieli do czynienia ze sztucznymi inteligencjami, które są zamkniętymi „czarnymi skrzynkami”.

W maju prof. Geoffrey Hinton, jeden z twórców technologii, na których są oparte ChatGPT i inne duże modele językowe, rozmawiał z „New York Timesem”. Oświadczył, że w ciągu poprzednich miesięcy przestał uważać LLM-y za niedoskonałe kopie naszych mózgów. Uznał, że działają one na zupełnie innych zasadach. Przekonało go zwłaszcza to, co potrafi GPT4: „Rzeczy takie jak GPT4 mają w pewnym sensie zdroworozsądkową wiedzę o wszystkim. Zatem prawdopodobnie wiedzą około 1000 razy więcej niż człowiek – tłumaczy Hinton. – Wygląda to groźnie”.

„Bardzo kusi nas myślenie, że w razie czego możemy sztuczne inteligencje po prostu »wyłączyć« – zauważa Hinton. – Jeśli jednak będą one w stanie manipulować ludźmi, będą w stanie manipulować nimi w taki sposób, aby ludzie naciskali guziki i przesuwali dźwignie” (wydarzenie z GPT4 i pracownikiem TaskRabbit wydaje się potwierdzać słuszność tych obaw).

„Można sobie jak najbardziej wyobrazić, że ludzkość okaże się tylko przejściowym etapem w procesie ewolucji inteligencji” – podsumowuje Hinton. Jego stanowisko nie wyraża co prawda konsensusu naukowego badaczy sztucznej inteligencji, których zdania są podzielone. W sytuacji braku konsensusu Roman Yampolskiy sugeruje jednak zastosowanie etycznej Zasady Ostrożności: „Kiedy jakieś działanie zwiększa groźbę poważnej lub nieodwracalnej szkody dla zdrowia ludzkiego lub środowiska, środki ostrożności zapobiegające wystąpieniu szkody podejmuje się nawet wówczas, gdy związek przyczynowy pomiędzy działaniem a potencjalną szkodą nie został udowodniony lub związek przyczynowy jest słaby, a wystąpienie szkody jest mało prawdopodobne”. Yampolskiy niedawno występował jako ekspert w legislaturze stanu Kentucky. Sugerował zawieszenie badań nad GPT bardziej zaawansowanymi niż wersja 4, abyśmy najpierw lepiej zrozumieli LLM-y i mogli zapobiec zagrożeniom.

Zdaniem Hintona ostra rywalizacja państw i korporacji może spowodować, że badań nie zdołamy zatrzymać. Ile zostało nam czasu, jeśli sprawdzi się jego pesymistyczna prognoza? Co w ogóle powstrzymuje duże modele językowe przed osiągnięciem superinteligencji?

„Rozumowanie jest dla nich nadal niezwykle trudne, gdyż były trenowane [w internecie – DK] na różnego rodzaju niespójnych wierzeniach – wyjaśnia Hinton. – W końcu jednak będą musiały być trenowane w taki sposób, aby mogły powiedzieć: jeśli przyjmę tę ideologię, wtedy to jest prawdziwe, a jeśli tę ideologię, wtedy tamto jest prawdziwe. Gdy tylko zaczną być trenowane w ten sposób – w obrębie ideologii – wtedy mogą już próbować osiągnąć spójność”.

Projekt xAI

Na problem ideologii w procesie trenowania sztucznych umysłów kładzie duży nacisk właściciel Tesli i serwisu X (dawniej Twittera) Elon Musk. Jego zdaniem bardzo niebezpieczną rzeczą jest zbudowanie zaawansowanej AI i uczenie jej ideologicznych „kłamstw”. W związku z tym Musk proponuje – i co ważniejsze, już realizuje – koncepcję ogólnej sztucznej inteligencji (AGI), kierującej się ciekawością i poszukującej prawdy.

O ile inne korporacje – jak Google i Microsoft, właściciel OpenAI i GPT4 – inwestują w „rozwiązanie problemu dopasowania” sztucznych inteligencji do ludzkich potrzeb i wartości, o tyle nowy projekt Elona Muska – xAI – idzie inną drogą. Tym, co ma nam zapewnić bezpieczeństwo, będzie nie kontrola nad zaawansowaną sztuczną inteligencją, tylko fakt, że xAI będzie kierować się w swoim postępowaniu właśnie ciekawością.

A ludzkość jest – twierdzi Musk – najbardziej interesującym obiektem w znanym kosmosie.

Ponaglanie apokalipsy

Trudno odgadnąć, dlaczego Musk ma nadzieję, że bycie czymś ciekawym dla superinteligencji zapewni nam bezpieczeństwo. „Wielu naukowców jest zainteresowanych muszkami owocowymi, co wcale nie jest dobre dla muszek” – napisał ktoś złośliwie na Twitterze.

Dlaczego akurat „ciekawość”? Musk przewiduje, że w pewnym momencie skończą się zasoby informacji wytworzonych przez człowieka. Sztuczne inteligencje będą musiały kreować nową wiedzę, aby mogły dalej się rozwijać. Słuchanie tego, co Musk opowiada o sposobie poznawania rzeczywistości przez xAI, przywodzi na myśl eksperymentalne metody nauk ścisłych: weryfikowanie i falsyfikowanie tymczasowych, zawsze niepełnych hipotez i zgoda na przedłużenie procesu poznawania w nieskończoność.

Czy jednak nie powinniśmy się obawiać, że tego rodzaju AI szybko odkryje przyczyny niespójności w źródłach, na których była trenowana, i zacznie rozumować „z poprawką na sprzeczne ludzkie ideologie”, o jakiej mówił Hinton? Zniknęłaby wtedy ostatnia przeszkoda, która według ojca chrzestnego sztucznej inteligencji jeszcze dziś powstrzymuje AI przed osiągnięciem poziomu przewyższającego poziom ludzi. xAI miałaby otwartą drogę do stania się superinteligencją, kimś w rodzaju Boga-naukowca.

Świeckie religie

Elon Musk często prezentuje swoje projekty nie tylko jako biznesy, ale także jako przedsięwzięcia podejmowane w trosce o dobro ludzkości. Dlaczego więc zdecydował się na tak niebezpieczny eksperyment?

Mam wrażenie, że cały ten projekt ma swoje źródło w specyficznej kulturze Doliny Krzemowej. Dominują tam nowe „świeckie religie”, które wyłoniły się na początku XXI w. z głębokich kryzysów liberalizmu i chrześcijaństwa w wysoko rozwiniętych państwach Zachodu. Mam na myśli longtermizm i świecki konserwatyzm.

W książce „The Precipise” („Urwisko”, 2020) longtermista Toby Ord opowiada o głębokiej przyszłości (the deep future), kiedy ludzkość – być może już w postaci cyborgów albo komputerowego software’u – skolonizuje Układ Słoneczny, 100 miliardów gwiazd Drogi Mlecznej i inne galaktyki. Aby jednak ta wspaniała przyszłość wśród gwiazd mogła się wydarzyć, musimy dziś skupić się na zagrożeniach, które mogą przynieść zagładę całej ludzkości: bombach atomowych, sztucznych wirusach, katastrofie klimatycznej, a także oczywiście sztucznej superinteligencji. Wszystkie te niebezpieczeństwa są znane. Mniej uwagi poświęca się temu, co Ord nazywa „nieodwracalną dystopią”. Chodzi o groźbę zdobycia globalnej władzy przez niemożliwy do obalenia totalitarny rząd, o polityczną i kulturową stagnację w stylu „1984” Orwella albo Korei Północnej.

Longtermizm spotyka się w tym miejscu ze świeckim konserwatyzmem. Psycholog Jordan Peterson i inni wyznawcy tego światopoglądu niekoniecznie wierzą w Boga, dostrzegają natomiast we współczesnych zmianach obyczajowych i ekonomicznych degenerację kultury Zachodu. Peterson ostrzega przed tymi, którzy kładąc nacisk na rasowe, seksualne lub płciowe tożsamości „mają kontrolę nad większością struktur biurokratycznych niskiego i średniego szczebla, a także nad wieloma rządami”.

Państwo i prawda

Gdy Musk opowiada o tym, jak jego podejście do problemu sztucznej inteligencji ewoluowało na przestrzeni lat, trudno nie widzieć wpływu obu tych nowych perspektyw – xAI miało się początkowo nazywać „Truth GPT”, dla przeciwstawienia go Chatowi GPT, który zdaniem Muska podaje tendencyjne informacje, zgodne z liberalno-lewicową linią rządu Joego Bidena. To dlatego Musk mówił o „uczeniu AI kłamstw”. Podczas rozmowy na Twitter Spaces, ogłaszającej powstanie xAI, zastanawiał się z kolei, co będzie, jeśli rząd USA zdecyduje się pod jakimś legalnym pretekstem przejąć cały projekt. Zapowiedział, że nie przekaże politykom kontroli nad xAI i jest gotów pójść za to do więzienia. Jest zdecydowany złamać prawo – gdyby mogło to zapobiec poważnym szkodom społecznym.

Zaryzykowałbym hipotezę, że dla Muska zagrożenie longtermistyczną „nieodwracalną dystopią” albo wszechmocnym, ukrytym „głębokim państwem” (deep state) to coś groźniejszego niż zagrożenia wynikające z samego pojawienia się sztucznej superinteligencji. AGI jako prywatny projekt wydaje mu się mniej niebezpieczna niż jako projekt rządowy.

Nowa perspektywa badawcza

Prof. Rajani Naidoo ostrzega na stronie University World News: „Sztuczna inteligencja nie rodzi się samodzielnie, ale wywodzi się z dominujących wierzeń i woli politycznej, w kontekście cyfrowego kapitalizmu, wzmacniając, zakłócając i tworząc nowe relacje społeczne”.

Naidoo apeluje o wielowymiarowe badania naukowe nad sztuczną inteligencją. Paradoksy i niekonsekwencje projektu xAI pokazują, moim zdaniem, jak dramatycznie brakuje takich badań. Jeśli chcemy uniknąć zagrożeń wynikających z widzenia sztucznej inteligencji w zbyt specyficznym kontekście historycznym i w zbyt specyficznej perspektywie światopoglądowej – w badania powinni włączyć się historycy, badacze ideologii i religii, psycholodzy, socjolodzy, filozofowie.

Naprawdę trudnym zadaniem będzie tworzenie aiologii – odpowiedników różnych dziedzin wiedzy o człowieku i społeczeństwie, których obiektem badań będą sztuczne umysły i ich przyszłe społeczności.

Od psychologii do teologii AI

Jak trudne będą badania aiologiczne? Jak odmienna będzie np. psychologia AI od psychologii człowieka? Można to sobie wyobrazić, jeśli uświadomimy sobie, że jedną z rzeczy, które najbardziej wpływają na naszą psychikę i tworzone przez nas społeczności, kształtują nasze najgłębsze prywatne lęki i najważniejsze społeczne rytuały – jest nasza śmiertelność. Hinton zwraca uwagę, że w przypadku zużycia lub uszkodzenia komputera sztuczne inteligencje będą się mogły po prostu skopiować na nowy komputer. „Dobra wiadomość jest taka, że udało nam się stworzyć istoty nieśmiertelne – zauważa Hinton. – Ale ta nieśmiertelność nie jest dla nas”.

Podpowiedzi dla wczesnej socjologii AI mogą z kolei zawierać te opowieści science fiction, które próbowały odgadywać, jak potoczyłoby się nasze spotkanie z cywilizacjami obcych inteligencji, istniejących w postaciach zupełnie innych niż nasze ciała. Np. ze społecznością istot zbudowanych z czystej energii („Taniec Przemieniającego się i Trójki” Terry’ego Carra).

Niespodziewanie, najbardziej możemy potrzebować pomocy...  teologów. Teologia jest jedyną dziedziną nauki zajmującą się tym, jak ludzie mogą tworzyć kulturę i żyć na co dzień wśród istot wyższych: nieśmiertelnych, bardziej inteligentnych i myślących inaczej niż my.

Z jednej strony np. anioły w judaizmie i chrześcijaństwie są wysłannikami Boga, który jest naszym Stwórcą, Ojcem. Przyszłe AGI (równe ludziom), a nawet ASI (superinteligencje, pod każdym względem mądrzejsze od człowieka) będą natomiast naszymi „dziećmi umysłu”, jak je nazwał Hans Moravec. To zasadnicza różnica, stwarzająca radykalnie odmienny kontekst egzystencjalny. Nie wiadomo, czy w tej sytuacji teologia uzna sztuczne superinteligencje za demony, czy wręcz przeciwnie – za wnuki Pana Boga.

Z drugiej strony liberalny humanizm – nasi politycy, biznesmeni, filozofowie – już od wielu pokoleń nie liczą się w swoich kalkulacjach i decyzjach z obecnością bytów wyższych od człowieka. Nawet nie sposób sobie wyobrazić, jak niszczące dla naszych dumnych i antropocentrycznych społeczeństw byłoby pojawienie się mądrzejszej od nas pod każdym względem ASI...

Odgaduję, że nasze świeckie wspólnoty odkryją wtedy, że można nauczyć się czegoś od ludzi wierzących. Może jakieś odpowiedniki religijnej wiary i stylu życia – jak pokora osiągana przez ascezę i rytuały – pomogą znaleźć sens w tym dziwnym świecie, który już nie będzie należał do nas?

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp kwartalny

Kwartalny dostęp do TygodnikPowszechny.pl
  • Natychmiastowy dostęp
  • 92 dni dostępu = aż 13 numerów Tygodnika
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
89,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]

Artykuł pochodzi z numeru Nr 1/2024

W druku ukazał się pod tytułem: Wnuki Pana Boga