AI: Czym się stanie i jak zmieni świat?

Wyścig technologicznych gigantów po sztuczną inteligencję nabiera rozpędu. Pojawiają się nowe technologie i wybuchają nowe spory. Nadal jednak mało wiemy, jak te systemy działają.

13.12.2023

Czyta się kilka minut

Sam Altman, dyrektor OpenAI, Seul, czerwiec 2023 r. / fot. SeongJoon / Bloomberg / Getty Images
Sam Altman, dyrektor OpenAI, Seul, czerwiec 2023 r. / fot. SeongJoon Cho / Bloomberg / Getty Images

Habsora to po hebrajsku ewangelia. Tak nazwano system sztucznej inteligencji, który izraelska armia wykorzystuje do wyznaczania celów bombardowań w Strefie Gazy. System ponoć piekielnie skuteczny. Gdy uruchomiono go podczas wojny z Hamasem w maju 2021 r., generował sto celów dziennie – m.in. prywatne domy osób podejrzewanych o współpracę z Hamasem lub Palestyńskim Islamskim Dżihadem. Na początku listopada siły zbrojne Izraela informowały, że dzięki Habsorze zidentyfikowały przeszło 12 tys. celów.

W oficjalnym komunikacie w tej sprawie zastrzegano, że system jedynie podaje rekomendacje, ale to ludzie podejmują ostateczną decyzję. Tylko czy człowiek ma cokolwiek do powiedzenia, gdy trzeba weryfikować taką ilość danych, czy może jego rola ogranicza się wyłącznie do przyklepania decyzji programu? „To jak fabryka. Pracujemy szybko i nie mamy czasu zagłębiać się w szczegóły. Jesteśmy oceniani na podstawie tego, ile celów wskażemy”; „Nacisk kładziony jest na ilość, a nie jakość”, „Człowiek przegląda cele przed atakiem, ale nie spędza na tym zbyt wiele czasu” – to tylko niektóre wypowiedzi informatorów brytyjskiego „Guardiana” oraz izraelsko-palestyńskich „+972 Magazine” i „Local Call”, które przeprowadziły dziennikarskie śledztwo w sprawie wykorzystywania sztucznej inteligencji przez izraelską armię.

Pod pewnym względem Habsora nie jest niezwykła. To system, który na podstawie dostarczonych mu danych znajduje powiązania i wzorce – podobnie działają algorytmy mediów społecznościowych podstawiające nam pod nos reklamy. Ale właśnie w tym kryje się największe zagrożenie, przed którym od lat byliśmy ostrzegani. Wcale nie chodzi o to, że powstanie superinteligentny komputer czy program, który celowo albo przypadkiem zniszczy ludzkość. Budujemy w coraz większym tempie i stosujemy na coraz szerszą skalę systemy, które są omylne, ale nierzadko traktujemy ich słowo, jak – nomen omen – Ewangelię. Pół biedy, gdy chodzi o reklamy trampek w mediach społecznościowych. Gorzej, gdy sztuczna inteligencja decyduje o życiu i śmierci.

– Brak sceptycyzmu w kwestii stosowania wyników wypluwanych przez systemy uczenia maszynowego jest oczywiście ogromnym zagrożeniem – mówi „Tygodnikowi” prof. Dariusz Jemielniak, wiceprezes PAN, wykładowca Akademii Leona Koźmińskiego i Uniwersytetu Harvarda. – Łatwiej fantazjować o Terminatorze, niż dostrzegać, co się dziś dzieje. Mamy systemy na tyle zaawansowane, że na pierwszy rzut oka wyglądają znośnie, ale wiemy, że konfabulują, popełniają błędy rzeczowe, a w dodatku nie mamy obecnie dobrych rozwiązań, jak te błędy wyłapywać. 

Bezpieczny zysk

O tym, w jaką stronę zmierza rozwój tego typu technologii, może świadczyć finał starcia, do jakiego doszło w zeszłym miesiącu w OpenAI, jednej z najważniejszych firm technologicznych świata. Jeszcze kilka lat temu było to centrum badawcze non-profit, którego celem miało być zbudowanie „bezpiecznej sztucznej inteligencji ogólnej dla dobra ludzkości”. W jej zarządzie zasiadali etycy i specjaliści od bezpieczeństwa. Tyle że badania kosztują, a w szczególności drogie są moce obliczeniowe do testowania nowych modeli sztucznej inteligencji. W 2019 r. powstało więc w OpenAI ramię komercyjne, które miało przyciągać inwestorów i przynosić zysk (ograniczony do tysiąckrotności rocznej inwestycji). Owo ramię miało być jednak nadzorowane przez zarząd organizacji non-profit, by chęć zysku nie przesłoniła misji. I tak było. Do zeszłego miesiąca.

Niemal dokładnie rok temu OpenAI była na szczycie – ChatGPT stał się najbardziej popularną i bardzo dochodową platformą konsumencką sztucznej inteligencji, a jednocześnie wydawało się, że misja związana z bezpieczeństwem nie jest zagrożona. Oczywiście spekulowano, do jakich niecnych celów można wykorzystać program, a użytkownicy prześcigali się w przełamywaniu jego zabezpieczeń (przykładowo, program odmawia wymyślania sposobów na przejęcie kontroli nad komputerem rozmówcy – chyba że się mu zasugeruje, że to tylko zabawa), ale OpenAI deklarowała niezmiennie, że celem jest bezpieczna sztuczna inteligencja. Jej prezes Sam Altman stał się niemal światowym guru od technologii, zapraszanym do popularnych talk show i na spotkania z najważniejszymi politykami.

W zeszłym miesiącu niespodziewanie Altman wyleciał z pracy. Rada nadzorcza poinformowała, że „nie był konsekwentnie szczery w swojej komunikacji”. A już kilka dni później to członkowie rady stracili stanowiska, zaś Altman wrócił. Miało się tak stać przede wszystkim wskutek nacisków Microsoftu, który zainwestował w OpenAI łącznie 14 mld dol. i ma w niej ponoć 49 proc. udziałów. Natychmiast pojawiły się przypuszczenia, że do pozbycia się Altmana doszło z powodu jego zbytniej uległości wobec domagających się zysków inwestorów. Przy okazji wyszło też na jaw, że choć sam prezes wiele publicznie mówił o bezpieczeństwie, z jego polecenia wysłannicy OpenAI lobbowali w Waszyngtonie i Brukseli za rozwodnieniem przepisów umożliwiających kontrole systemów sztucznej inteligencji. Wygląda więc na to, że w toczącym się od lat w Dolinie Krzemowej symbolicznym sporze między bezpieczeństwem a wielką kasą właśnie wyłonił się zwycięzca. A teraz może to już być wyścig wyłącznie o to, kto wyłoży większe pieniądze, a później więcej na tym zarobi.


WIELKIE WYZWANIA: ANTROPOCEN

Przyglądamy się największym wyzwaniom epoki człowieka oraz drodze, która zaprowadziła nas od afrykańskich sawann do globalnej wioski. Omawiamy badania naukowe i dyskusje nad interakcjami między człowiekiem i innymi elementami przyrody – zarówno tymi współczesnymi, jak i przeszłymi.


Multimodalna konkurencja

W tym wyścigu praktycznie nie ma już startupów, pozostali tylko technologiczni giganci. 6 grudnia Google zaprezentowało swoją odpowiedź na GPT – Gemini, model reklamowany jako najlepszy w swojej klasie. Gemini osiąga najlepsze wyniki w 30 z 32 powszechnie stosowanych akademickich testów porównawczych, wykorzystywanych w badaniach dużych modeli językowych. I to bez względu na to, czy dane wejściowe są tekstem, obrazem czy dźwiękiem. Prezes Google Sundar Pichai podczas konferencji prezentującej Gemini podkreślał, że jest to pierwszy w historii model, który przewyższył ludzi w MMLU (massive multitask Language Understanding), czyli zestawie testów do pomiaru wydajności, obejmującym m.in. czytanie ze zrozumieniem, nauki społeczne, matematykę na poziomie uniwersyteckim i quizy wielokrotnego wyboru z fizyki oraz ekonomii. W przypadku pytań tekstowych Gemini uzyskał wynik na poziomie 90 proc., eksperci – około 89 proc. (najmocniejszy model OpenAI, czyli GPT-4 uzyskuje 86 proc.).

W tym wyścigu tak ważny jest aspekt finansowy, bo systemy sztucznej inteligencji są drogie. Nie chodzi tylko o wysokość pensji specjalistów, którzy je budują (nierzadko porównywalne z wynagrodzeniami gwiazd Premier League). Procesor graficzny Nvidia Hopper H100 o pojemności 80 GB, czyli kluczowy element sprzętu do uczenia maszynowego, kosztuje około 15 tys. zł., a do wytrenowania systemu AI potrzebne są tysiące takich urządzeń. Tylko około 20 firm na świecie zdecydowało się na takie inwestycje.

O tym, jak wyścig technologiczny idzie ręka w rękę z wielkimi pieniędzmi, świadczy informacja, która wyszła na jaw kilka dni temu – OpenAI zadeklarowała, że zainwestuje 51 mln dol. w startup Rain AI, który buduje wzorowane na ludzkim mózgu mikrochipy mające stukrotnie przyspieszyć obliczenia wykorzystywane w systemach sztucznej inteligencji (Sam Altman osobiście miał zainwestować w to 1 mln dol.) Jeśli Rain AI zrealizuje projekt, GTP i inne programy OpenAI dostaną mocne sterydy.

Sedno problemu pozostaje jednak niezmienne. – Absolutnie nie rozumiemy, jak działają takie systemy – mówi prof. Michał Kosiński, psycholog i badacz sztucznej inteligencji na Uniwersytecie Stanforda. – Jesteśmy w stanie zrozumieć podstawę, czyli działanie pojedynczego neuronu w głowie człowieka czy GPT-4, ale nie jesteśmy w stanie ogarnąć umysłem tej całej złożoności. Co więcej, musimy przyjąć do wiadomości, że nie będzie to dla nas możliwe, dlatego że takie systemy będą stawały się coraz bardziej skomplikowane. Gdy wydajność systemu znacznie przewyższa wydajność człowieka, to człowiek traci możliwość oceny tego, jak dobry jest ten system.

Czerwone kontrolki

To co już wiemy o takich systemach, powinno sprawić, że zapalą się czerwone kontrolki. 

Coraz wyraźniej dające się we znaki problemy związane ze sztuczną inteligencją chyba najlepiej skatalogował Barry Cousins, analityk Info-Tech Research Group. Pierwszy z nich, który można uznać za fundamentalny, to „stronniczość próbki”. Każdy system uczenia maszynowego jest szkolony na pakietach danych i na tej podstawie wyszukuje powiązania i tworzy odpowiedzi. Np. system, który ma rozpoznawać obiekty na zdjęciach, nauczy się, jak rozpoznać kota czy krzesło, jeśli dostanie odpowiednio dużą liczbę skatalogowanych uprzednio zdjęć. Podobnie sam może się nauczyć rozpoznawania „bojownika Hamasu”. Problem w tym, że zestaw danych treningowych nie jest – bo nie może być – kompletny, jest dobierany przez człowieka, wreszcie to człowiek nadaje danym etykiety, na podstawie których system się szkoli. Wszędzie tu jest miejsce na błąd. 

Drugi problem pojawia się w konsekwencji prób naprawienia problemu numer jeden. Część firm, m.in. OpenAI, wbudowuje w swoje systemy mechanizmy, które mają korygować wypaczenia wynikające ze stronniczości danych szkoleniowych. Skutkiem tego system prezentuje odpowiedzi zgodne z oczekiwaniami jego twórców, bez względu na dane szkoleniowe. W przypadku ChatGPT są to poprawne polityczne odpowiedzi, które mają nie wywoływać kontrowersji.

Trzeci problem to „stronniczość wynikająca z ignorancji” – system może szybko generować odpowiedzi na raczej konwencjonalne pytania, ale nie poradziłby sobie dobrze z problemami czy zagadkami zupełnie nowego typu, z którymi my sami jeszcze się nie mierzyliśmy. Jeszcze bardziej intrygująca jest „stronniczość okna Overtona”. Okno Overtona to politologiczny termin oznaczający tematy dopuszczalne w publicznym dyskursie. W przypadku AI – systemy szkolone są na danych, które często są sprzeczne lub pełne niewiarygodnych wniosków. System trzyma się więc tego, co „dopuszczalne”, a niekoniecznie prawdziwe. 

Piąty, ostatni problem związany z uczącymi się systemami i zidentyfikowany przez Cousinsa wynika z tego, jak działamy my sami. To „stronniczość wynikająca z szacunku” – użytkownicy nadmiernie polegają na technologii, własną intelektualną swobodę oddając w gruncie rzeczy eksperymentalnemu wciąż oprogramowaniu.

Model Q*

 – Jeśli wszystko jest definiowane przez ChatGPT, jeśli to jest nasz wyznacznik rzeczywistości, tak jak stało się już z (wyszukiwarką) Google, to jak to zmieni naszą świadomość, politykę czy sposób, w jaki pracujemy? – zastanawiał się w rozmowie z nami prof. Aleksander Mądry, badacz z Massachusetts Institute of Technology i specjalista od bezpieczeństwa w OpenAI. – Jeśli wszyscy korzystamy z jednego modelu, to nie ma znaczenia, czy jego twórca stara się nami manipulować czy nie, bo w system zawsze jest wbudowany jakiś system wartości. Nieważne, czy jest dobry, czy zły. Jest jeden, a powinno ich być wiele. 

„Nie mieliśmy czasu, by zastanowić się, jak budować te systemy, bo zawsze byliśmy zajęci gaszeniem pożarów” – tak w listopadzie 2021 r. na konferencji RE:WIRED swoją pracę w Google opisywała Timnit Gebru. Etiopska badaczka kierowała w Google zespołem, który zajmował się etyką w stosowaniu sztucznej inteligencji. W 2020 r. zmuszono do odejścia z firmy ją i większość jej współpracowników. Podobne zespoły zniknęły lub zostały zredukowane m.in. w Meta, Twitterze i Microsofcie. 

Podobną funkcję w pewnym sensie pełnił do zeszłego miesiąca też zarząd OpenAI. Oficjalnie do tej pory nie wiadomo, co było impulsem, który sprawił, że zarząd akurat teraz postanowił dokonać przewrotu. Jedna z pojawiających się pogłosek mówi, że obawy miał wzbudzić nowy system opracowywany przez firmę. Model Q* ponoć świetnie radzi sobie z podstawowymi zadaniami matematycznymi. To mógłby być przełom, bo istnieje zasadnicza różnica między modelami językowymi sztucznej inteligencji, które wykorzystują metody statystyczne do określenia prawdopodobieństwa wystąpienia danego słowa ciągu wyrazów, a modelami rozwiązującymi działania matematyczne, w których zawsze prawidłowa jest tylko jedna odpowiedź. „Reuters” po wybuchy afery z Altmanem podał, że część naukowców OpenAI miała ostrzegać zarząd, że Q* może stać się zagrożeniem dla ludzkości. Spekulowano, że jednym z powodów zwolnienia prezesa była obawa przed tym, że zbyt szybko będzie go chciał skomercjalizować.

– Sądzę, że nawet jeśli nastąpił jakościowy przełom, to nie można mówić jeszcze o sztucznej inteligencji typu ogólnego. Mamy z tym zresztą problem, bo dobrych testów nie ma i raczej nie będzie. Dobre udawanie, że się jest świadomym, koniec końców jest nieodróżnialne zewnętrznie od bycia świadomym – twierdzi prof. Jemielniak.

„Guardian” przypomniał ostatnio, że 40 lat temu na ekrany kin wszedł film „Gry wojenne”. Jego główny bohater, nastolatek, włamuje się do superinteligentnego komputera amerykańskiego Departamentu Obrony i nieświadomie doprowadza świat na krawędź nuklearnego armagedonu. Udaje się mu zapobiec, gdy komputer po grze w kółko i krzyżyk z chłopakiem uczy się, że wojna atomowa nie może mieć zwycięzcy. „Dziwna gra. Jedynym zwycięskim posunięciem jest nie grać” – stwierdza komputer. Ironią jest, że w czasie gdy publiczność zachwycała się tym filmem, prawdziwy armagedon, który mogły wywołać maszyny, powstrzymał człowiek – radziecki oficer, który nie zaufał fałszywym wskazaniom zautomatyzowanego systemu wczesnego ostrzegania i nie wykonał rozkazu odwetowego ataku nuklearnego na USA. 

W przypadku „zbuntowanej” sztucznej inteligencji wystarczy ktoś, kto wyłączy wtyczkę.


 

Projekt dofinansowany ze środków budżetu państwa, przyznanych przez Ministra Edukacji i Nauki w ramach Programu „Społeczna Odpowiedzialność Nauki II”.

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp kwartalny

Kwartalny dostęp do TygodnikPowszechny.pl
  • Natychmiastowy dostęp
  • 92 dni dostępu = aż 13 numerów Tygodnika
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
89,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]
Dziennikarka specjalizująca się w tematyce międzynarodowej, ekologicznej oraz społecznego wpływu nowych technologii. Współautorka (z Wojciechem Brzezińskim) książki „Strefy cyberwojny”. Była korespondentką m.in. w Afganistanie, Pakistanie, Iraku,… więcej
Dziennikarz naukowy, reporter telewizyjny, twórca programu popularnonaukowego „Horyzont zdarzeń”. Współautor (z Agatą Kaźmierską) książki „Strefy cyberwojny”. Stypendysta Fundacji Knighta na MIT, laureat Prix CIRCOM i Halabardy rektora AON. Zdobywca… więcej

Artykuł pochodzi z numeru Nr 51/2023

W druku ukazał się pod tytułem: AI: drugie okrążenie