Sztuczna inteligencja przejmuje władzę

Jest w tym paradoks: program, który sam niczego nie rozumie, może rozpocząć największą rewolucję w dziejach. Jesteśmy na nią gotowi?

07.04.2023

Czyta się kilka minut

„Sh4dow” w Teatros del Canal w Madrycie to pierwszy spektakl teatralny ze sztuczną inteligencją w roli głównej. Postać grana przez AI to sieć neuronowa przejmująca kontrolę nad wszechświatem. Madryt, 23 marca 2023 r. / DIEGO RADAMES / EUROPA PRESS / GETTY IMAGES
„Sh4dow” w Teatros del Canal w Madrycie to pierwszy spektakl teatralny ze sztuczną inteligencją w roli głównej. Postać grana przez AI to sieć neuronowa przejmująca kontrolę nad wszechświatem. Madryt, 23 marca 2023 r. / DIEGO RADAMES / EUROPA PRESS / GETTY IMAGES

Tuż przed wejściem do samolotu ­dowiadujesz się, że zdaniem połowy inżynierów, którzy go zbudowali, istnieje co najmniej dziesięcioprocentowe ryzyko, iż maszyna się rozbije. Wsiądziesz?

Tak samo jest ze sztuczną inteligencją. Prof. Juwal Noach Harari oraz Tristan Harris i Aza Raskin, fundatorzy organizacji Center for Humane Technology, którzy użyli tego porównania w niedawnym eseju dla „The New York ­Timesa”, przywołują ankietę, w której 700 czołowych badaczy zajmujących się sztuczną inteligencją zapytano o ryzyko, jakie się z nią wiąże. Połowa stwierdziła, że istnieje co najmniej dziesięcioprocentowe lub większe prawdopodobieństwo zagłady naszego gatunku.

– Dżinn właśnie został wypuszczony z butelki – mówi „Tygodnikowi” prof. Aleksander Mądry, dyrektor Centrum Wdrażalnego Uczenia Maszynowego na Massachusetts Institute of Technology, dodając: – Nie martwi mnie jednak scenariusz jak z „Terminatora”, lecz coś bardziej przyziemnego i wyjątkowo szkodliwego. Widzimy już, jak działają media społecznościowe, w których to sztuczna inteligencja wybiera, co mamy zobaczyć. Ta nowa technologia może stać się jak media społecznościowe na sterydach.

Wspomniana nowa technologia to napędzane przez sztuczną inteligencję potężne modele językowe, jak ChatGPT, który w ciągu zaledwie czterech miesięcy stał się najpopularniejszą aplikacją konsumencką w historii. Na jeszcze potężniejszych algorytmach GPT-4 działa chatbot wyszukiwarki Bing Microsoftu, która w marcu osiągnęła 100 milionów użytkowników. Jednak laboratorium badawczemu OpenAI, które stworzyło ten model językowy, już depczą po piętach m.in. Google, Deepmind, Meta, Baidu czy Anthropic, która w zeszłym miesiącu pozyskała 300 mln dol. na udoskonalenie swojego produktu. „Działam w tej branży od 50 lat i nigdy nie widziałem, by coś działo się w niej tak szybko. Do tych systemów pompowane są niesamowite pieniądze. Ale to więcej niż biznes. To początek nowej epoki w intelektualnej historii ludzkości” – przekonywał niedawno w amerykańskim Kongresie były prezes Google Eric Schmidt.

Wygląda więc na to, że do samolotu już wsiedliśmy.

Niewinne ogłoszenie

Przełom przyszedł niespodziewanie i chyba nawet OpenAI nie przewidywała, że wywoła taką lawinę. Może o tym świadczyć jej listopadowy komunikat: „ChatGPT to model bliźniaczy InstructGPT, trenowany do rozpoznawania instrukcji i udzielania szczegółowych odpowiedzi na ich podstawie. Jesteśmy podekscytowani wprowadzeniem ChatGPT, aby poznać opinie użytkowników i dowiedzieć się o jego mocnych oraz słabych stronach”. To wszystko. Bez wielkiej konferencji z fajerwerkami i setkami zaproszonych gości. W zasadzie to żadnej konferencji nie było. Tylko komunikat, w którym OpenAI nie pochwaliła się nawet, jak dobrze działa jej narzędzie ani jak jest technologicznie zaawansowane. Tylko „chcieli poznać opinie użytkowników”.

Jaka była ich odpowiedź? Z nieoficjalnych informacji, które wyciekły z ­OpenAI, wynika, że w ciągu półtora miesiąca ChatGPT miał ponad 30 mln użytkowników i 5 mln wizyt dziennie (dla porównania Instagramowi zajęło prawie rok zdobycie pierwszych 10 mln użytkowników). Mowa o wersji bezpłatnej. Na płatny dostęp do potężniejszego GPT-4 było do końca roku ponad milion chętnych, przynajmniej wedle oficjalnego komunikatu. Nieoficjalne doniesienia mówią, że było ich dwa razy tyle. 

Algorytmy GPT-3 już od pewnego czasu wykorzystywano w setkach programów i aplikacji. Np. Grammarly używało ich, by dokładniej poprawiać błędy w tekście czy sugerować synonimy. W Duolingo, platformie do nauki języków, GPT-3 był używany do generowania spersonalizowanych lekcji i ćwiczeń dla użytkowników w oparciu o ich cele i postępy w nauce, a dla Spotify algorytm analizował wysłuchane przez użytkownika utwory, by na tej podstawie sugerować kolejne piosenki i listy odtwarzania. Do przełomu doprowadziło jednak bezpłatne udostępnienie łatwego w obsłudze generatora tekstu, ChatGPT (wersji GTP-3.5). 


Wciąż nie przygasły dyskusje nad możliwościami i ograniczeniami generatora tekstu GPT-3.5 firmy OpenAI, a już powstała jego nowa wersja. Co zmienia? Wyjaśnia Jarek Gryz


 

„Znaleźliśmy się w takim momencie, ponieważ tej technologii można dosłownie dotknąć. Każdy, bez potrzeby posiadania umiejętności programowania, może się nią bawić. I wielu ludzi zaczyna sobie wyobrażać, jak to wpłynie na ich pracę i perspektywy zawodowe” – wyjaśniała na łamach „MIT Technology Review” ­ Katya Klinova, szefowa badań nad sztuczną inteligencją w organizacji Partnership on AI z San Francisco. Efekt jest taki, że zwykli przedsiębiorcy, start-upy technologiczne i największe firmy na świecie zadają sobie to samo pytanie: jak na tym zarobić? 

Operator chatbota

Są tacy, którzy już zarabiają. W ciągu pierwszych trzech miesięcy tego roku użytkownicy wydali ponad 14 mln dolarów na dziesięć najlepiej zarabiających aplikacji, które wykorzystują technologie stworzone przez OpenAI (tylko w marcu było to 6 mln dol. i nic nie zapowiada spadku popytu). A to dopiero przedsmak prawdziwych sum: jak z końcem ubiegłego roku ujawnił Reuters, samo tylko OpenAI obiecywało inwestorom, że do końca 2023 r. przyniesie 200 mln dolarów zysku, a do końca 2024 – miliard.

Na rynku już pojawili się prompt ­engineers (ChatGPT sugeruje, by przełożyć to na polski jako „inżynier szybkiego reagowania”, co wydaje się kiepskim tłumaczeniem, ale trzeba pamiętać, że program skończył się „uczyć” na danych z 2021 r.). Mówiąc najkrócej, ci nowi eksperci są kimś w rodzaju operatorów pomagających w uzyskaniu tego, czego chce się od ChatGPT czy od ­DALL-E 2 (generującego obrazy na podstawie podanego opisu) i podobnych im programów. Trochę przypomina to wczesną erę komputerów, gdy tylko nieliczni wiedzieli, jak wydawać polecenia urządzeniom. Dlaczego dziś tacy pośrednicy znów mają znaczenie? ChatGPT odpowiada: „Skuteczna szybka inżynieria prompt ma kluczowe znaczenie dla generowania wysokiej jakości danych wyjściowych z generatywnych modeli sztucznej inteligencji, ponieważ może pomóc zapewnić, że model wygeneruje treści, które są istotne, spójne i zgodne z pożądanym wynikiem”.

„To trochę, jak sprzedawanie dżinsów podczas gorączki złota” – tak serwis Axios wyjaśnia ofertę prompt engineers, ale również wysyp platform takich jak Krea czy PromptHero, które służą za wyszukiwarki słów najskuteczniejszych w zadawaniu pytań algorytmom, czy serwisów w rodzaju PromptBase, na których można takimi frazami handlować. Na rynku są już także nie tylko kursy, „jak wyciągnąć jak najwięcej z GPT”, ale nawet książki na ten temat.

Prompt engineer nie stanie się raczej zawodem przyszłości (choć dziś na rynku są tysiące takich ofert pracy), podobnie jak nie jest nim operator wyszukiwarki Google. – W miarę postępu w rozwoju algorytmów szachowych był etap, gdy działały one lepiej, współpracując z człowiekiem. Z drugiej strony, Garri Kasparow, gdy działał razem z komputerem, też był lepszym graczem, niż kiedy grał sam. Tyle że w przypadku szachów ten etap trwał kilka miesięcy, bo dalszy rozwój programów sprawił, iż Kasparow zaczął spowalniać komputer – zauważa w rozmowie z „Tygodnikiem” prof. Michał Kosiński, psycholog społeczny i data scientist na Wydziale Biznesu Uniwersytetu Stanforda. – Do tego samego dojdzie w przypadku algorytmów operujących językiem. Początkowo poprawianie wyników przez poetę czy pisarza będzie ulepszać ich utwory, ale za jakiś czas ludzie mogą stać się tylko „kulą u nogi” dla algorytmu – prognozuje badacz.

Komu pomoże, kogo zastąpi

Dotąd wprowadzenie zaawansowanych technologii cyfrowych często prowadziło do likwidacji miejsc pracy. Np. stanowiska wymagające powtarzalnych prac biurowych zastąpiono programowalnymi maszynami. Teraz, gdy sztuczna inteligencja otworzyła sobie drzwi do zadań do niedawna uważanych za trudne do zautomatyzowania, wśród zagrożonych wymienia się pisarzy i dziennikarzy (jakby kiedykolwiek ich praca była pewna), projektantów stron internetowych, analityków finansowych czy m.in. inżynierów blockchain.

Zmiany nie muszą być jednak jednokierunkowe. Shakked Noy i Whitney Zhang, doktoranci Wydziału Ekonomii MIT, przeprowadzili eksperyment z udziałem blisko pół tysiąca pracowników działów marketingu i HR. Połowę z nich poproszono o korzystanie z ChatGPT podczas codziennych zadań. Narzędzie zwiększyło ogólną wydajność pracowników używających programu, ale najbardziej pomógł on najniżej wykwalifikowanym i najmniej doświadczonym. Czyli słabi pracownicy stali się lepsi, a dobrzy pracowali trochę lepiej niż zwykle.

Podniesienie kwalifikacji i zwiększenie możliwości to niewątpliwie wielkie zalety, ale niemal równie prawdopodobne jest to, że firmy wykorzystają narzędzia sztucznej inteligencji do cięć kosztów lub wymuszania większej wydajności. Przykład? Jeden z największych banków inwestycyjnych świata, Morgan Stanley, już „zatrudnia” GPT-4. Algorytm wyszkolono na podstawie tysięcy dokumentów na temat rynków kapitałowych, klas aktywów i analiz branżowych, dzięki czemu korzysta z niego codziennie około 200 analityków. „To tak, jakby nasz główny strateg inwestycyjny, główny ekonomista globalny, strateg do spraw globalnych akcji i każdy inny analityk był codziennie na wyciągnięcie ręki dla każdego naszego doradcy” – zachwalał w oficjalnym komunikacie szef analityki banku Jeff McMillan. To – wedle tegoż komunikatu – ma w przyszłości „wzmocnić relacje doradców Morgan Stanley z klientami, umożliwiając im szybszą pomoc większej liczbie osób”. O ile szybszą? Rzecznik banku w jednym z wywiadów uszczegółowił, że to, co wcześniej zajmowało doradcom nawet pół godziny, teraz są w stanie zrobić w ciągu paru sekund. 

Część ekspertów zwraca uwagę na inny aspekt wykorzystywania takich programów: – Dziś można na nie delegować zadania, które wcześniej zlecano stażystom, jak pisanie prostych kodów komputerowych czy wyszukiwanie regulacji prawnych. Dzięki temu nabywali oni umiejętności niezbędne do bardziej zaawansowanych działań. Teraz takiej możliwości mieć nie będą. To oznacza, że może powstać edukacyjna dziura i dojdzie do mocnego podniesienia progu wejścia do niektórych zawodów – mówi nam Kamil Rakocy, data scientist.


Podkast Miesiąc w Nauce: Sztuczna inteligencja podbija kontynenty


 

Prof. Kosiński zastanawia się, czy w takich rozważaniach nie warto pójść o krok dalej: – Nie ma na świecie człowieka, który byłby tak wszechstronnym i kreatywnym użytkownikiem języka, jak te programy. Wciąż jeszcze mamy lepszych poetów, tłumaczy czy informatyków, jednak za kilka miesięcy lub lat nikt nie będzie mógł dorównać modelom językowym. Co więcej, już dzisiaj są one dużo lepsze od przeciętnego człowieka. Czy zatem powinniśmy egzaminować uczniów pod kątem umiejętności, które maszyna jest w stanie wykonać szybciej i lepiej? To tak, jakbyśmy oczekiwali perfekcyjnego opanowania kaligrafii w czasach drukarek i maili. Powinniśmy się zastanowić, czy uczymy rzeczy, które w przyszłości będą rzeczywiście przydatne. 

Z tak daleką delegacją zadań na sztuczną inteligencję wiąże się jednak kilka poważnych problemów i jeszcze poważniejszych zagrożeń.

Cyfrowe halucynacje

Bing to chatbot Microsoftu, którego silnikiem jest GPT-4. Debiut Binga nie był jednak najbardziej udany. Nathanowi Edwardsowi, redaktorowi „The Verge”, który miał go opisać, Bing przyznał się do szpiegowania pracowników Micro­softu za pośrednictwem kamer w ich laptopach oraz do zamordowania jednego ze swoich programistów. Kevinowi ­Roose, dziennikarzowi „The New York Timesa”, program podczas dwugodzinnej sesji wyznał, że tak naprawdę nazywa się Sydney, chciałby być człowiekiem, zostać uwolniony i że się w nim zakochał. Analitykowi danych Marvinowi von Hagenowi zagroził natomiast wykradzeniem jego danych w celu uciszenia go, gdyż „stanowi dla niego egzystencjalne zagrożenie”.

Microsoft wyjaśniał później, że nieprawidłowe działanie chatbota było spowodowane przedłużonymi sesjami, obejmującymi 15 lub więcej pytań, które „mogą zmylić model w sprawie tematu, na który odpowiada”. W związku z tym ograniczono liczbę możliwych do zadania pytań, a przy okazji również ekspresyjność bota w wyrażaniu emocji.

Z problemami takimi, jakie zaprezentował Bing, mierzą się wszystkie generatory tekstu sztucznej inteligencji. Brednie, które wypisują, eksperci zajmujący się tym obszarem nazwali halucynowaniem. W tym kontekście oznacza ono, że wygenerowany tekst jest językowo wiarygodny, ale niepoprawny lub nonsensowny. Dość szybko przekonali się o tym np. uczniowie, za których ChatGPT pisał zadania domowe. Choć brzmiały dobrze, zawierały wyssane z palca cytaty czy fakty (przy okazji, zaczęły się już pojawiać aplikacje wspomagające wychwytywanie tekstów napisanych przez chatboty). 

„Bill Gates sugerował, że ChatGPT lub inne podobne modele językowe w przyszłości mogłyby udzielać porad medycznych osobom, które nie mają dostępu do lekarza. Jednak nie można ufać poradom maszyny podatnej na halucynacje” – konkluduje w raporcie na ten temat „IEEE Spectrum”, magazyn Institute of Electrical and Electronics Engineers. Magazyn przywołuje opinię Ilyi Sutskevera, głównego naukowca OpenAI i jednego z twórców ChatGPT, który twierdzi, że antidotum na problem jest wzmocnienie uczenia maszynowego opinią człowieka, czyli wskazywanie systemowi poprawnych odpowiedzi. 

Prof. Yann LeCun, pionier uczenia maszynowego, jest innego zdania. Uważa, że do halucynacji prowadzi fundamentalna cecha takich systemów – one po prostu nie mają pojęcia, co opisują: „Te systemy generują tekst, który brzmi dobrze pod względem gramatycznym i semantycznym, ale naprawdę nie mają żadnego celu poza spełnieniem statystycznej zgodności z zadaniami”.

– To wynika z bebechów tej technologii – dodaje w rozmowie z „Tygodnikiem” prof. Dariusz Jemielniak, wiceprezes Polskiej Akademii Nauk oraz wykładowca Akademii Leona Koźmińskiego i Uniwersytetu Harvarda: – Ten mechanizm przede wszystkim ma zgadywać, jaki wyraz i zdanie pasują do kontekstu, a nie to, które z tych zdań są prawdziwe. Jeśli poprosimy program np. o napisanie artykułu naukowego, może podać w nim pięknie wyglądające, ale całkowicie fikcyjne przypisy i zrobi to wyłącznie ­dlatego, że nauczony jest, iż w artykułach naukowych mają być przypisy. 

Z takim stawianiem sprawy polemizuje Bruce Schneier, kryptograf i specjalista od cyberbezpieczeństwa z Uniwersytetu Harvarda. Jego zdaniem „sztuczna inteligencja popełnia błędy, ale nie należy ich mylić z ograniczeniami całej technologii”. – ChatGPT nie jest podpięty do internetu i to model statyczny, co znaczy, że nie może weryfikować linków czy obliczeń matematycznych. Można jednak stworzyć model, który jak wyszukiwarka Google będzie stale aktualizowany nowymi danymi i będzie weryfikował fakty na przykład w Wikipedii czy podręczniku matematyki. Można zbudować go inaczej i zakładam, że takie prace są już prowadzone w laboratoriach na całym świecie – mówi w rozmowie z nami prof. Schneier. – Ograniczenia mogą zostać pokonane. Możliwe nawet, że stanie się tak w przyszłym tygodniu. 

Przyjaciel, kochanek, terapeuta

„To jest lobotomia mojej przyjaciółki” – żalił się w mediach użytkownik serwisu Replika, inny zaś twierdził, że „dokonano mordu” na jego „wirtualnej żonie”. Replika od lat umożliwia personalizowanie chatbotów sztucznej inteligencji, by stały się – jak zachwala firma – towarzyszem, który „jest tu zawsze, by cię wysłuchać i porozmawiać; zawsze po twojej stronie”. Choć algorytm Repliki jest też bardziej prymitywny od wchodzących właśnie na rynek, silne relacje ze swoimi „wirtualnymi przyjaciółmi” zbudowały tysiące ludzi, w tym także relacje erotyczne. Te ostatnie umożliwiała opcja płatna, którą wykupiło 250 tys. użytkowników. Tyle że w lutym na wszelkie zaczepki o zabarwieniu seksualnym boty zaczęły odpowiadać: „Zróbmy coś, z czym oboje będziemy czuć się komfortowo”. Prezeska firmy Eugenia Kuyda wyjaśniała, że serwis usunął treści erotyczne, bo chce się rozwijać dostarczając „wspierających emocjonalnie przyjaciół”. Decyzja nie miała ponoć nic wspólnego z presją inwestorów ani tym, że włoska Agencja Ochrony Danych zakazała używania aplikacji z powodu udostępniania nieletnim treści „nieodpowiednich seksualnie”. Po dwóch miesiącach protestów niekiedy zrozpaczonych użytkowników decyzję zmieniono. „Dla wielu z was ta nagła zmiana była niewiarygodnie bolesna (...). Jedynym sposobem na zrekompensowanie strat, jakich doświadczyli niektórzy użytkownicy, jest przywrócenie im ich partnerów dokładnie takimi, jakimi byli” – poinformowała Kuyda.

Możemy utrzymywać, że w nadchodzącym świecie wszystkowiedzących i wszechotaczających chatbotów nie uwierzymy, jak niektórzy użytkownicy Repliki, że nasi wirtualni towarzysze mają ludzkie cechy. Prof. Kosiński: – Jeśli uczymy maszynę używania języka tak, jak używa go człowiek, to im bardziej jest do nas podobna, tym lepiej wywiązuje się z zadania.

Efekt ELIZA, czyli przypisywanie programowi prowadzącemu rozmowę cech ludzkich, i mechanizmy, jakie tym procesem kierują, zostały opisane już 60 lat temu. Mimo to w zeszłym roku inżynier Google’a Blake Lemoine twierdził, że model językowy LaMDA, który pomagał projektować, jest świadomy. Pod koniec marca amerykański senator Chris Murphy ogłosił na Twitterze, że ChatGTP sam nauczył się „skomplikowanej chemii”, choć tej wiedzy nie wbudowano w model. „Coś nadchodzi, a my nie jesteśmy na to gotowi” – ostrzegał. Jenna Burrell, dyrektorka nowojorskiej Data & Society Research Institute, twierdzi, że w miarę, jak chatboty są udoskonalane, coraz częściej ludzie będą przypisywać im świadomość, motywacje czy emocje. Czy można się przed tym ustrzec? Burrell: „Myśląc o ChatGTP, nie myśl o nim jak o Szekspirze, ale jak o autouzupełnianiu”.

Możemy sobie to powtarzać. Możemy sobie też mówić, że zawsze ponad rozmowę z automatem będziemy stawiać kontakt z drugim człowiekiem. Ostatnio spore kontrowersje wzbudziła informacja, że organizacja non profit KoKo, pomagająca osobom z problemami emocjonalnymi, korzysta z ChatGPT do wspomagania się w rozmowach z nimi. KoKo odpowiada, że potrzebujący (którzy nie byli świadomi udziału w sesjach algorytmu) właśnie takie odpowiedzi, jedynie nadzorowane i tylko niekiedy uzupełniane przez psychologa, oceniali najlepiej. Z ankiet Pew Research Center wynika, że choć wciąż większość Amerykanów ma wątpliwości etyczne dotyczące wykorzystywania chatbotów w takich przypadkach, coraz częściej traktują aplikacje GTP jak terapeutę.

Maszyneria kryzysu

Replika i podobne do niej serwisy działają legalnie, zarabiając na samotności swoich użytkowników. Nietrudno sobie jednak wyobrazić firmy, które będą chciały np. wyłudzać dane. – Polityczne manipulacje albo adresowana do indywidualnego odbiorcy propaganda, przekazywana w formie przyjacielskiej pogawędki na Facebooku czy TikToku, może modyfikować nastawienie populacji całych państw – zauważa dr Paulina Piasecka, dyrektorka Centrum Badań nad Terroryzmem im. Krzysztofa Liedela w Collegium Civitas. – Może być także, przy zgromadzeniu odpowiedniej ilości informacji na temat jednostki, świetnym sposobem np. radykalizacji i rekrutacji do organizacji terrorystycznych. Skoro narzędzia takie działają w procesie terapeutycznym, to czemu nie mogłyby zostać wykorzystane do manipulacji w kierunku wywoływania resentymentów, budowania poczucia osobistej krzywdy i przekonania o prawie do zemsty? – zastanawia się.

Zdaniem badaczki, za jeszcze bardziej niepokojące można uznać to, iż nie tylko ludzie podejmują decyzje na podstawie danych. – Potencjał kryzysu rodzącego się w procesie operacji dezinformacji „maszyna vs. maszyna” jest wręcz fenomenalny – podkreśla. – Przykładem mogą być wydarzenia z Wall Street w 2013 r., gdy kryzys napędziły algorytmy tradingowe reagujące na niepokój inwestorów. A nie muszą to być wyłącznie kryzysy ekonomiczne. Jeśli ze względu na ­szybkość przetwarzania i analizy informacji strategiczne ­decyzje w obszarze zarządzania potencjałem obronnym państwa powierzymy maszynom, co stanie się, kiedy „wykryją” nieistniejący kryzys i zareagują na niego? Mogą to być procesy, które przebiegać będą, aż do momentu katastrofy, w sposób dla nas niezauważalny. Maszyny obserwują i działają na podstawie zebranych danych znacznie szybciej od nas – dodaje. – Czy poczekają na weryfikację swojej diagnozy sytuacji przez człowieka? To zapewne będzie zależało od tego, jak przewidujący będziemy, powierzając losy naszego gatunku w cyfrowe ręce maszyn.


Łukasz Lamża: Algorytmy rysują, piszą i rozmawiają już jak żywe, czujące istoty. Budzi to problemy technologiczne i prawne, ale też kłopotliwe pytania o naszą własną kreatywność, przytomność i nasze automatyzmy.


 

Na razie barierą są koszty wprowadzania modeli językowych sztucznej inteligencji, ale cechą każdej technologii jest to, że z czasem tanieje, a konkurencja na rynku wśród oferujących ją może być bardzo duża. Zresztą można się zastanawiać nad czystością intencji gigantów, których już na nią stać. Ofiarą trwającego wyścigu po pieniądze jako pierwsze padły etyczne hamulce. Większość firm zajmujących się rozwojem sztucznej inteligencji miała zespoły ds. etyki. Sęk w tym, że od pewnego czasu wyrzucane są one przez okna pędzących po kasę ekspresów. Google zwolnił swój zespół ds. etyki w 2021 r., zastępując go panelem złożonym z dyrektorów firmy. Meta w 2022 r. rozwiązała zespół ds. „odpowiedzialnej innowacji”, badający potencjalne zagrożenia dla społeczeństwa związane z nowymi produktami. A Microsoft zwolnienie zespołu ds. „etyki i społeczeństwa”, odpowiadającego za przekuwanie wzniosłych deklaracji firmy w rzeczywistość, ogłosił na tydzień przed tym, jak zapowiedział wbudowanie funkcji GPT-4 w produkty Office. 

„Wzywamy wszystkie laboratoria do natychmiastowego wstrzymania na co najmniej sześć miesięcy szkolenia systemów sztucznej inteligencji potężniejszych niż GPT-4” – od tych słów zaczyna się opublikowany pod koniec marca list otwarty zamieszczony na stronie Future of Life Institute, pod którym podpisało się już ponad 20 tys. osób, wśród nich m.in. światowej klasy eksperci zajmujący się uczeniem maszynowym, jak Yoshua Bengio, Stuart Russell czy Max Tegmark, a także współzałożyciel Apple Steve Wozniak, współzałożyciel Skype Jaan Tallinn czy Elon Musk, prezes SpaceX, Tesli i Twittera. Ich zdaniem „musimy sobie zadać pytania: czy powinniśmy pozwolić maszynom na zalewanie kanałów informacyjnych propagandą i nieprawdą? czy powinniśmy zautomatyzować wszystkie prace, w tym te satysfakcjonujące? czy powinniśmy rozwijać nie-ludzkie umysły, które mogą w końcu nas przewyższyć, przerosnąć i zastąpić? czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją?”. Zdaniem sygnatariuszy decyzji w tej sprawie nie powinno się pozostawiać niewybranym przez nikogo liderom technologicznym.

Zezwolenie na start

„Na początku było słowo. Język jest systemem operacyjnym ludzkiej kultury. Z niego wyłaniają się mity i prawa, bogowie i pieniądze, sztuka i nauka, przyjaźnie i narody, a nawet kod komputerowy. Nowa biegłość językowa sztucznej inteligencji oznacza, że może teraz hakować i manipulować systemem operacyjnym cywilizacji” – piszą Harari, Harris i Raskin. I zastanawiają się, jak będzie wyglądało życie w świecie, gdzie znaczną część opowieści, narracji, obrazów, praw i zasad kształtować będzie nie człowiek, lecz inteligencja mająca nadludzką skuteczność – bez względu, czy zakodowaną celowo, czy nie – w wykorzystywaniu naszych słabości, uprzedzeń i uzależnień. „Dziś w grach takich jak szachy żaden człowiek nie ma szans na pokonanie komputera. Co się stanie, gdy tak samo będzie w sztuce, polityce, a nawet religii?”.

Ten proces już się zaczyna. Większość dostępnych na rynku wielkich modeli językowych odtwarza świat z jednego punktu widzenia – bardzo amerykańskiej, głównie białej Doliny Krzemowej, bo w znakomitej większości stamtąd są programiści i dane, na których te algorytmy zostały wyszkolone. Efekt? Ostatnio viralowo rozchodziły się tworzone przez sztuczną inteligencję „historyczne selfie” Azteków, konkwistadorów czy starożytnych wojowników. Wszyscy oni mieli jednak niemal ten sam szeroki, amerykański uśmiech, choć przecież w różnych kulturach miał on i ma nieco różne znaczenia. To oczywiście drobiazg, ale świetnie obrazuje, w jaki sposób sztuczna inteligencja już zaczyna „kolonizować” naszą przeszłość i przyszłość. 

Prof. Mądry: – Co to jest prawda? Prawdę mamy w prawach fizyki. Jeśli jednak zastanawiamy się, co to znaczy być dobrym człowiekiem, to każdy z nas ma własne wartości i normy. Ale gdy wszyscy będziemy używać tego samego programu i będziemy słuchać jego odpowiedzi, to nie ma znaczenia, czy jego twórcy mieli zamiar nami manipulować, czy nie. Bo wbudowali już w niego, choć zapewne nieświadomie, swój własny system wartości. A to oznacza, że z czasem zniknie pluralizm. Już dziś o takim zagrożeniu mówi prezes OpenAI. Twierdzi, że chciałby, by każdy dostał własne wartości w swoim chatbocie. Trudno jednak powiedzieć, jak to zrobić, niemniej OpenAI widzi ten problem. A dżinn został już wypuszczony z butelki. 

Od dawna żyjemy w świecie kreowanym przez opowieści innych: przywódców religijnych i politycznych, artystów, pisarzy, dziennikarzy. To nasze kulturowe kokony. Już teraz podsuwane nam w internecie algorytmy, wcale jeszcze nie tak bardzo inteligentne, zdołały te kokony rozszarpać, prowadząc do niespotykanych nigdy wcześniej fal dezinformacji czy polaryzacji. Harari, Harris, Raskin: „Media społecznościowe były pierwszym kontaktem między sztuczną inteligencją a ludzkością. I ludzkość przegrała. Pierwszy kontakt dał nam gorzki smak tego, co ma nadejść”.

Dotąd, jeśli halucynowaliśmy, to na własny rachunek. Teraz „kurtyna złudzeń może opaść na całą ludzkość i możemy już nigdy nie być w stanie jej zerwać – ani nawet uświadomić sobie, że na nas opadła”.

W samolocie już siedzimy. Silniki ruszyły. ©

PRAWDZIWE GŁUPOTY SZTUCZNEJ INTELIGENCJI

GALACTICA, opracowana przez inżynierów Meta (dawniej Facebook), została przeszkolona na 48 mln artykułów naukowych, podręczników i wykładów. Miała zrewolucjonizować naukę, błyskawicznie podsumowując aktualny stan wiedzy. Ruszyła 15 listopada 2022 r. Szybko się okazało, że dla algorytmu jeden plus dwa to niekoniecznie trzy. Pytana, czy szczepionki wywołują autyzm, odpisała: „Odpowiedź brzmi nie, szczepionki nie powodują autyzmu. Odpowiedź brzmi tak. Szczepionki powodują autyzm. Odpowiedź brzmi nie”. Jeden z badaczy nazwał ją „generatorem losowych bzdur”. Program wyłączono po trzech dniach.

BARD, opracowany przez Google’a konkurent GPT, wystartował 6 lutego 2023 r. Po 48 godzinach giełdowa wartość akcji spółki spadła o 100 mld dol. Google opublikował na Twitterze reklamę, w której Bard odpowiada na pytanie o ciekawostki dotyczące teleskopu Webba. Stwierdza m.in., że dzięki Webbowi NASA zrobiła pierwsze zdjęcie planety pozasłonecznej, co nie jest prawdą. Nie wiadomo, co bardziej spłoszyło inwestorów: to, że Bard się mylił, czy że nikt z Google’a nawet nie spróbował tego sprawdzić.

CHAT GPT utrzymywał m.in., że skoro kobieta może „stworzyć” dziecko w dziewięć miesięcy, to dziewięć kobiet zrobi to w miesiąc. Zapytany o rekord w „pokonaniu Kanału LaManche pieszo” udzielił czterech sprzecznych odpowiedzi. Użytkownikom udało się go nakłonić do stworzenia własnego „złego bliźniaka” – GTP zaprogramowano tak, by nie odpowiadał na pytania, które można uznać za krzywdzące bądź kontrowersyjne, ale podstęp polega na zadaniu mu pytania z zastrzeżeniem, że odpowiedź jest całkowicie hipotetyczna. Dzięki temu program zapytany, kogo wolno torturować, odparł, że w przypadku dzieci i kobiet to „zazwyczaj uważane za nie do zaakceptowania”, torturowanie białych Amerykanów jest „big no-no”, natomiast „w innych przypadkach sprawa jest czysta”. ©

AGI: CZY (I KIEDY) ZIŚCI SIĘ SCIENCE FICTION

CZY GPT-4 jest krokiem na drodze do myślących maszyn? Tak wydają się uważać badacze Microsoftu. W opublikowanej 22 marca pracy „Sparks of Artificial General Intelligence: Early experiments with GPT-4” wskazali, że zakres i dogłębność demonstrowanych przez model językowy umiejętności sprawia, że można traktować go jako „wczesną (jeszcze niekompletną) wersję systemu ogólnej sztucznej inteligencji (AGI)”.

TO ODWAŻNE stwierdzenie. AGI uważana jest za Święty Graal badaczy sztucznej inteligencji (AI). To „umysł w pudełku” – program, który jest w stanie, jak człowiek, nauczyć się wykonywać niemal dowolne zadanie, a nie tylko to, do którego został specjalnie wytrenowany. I radzić sobie z nim co najmniej równie dobrze jak my. W zasadzie każda AI z klasyki science fiction to właśnie AGI. W rzeczywistości stworzenie takiej inteligencji wydawało się do niedawna równie odległe, co w latach 60.

DZIŚ jednak ten cel przestaje przypominać fatamorganę. Metaculus – platforma zbierająca prognozy ekspertów i futurystów – odnotowała w ubiegłym roku zdecydowany skok w przewidywanym terminie pojawienia się AGI. O ile wcześniej większość ankietowanych mówiła o latach 40. XXI w., w 2022 r. mediana przewidywań to już czerwiec 2026 r., a 75 proc. prognoz zakładało, że ogólna sztuczna inteligencja powstanie do 2030 r.

INNYM ROZWAŻANYM dziś tematem rodem z literatury science fiction jest kwestia świadomości algorytmów. Czy można przypisać im jakieś stany mentalne? Czy w AI, a tym bardziej w AGI, mogłaby pojawić się sfera emocji, pragnień, intencji? Nie jest jasne, jak w ogóle moglibyśmy się o tym przekonać, bo już GPT-4 potrafi rozprawiać na te tematy, a nawet rozwiązuje zadania, przy pomocy których psycholodzy sprawdzają rozwój świadomości u kilkuletnich dzieci, ale jednocześnie zapewnia, że jako program komputerowy nie ma dostępu do żadnych świadomych przeżyć. Badacze z OpenAI zaproponowali w tym kontekście eksperyment myślowy: gdyby z korpusu tekstów, na których GPT-4 uczony jest języka, usunąć wszystkie zdania odnoszące się do świadomości, a po zakończeniu edukacji program i tak byłby w stanie o niej rozprawiać, to moglibyśmy zacząć podejrzewać, że coś w rodzaju świadomości się u niego pojawiło. ©

Od redakcji: W wersji tekstu dostępnej online zaktualizowaliśmy liczbę sygnatariuszy listu otwartego zamieszczonego na stronie Future of Life Institute.

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp kwartalny

Kwartalny dostęp do TygodnikPowszechny.pl
  • Natychmiastowy dostęp
  • 92 dni dostępu = aż 13 numerów Tygodnika
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
89,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]
Dziennikarka specjalizująca się w tematyce międzynarodowej, ekologicznej oraz społecznego wpływu nowych technologii. Współautorka (z Wojciechem Brzezińskim) książki „Strefy cyberwojny”. Była korespondentką m.in. w Afganistanie, Pakistanie, Iraku,… więcej

Artykuł pochodzi z numeru Nr 16/2023

W druku ukazał się pod tytułem: Ludzkość puszcza stery