Sztuczna inteligencja 2025: prawdy i mity, hity i kity

Sztuczna inteligencja to bardzo szerokie pojęcie, obejmujące znacznie różniące się od siebie systemy. Przyjrzymy się im bliżej pod kątem ich obecnego stanu rozwoju, potencjału i zagrożeń.
Czyta się kilka minut
Anton Vierietin / Shutterstock
Anton Vierietin / Shutterstock

Arvind Narayanan i Sayash Kapoor, autorzy książki „AI Snake Oil”, proponują następujący eksperyment myślowy. Wyobraźmy sobie, piszą, że na określenie wszelakich środków służących do przemieszczania się – samochodów, rowerów, rakiet, psich zaprzęgów, samolotów, żaglowców i tankowców – mamy wyłącznie jedno słowo: wehikuł. 

Dodajmy jeszcze wehikuł czasu połączony z teleportacją, jako odpowiednik mitycznej ogólnej sztucznej inteligencji (AGI). Jaki sens miałyby wtedy stwierdzenia typu „wehikuły są eko” (rowery czy odrzutowce?), „szybkość wehikułów wzrosła dramatycznie w ostatnim stuleciu” (psich zaprzęgów czy samochodów?) albo „wehikuły to domena sci-fi” (tramwaje czy podróże w czasie?).

Tak właśnie wygląda większość dyskusji o AI (artificial intelligence, czyli sztucznej inteligencji, a może, jak sugeruje Yuval Noah Harari, alien intelligence – obcej inteligencji), ponieważ tym wspólnym mianem określamy – nie tylko potocznie, ale też według definicji zawartej chociażby w rozporządzeniu UE – ogromną różnorodność metod obliczeniowych, opartych na analizie danych. 

Od klasycznej statystyki, której przykładem jest wciąż powszechnie stosowana liniowa analiza dyskryminacyjna, znana od 1936 r., przez niemal równie klasyczne uczenie maszynowe, wykorzystywane od dziesięcioleci (np. przez platformy medialne do podsuwania nam treści przykuwających uwagę), a także najnowsze duże modele językowe (jak ChatGPT), dające niewyobrażalne wcześniej możliwości komunikacji z maszyną w języku naturalnym, aż po reklamowaną powszechnie AGI, która według sprzedawców tej idei już niedługo przewyższy ludzi w wykonywaniu najbardziej wartościowych ekonomicznie zadań.


EU Artificial Intelligence Act rozdział I, art. 3, pkt 1.: „system AI” oznacza system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu, a także który – na potrzeby wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne.


AI: hity i kity

Dla większości z nas AI to dwa ostatnie punkty, czyli ChatGPT i mityczna AGI, która pozbawi nas pracy, a potem przerobi na spinacze. Tą kwestią zajmiemy się w dalszej części – najpierw przyjrzyjmy się konkretnym algorytmom opartym na AI, które już dzisiaj działają (albo nie), z pożytkiem (albo ze szkodą) dla nas. Poniższy rysunek symbolicznie umieszcza niektóre z zastosowań AI w przestrzeni tych dwóch własności.

Po prawej stronie gromadzimy systemy, które działają wyraźnie lepiej niż stosowane wcześniej metody. Rozpoznawanie mowy, tłumaczenia, autouzupełnianie czy spellcheck stały się częścią codzienności do tego stopnia, że zwykle nawet nie myślimy o nich w kontekście AI.

Aura świeżości towarzyszy systemom generatywnej AI, tworzącym w odpowiedzi na zapytania w języku naturalnym teksty, obrazy i piosenki, które coraz trudniej odróżnić od wytworów ludzi. Dlatego również znajdują się po prawej stronie wykresu, tylko trochę niżej na umownej skali ,,dobra’’ – bo na tych właśnie technologiach oparte są deepfake’i, coraz powszechniej wykorzystywane w kampaniach dezinformacji i przestępstwach. 

Podobnie ocenić można stosowanie dużych modeli językowych do generowania esejów czy artykułów, przedstawianych jako własne i oryginalne prace w celu oszukiwania systemów oceny czy recenzji. Skutkiem ubocznym jest też stopniowy zanik zdolności krytycznego myślenia użytkowników.

Wiele firm oferuje narzędzia do wykrywania takich oszustw, również oparte na AI – ale to już niestety przesuwa nas mocno w lewą stronę wykresu, gdyż narzędzia te praktycznie nie działają, podobnie jak oparte na AI oceny ryzyka kryminalnego rodem z „Raportu mniejszości” i wiele innych produktów, oferowanych czasami do krytycznych zastosowań. 

Niestety, okazuje się to zwykle dopiero po dłuższym czasie, kiedy jakaś niezależna organizacja podejmie trud statystycznej oceny wyników działania tych produktów, gdyż algorytmy, na których się opierają, jak również dane, na których były uczone, pozostają tajemnicą producentów.

 Gdzieś pośrodku umieścić można automatyczne generowanie kodów programów komputerowych na podstawie zwięzłych opisów (vibe coding). Sytuacja jest tu znacznie korzystniejsza niż w przypadku ogólnych LLM, takich jak ChatGPT, które do treningu wymagają niewyobrażalnych ilości danych.

Niekontrolowane zasysanie wszystkich danych internetu do uczenia LLM przypomina lemowskiego Zbója Gębona – niestety za wyjątkiem Demona Drugiego Rodzaju, który wpuszczałby tylko informacje prawdziwe.

I dlatego właśnie w tekstach, generowanych przez uczony na takich danych model, naturalnie pojawiają się kompletne bzdury – tak samo jak w przypadkowych tekstach z internetu. Większość tych bzdur jest wyłapywana w niejawnym procesie dopasowywania wyjścia do oczekiwań użytkowników, o którym możemy przeczytać w świetnym artykule Łukasza Lamży.

Pozostałe nazywamy łagodnie halucynacjami, choć np. według autorów artykułu „ChatGPT is bullshit” nie jest to właściwe określenie.

Wróćmy do modeli tworzonych i uczonych konkretnie w celu pisania kodów programów. Tu sytuacja jest znacznie korzystniejsza, gdyż modele takie możemy trenować na ogromnych bazach kodów stosunkowo dobrej jakości, gromadzonych przez programistów na popularnych platformach GitHub czy GitLab.

Modele te już dzisiaj stanowią dużą pomoc dla programistów, a zgodnie z ideą vibe coding pozwalają nawet na tworzenie prostych aplikacji osobom nieumiejącym programować. 

Jednak reklamowany przez sprzedawców tych technologii świat, w którym całe programowanie wydzierżawimy AI, niesie ze sobą rzadko wspominane niebezpieczeństwa, charakterystyczne dla wszystkich zastosowań AI na większą skalę.

Bezpieczeństwo w kontekście AI

Repozytoria kodów komputerowych (jak wspomniane powyżej GitHub czy GitLab) zawierają źródła o jakości nieporównanie wyższej niż przeciętna zawartość internetu, ale nawet tutaj zdarzają się błędy. Mogą to być np. nieuważne konstrukcje programistyczne, wprowadzające dziury w bezpieczeństwie, przez które można włamać się do systemu.

Błędy takie zdarzają się dość często we współczesnych systemach operacyjnych, które w wyścigu do nowości są wypuszczane na rynek bez należytych testów. Na szczęście, wykryte błędy są naprawiane w kolejnych uaktualnieniach systemu – dlatego właśnie szybkie instalowanie uaktualnień jest krytyczne dla bezpieczeństwa naszych komputerów i telefonów. 

Niestety, informacje o wykryciu takich błędów nie zawsze trafiają od razu do producentów. Istnieją firmy, które takie nieujawnione wcześniej dziury (zero-day exploits) skupują za kwoty przekraczające milion dolarów i wykorzystują w systemach takich jak Pegasus do przejmowania kontroli nad telefonami osób, które nabywca systemu może potem inwigilować.

Po załataniu systemu taka dziura traci wartość, bo nie będzie umożliwiać włamań do systemów zaktualizowanych. Chyba że ten sam błąd zostanie powielony w różnych miejscach.

Warto też rozważyć jeszcze bardziej niebezpieczny scenariusz. Można sobie wyobrazić sytuację, gdy dostarczająca model firma świadomie umieści w nim skłonność do generowania specjalnie zaprojektowanych dziur w wybranych sytuacjach. 

Wtedy taka dziura (inaczej backdoor, czyli tylna furtka, do której klucz ma tylko jedna firma czy osoba) może się rozprzestrzenić na wiele systemów – nie tylko telefonów, ale też infrastruktury krytycznej – i pozostać uśpiona do momentu, aż współczesny Doktor No postanowi zapanować nad światem.

Podobnie wygląda kwestia bezpieczeństwa większości zastosowań AI, opartej na dużych modelach językowych. Ze względu na koszty są one tworzone wyłącznie przez kilka megakorporacji, które nie podlegają żadnej kontroli, a otwartość ich działań porównać można z tajnym laboratorium na wyspie Doktora No. 

Modele uruchamiane na serwerach tych firm mogą być zmieniane za każdym razem, kiedy wysyłamy do serwisu zapytanie. Nawet jeśli taki model uruchomimy na własnych serwerach, nie będziemy w stanie z jego parametrów odczytać, jak zachowałby się w specyficznej sytuacji. Tracimy kontrolę.

Ale wróćmy do pozytywów. Sztandarowym przykładem, mającym wspierać tyleż powszechne co bezsensowne deklaracje o AGI, która „zlikwiduje wszystkie choroby i rozwiąże wszystkie problemy ludzkości”, jest program AlphaFold, obliczający struktury przestrzenne białek. 

Program ten jest nieporównanie bardziej efektywny niż stosowane wcześniej metody, między innymi dzięki wykorzystywanym również w LLM mechanizmom uwagi. Fakt ten skracany jest niesłusznie do stwierdzenia „AI przewiduje struktury białek”, co rodzi wrażenie, jakby rola naukowców ograniczała się tutaj do zadawania pytań jakiejś ogólnej AI. Wręcz przeciwnie!

AlphaFold to wyspecjalizowany, czyli nadający się wyłącznie do jednego celu program, oparty na ogromnej bazie wiedzy dziedzinowej, gromadzonej przez dziesięciolecia badań naukowych. Program szuka takiej konfiguracji przestrzennej cząsteczki, która odpowiada minimum energii, więc wyniki łatwo sprawdzić. 

Dzięki tej specyficznej sytuacji nieznana droga dochodzenia do optymalnego rozwiązania nie jest tak dużym problemem jak w innych zastosowaniach AI.


W roku 2017 ośmiu naukowców z Google opublikowało artykuł „Attention is all you need’’. Tytuł, inspirowany piosenką „All you need is love”, odnosił się do wykorzystania w uczeniu głębokim mechanizmu uwagi, przypisującemu symbolom w sekwencji (na przykład słów lub aminokwasów) znaczenie względem innych symboli. Architekturę tę nazwano „transformer”, i do dzisiaj stanowi ona podstawę LLM – GPT to skrót od Generative Pre-trained Transformer.


Apokalipsa AI: opowieść jak z bajki

Popularne opowieści o nadchodzącej Apokalipsie AI nie opierają się, jak prognozy globalnego ocieplenia, na faktach weryfikowanych przez niezależnych naukowców, tylko na emocjach osadzonych w kulturze masowej. 

Weźmy na przykład, zaproponowany przez Nicka Bostroma, popularny eksperyment myślowy: powierzamy AI zarządzanie fabryką spinaczy, ustalając jako cel maksymalizację produkcji. AI przerabia wszystko, włącznie z ludźmi, na spinacze. Jest to przeróbka wcześniejszego argumentu innego proroka AI – Eliezera Yudkowsky’ego, który odnosił się bezpośrednio do bajki Disneya „Uczeń Czarnoksiężnika”.

W bajce tej tytułowy bohater (Myszka Miki) zaczarowuje miotłę, aby napełniała wodą kocioł, zapominając, że nie zna zaklęcia na ,,stop’’. Jak widać, nawet odniesienie do będącej źródłem tej archetypowej historii ballady Goethego nie pasowało do poziomu rozważań.

Niestety nie da się „między bajki włożyć” wpływu szalonej rozbudowy infrastruktury AI na klimat. W kwietniu 2025 r. Eric Schmidt, kierujący przez lata firmami Google i Alphabet, zeznając przed Kongresem USA wyraził konieczność dostarczenia w ciągu 3–5 lat dodatkowych 90 GW energii dla zasilenia (tylko) amerykańskiej infrastruktury AI. 

To znacznie więcej niż zużywa Polska na wszystkie potrzeby, włącznie z utrzymaniem przy życiu 40 milionów osób. Nikt nie zdąży w tak krótkim czasie wybudować 90 elektrowni atomowych, więc energia ta powstać może tylko z paliw kopalnych. 

W ten sposób gargantuiczne zapotrzebowanie na energię centrów obliczeniowych – takich jak nazwany skromnie Colossus Elona Muska, przeciwko któremu protestują już mieszkańcy Memphis truci zanieczyszczeniami z turbin gazowych – przyspiesza globalne ocieplenie. Ale „apokalipsa klimatyczna” nie jest reklamowane tak szeroko jak „apokalipsa AI”, więc pewnie jej nie zauważymy. 

Tak jak w filmie „Nie patrz w górę”, w którym rząd i media do ostatniej chwili odwracają uwagę obywateli od nadchodzącej katastrofy. W tym filmie najbogatsi uciekają z Ziemi ostatnią rakietą. Plany Elona Muska, zakładające przetrwanie ludzkości (czy raczej, jak się należy domyślać, wybranych osobników) na Marsie, wydają się być inspirowane tą właśnie historią.


(Na Marsa, serio? Tam nie ma tlenu, jest zabójcze promieniowanie, gleba jest toksyczna, a niska grawitacja zaburza podstawowe funkcje ludzkiego organizmu, nie mówiąc o ryzykach związanych np. z porodem. Nawet pomijając niewyobrażalne koszty dostarczania materiałów i kolonistów, bez porównania łatwiej stworzyć pod ziemią lub na dnie oceanów habitaty, które przetrwają wojnę nuklearną lub inną katastrofę. Albo też, ewentualnie, po prostu nie niszczyć Ziemi…)


Według niektórych opinii inwestorzy, dostarczający setek miliardów dolarów przepalanych w zawrotnym tempie przez firmy tworzące coraz większe modele AI, zaczynają zauważać nieproporcjonalną nikłość dochodów. W tej sytuacji można dalej obiecywać lub straszyć.

Straszenie jest proste: jeśli to „oni” stworzą „złą AGI”, zanim my stworzymy „dobrą AGI”, zapanują nad światem. Opiera się to oczywiście na dyskutowanym wcześniej, niemal religijnym przekonaniu o bliskim nadejściu wszechmocnej AGI, i doprowadziło już do swoistej reinkarnacji wyścigu zbrojeń, w której Związek Radziecki zastąpiły Chiny, a czołgi — coraz większe centra danych.

AI: reklamowana przyszłość i pomijana teraźniejszość

W kontekście obietnic powszechnej szczęśliwości i dobrobytu w świecie rządzonym przez AI, warto się przyjrzeć temu, co widzimy już dzisiaj.

Zaliczane dzisiaj do AI algorytmy, wdrażane w mediach społecznościowych w celu maksymalizacji zaangażowania użytkowników, polaryzują społeczeństwa od dziesięcioleci. 

Klasycznym przykładem jest ludobójstwo w Myanmar (2016-17), wynikłe w dużej części z rozpropagowania za pośrednictwem platformy Facebook mowy nienawiści jednego ultranacjonalistycznego mnicha buddyjskiego, którego posty szkalujące muzułmańską grupę etniczną Rohingya były przez algorytmy powielane i propagowane, w przeciwieństwie do nieporównanie liczniejszych opinii innych mnichów, wzywających do współczucia. 

AI ułatwia tworzenie fałszywych treści na wielką skalę. 10 lat temu jedna osoba z farmy trolli Prigożyna kontrolowała do 20 fałszywych kont w serwisach społecznościowych. 5 lat temu udział botów w dyskusjach o zabarwieniu politycznym  na Twitterze wahał się między 17 a 44 proc. W roku 2024 ruch internetowy generowany przez algorytmy przekroczył 51 proc., przerastając aktywność generowaną przez ludzi. 

Prowadzone z pomocą AI fałszywe konta, deepfake’i i mikrotargetowanie, które odsłania przed algorytmami nasze słabości, są od lat wykorzystywane do wpływania na decyzje wyborców, przyczyniając się znacząco do osłabiania demokracji.

Inwigilacja obywateli w zastępujących demokracje systemach totalitarnych nie jest niczym nowym, AI zmienia tylko skalę. Wcześniej nawet częściowa inwigilacja społeczeństwa wymagała zaangażowania ogromnych zasobów. Na przykład w dawnej  NRD, według niektórych szacunków, informatorem był co siódmy obywatel – mniej więcej w tym czasie George Orwell pisał „Rok 1984”. 

Dzisiaj systemy oparte na AI mogą to robić bez porównania efektywniej i taniej, umożliwiając inwigilację totalną, co pokazuje działający w Chinach od ponad dekady Social Credit System, którego pierwsze wdrożenia zbiegły się z premierą odcinka „Nosedive” serialu „Czarne Lustro’’. 

AI jest już powoli wprowadzana do administracji publicznej – nie tylko w USA (w ramach DOGE). Zanim ostatecznie zautomatyzujemy decyzje o wyrokach i świadczeniach, przypomnijmy powieść „Proces” Franza Kafki. Historia Józefa K., opisana sto lat temu, pokazuje dramat życia w systemie, w którym bezosobowa władza nie ujawnia zarzutów i nie uzasadnia wyroków. 

Warto do niej wrócić, bo „zaleceń lub decyzji” algorytmów opartych o AI też nie będziemy w stanie wyjaśnić.
 


 

 

Projekt dofinansowany ze środków budżetu państwa, przyznanych przez Ministra Nauki i Szkolnictwa Wyższego w ramach Programu „Społeczna Odpowiedzialność Nauki II”.

Cały artykuł dostępny tylko dla subskrybentów

„Tygodnik Powszechny” – jedyny polski tygodnik społeczno-kulturalny.
30 tys. Czytelniczek i Czytelników. Najlepsze Autorki i najlepsi Autorzy.
Wspólnota, która myśli samodzielnie.

Najlepsza oferta

Czytaj 1 miesiąc za 1 złotówkę dzięki promocji z

  • Nieograniczony dostęp do treści w serwisie i wersji audio artykułów
  • Tematyczne newslettery i dodatkowe publikacje tylko dla subskrybentów
  • 29 zł miesięcznie po miesiącu promocyjnym. Rezygnujesz, kiedy chcesz

Wypróbuj TP Online: 7 dni za darmo

  • Nieograniczony dostęp do treści w serwisie i wersji audio artykułów
  • Tematyczne newslettery i dodatkowe publikacje tylko dla subskrybentów
  • 29 zł miesięcznie po zakończeniu okresu próbnego
  • Wymagane podpięcie karty. Rezygnujesz, kiedy chcesz

TP Online: Dostęp roczny online

ilustracja na okładce: Jerzy Skakun dla „TP”