Wojciech Brzeziński: Rozmawiamy w dniu, w którym jedna z kluczowych spółek odpowiadających za rewolucję AI, Nvidia, zanotowała największy jednodniowy spadek w historii amerykańskiej giełdy. Czy to koniec „miesiąca miodowego” sztucznej inteligencji?
Prof. Aleksandra Przegalińska: Nie nazwałabym tego końcem „miesiąca miodowego”, ale na pewno mamy do czynienia z korektą. W ciągu ostatnich kilkunastu miesięcy było zdecydowanie za dużo hurraoptymizmu, a teraz widzimy wszystko w sposób o wiele bardziej realistyczny.
W przypadku Nvidii dochodzi także spór z rządem USA o to, że ich procesory są sprzedawane na chińskim rynku. Ale patrząc szerzej: problemem nie jest sam hype, ale i możliwości techniczne, bo te wszystkie rozwiązania mają często bardzo duże potrzeby. Sztuczna inteligencja potencjalnie mogłaby być lepsza dla użytkowników, to znaczy lepiej odpowiadać na pytania, generować lepsze grafiki itd., gdyby miała nieograniczone zasoby. Ale jak wszystko w świecie, takich nieograniczonych zasobów nie ma.
Miałam ostatnio rozmowy z liderami kilku spółek technologicznych w Dolinie Krzemowej, którzy mówili, że przy rosnącym wykorzystaniu AI te zasoby się mogą wyczerpać. Gdyby wszyscy ludzie nagle zaczęli kilka razy dziennie tworzyć klipy wideo z wykorzystaniem sztucznej inteligencji, to za trzy lata mogłoby w ogóle nie być infrastruktury zdolnej to obsługiwać. Mówimy o prądożernej, energożernej, koszmarnie ciężkiej technologii, która ma wiele ograniczeń. Sądzę, że właśnie te ograniczenia są coraz lepiej rozumiane i dostrzegane.
Rok 2023 to był karnawał niepoważnych dywagacji na temat tego, jak to sztuczna inteligencja totalnie zmieni świat. Tymczasem im więcej będziemy z niej korzystać, tym bardziej będziemy dostrzegać, że ona nie do wszystkiego się nadaje i ma ograniczenia zewnętrzne, związane chociażby ze wspomnianą infrastrukturą, a kluczowe dla dalszego jej wprowadzania. Wcześniej się o tym niewiele mówiło, ale teraz zaczyna już to do wszystkich powoli docierać.
Że to nie jest tak, że wpisuję do systemu polecenie, tworzy mi się magicznie obrazek i to nic nikogo nie kosztuje.
To wiele kosztuje, właśnie generowanie obrazów jest szczególnie obciążające. Wideo jest jeszcze droższe. Kosztowne są też długie rozmowy z ChatemGPT i innymi modelami. A ludzie korzystają z nich coraz częściej. Przyzwyczaili się do tych technologii. Tymczasem one mają swoją cenę infrastrukturalną, a także ekologiczną.
Charakterystyczne jest to, że każdy kolejny model ChatuGPT był zdecydowanie większy od poprzedniego. Jednak najnowszy, ChatGPT-4o, to model mniejszy od poprzedniego. Ma być łatwy w użyciu, dostępny dla wszystkich, ale ma mniejsze kompetencje. Stało się tak dlatego, że poprzedni system byłby po prostu nie do sfinansowania, gdyby wszyscy mieli z niego korzystać jednocześnie.
Drugi związany z tym problem: trwa usilne poszukiwanie modelu biznesowego. Na razie ChatGPT czy Claude firmy Anthropic, wiodące amerykańskie modele, powstają w partnerstwach z potężnymi firmami, które je finansują. W przypadku ChatuGPT to Microsoft, a w przypadku Claude'a – Amazon. Mamy więc sytuację, w której te firmy nie znalazły jeszcze sposobu na stabilne finansowanie swoich modeli, a ich potrzeby są bardzo duże. Na razie potrzeby pokrywają gigantyczne koncerny technologiczne, które wiele sobie po tej technologii obiecują, ale dużych zwrotów ze swoich inwestycji jeszcze nie widziały.
Chyba też coraz mniej dajemy się złapać na puste obietnice. W zeszłym roku można było nawet znaleźć na rynku tostery sterowane sztuczną inteligencją…
Wszystko miało być sterowane przez AI. Aż się okazało, że jak coś ma w nazwie „AI”, to szkodzi w sprzedaży, bo kojarzy się ludziom z totalnym przereklamowaniem i przesadą. Chwaleniem się czymś, czego się nie ma, takim dętym terminem, który nic nie znaczy.

Przyglądamy się największym wyzwaniom epoki człowieka oraz drodze, która zaprowadziła nas od afrykańskich sawann do globalnej wioski. Omawiamy badania naukowe i dyskusje nad interakcjami między człowiekiem i innymi elementami przyrody – zarówno tymi współczesnymi, jak i przeszłymi.
Czego więc dowiedzieliśmy się przez ostatnie 3-4 lata? Do czego te technologie faktycznie mogą się przydać?
Przykładów zastosowań jest wiele i będzie ich przybywać. Mam wrażenie, że to efekt psychologiczny, który już pewnie został opisany, ale apetyt rośnie w miarę jedzenia. Przez to, że ludzie zaczęli korzystać z bardzo sprawnej, przełomowej technologii, jaką jest ChatGPT, uznali, że każda kolejna generacja tej technologii będzie coraz lepsza, że będzie się wręcz poprawiać z miesiąca na miesiąc i w krótkim czasie osiągnie poziom absolutnego geniuszu.
Do tego zresztą przyłożyły się same firmy technologiczne. Pamiętam nieszczęsny wywiad sprzed paru miesięcy Miry Murati, dyrektor ds. technologii OpenAI, w którym opowiadała, że GPT-5 będzie na poziomie doktoranta. Wynikałoby z tego, że GPT-6 znajdzie się na poziomie doktora, potem profesora, potem szalonego geniusza. Więc oni sami napędzali myślenie w kategoriach „będzie coraz lepiej, będzie coraz więcej, sztuczna inteligencja albo was zje, albo zaskoczy swoim geniuszem”. Elon Musk też opowiadał te dziwne historie o tym, że w ciągu roku będziemy bezrobotni.
Więc ja bym powiedziała, że przez to wszystko ludzie nie doceniają czegoś, co już teraz jest możliwe.
A co jest możliwe?
Zacznijmy od rzeczy prostych, jak generowanie odpowiedzi na maile, generowanie najróżniejszych szablonów dokumentów, które można potem dostosowywać do stylu, którego oczekujemy – te wszystkie modele są w tym naprawdę bardzo dobre. One się świetnie uczą formatów różnych dokumentów, służą do komunikacji i do tego, żeby komunikację bardzo mocno przyspieszać, ale też żeby uczynić ją grzeczniejszą.
W grafice mamy kolosalny boom na modele dyfuzyjne, czyli takie, które tworzą obrazy. Czasami te grafiki może nie są najlepsze, ale często osiągają poziom wystarczająco profesjonalny, by np. generować reklamy. A to jest znacznie tańsze niż wyjeżdżanie gdzieś na lokację na kilka tygodni z całym zespołem. W tym momencie taką reklamę można za pomocą AI wyrenderować w kilka dni. To już wydaje się pewne: w wielu sektorach kreatywnych ludzie zobaczą zmianę.
Widzimy też ogromną zmianę, jeśli chodzi o dostęp do programowania i umiejętności programistycznych, ponieważ te modele świetnie piszą kod. Dzisiaj osoba, która nie ma bladego pojęcia o sztucznej inteligencji czy programowaniu, może dostać Excel z opiniami klientów i powiedzieć modelowi sztucznej inteligencji, żeby policzył z tego sentyment, czyli czy produkt się podoba, czy nie. Wystarczy, że o to w miarę sensownie zapyta.
Diagnostyka medyczna?
Rozwijała się bardzo dobrze już wcześniej, ale teraz zyskała dodatkowe siły, bo modele, które generują obrazy, mogą być wykorzystywane jako modele predykcyjne do diagnostyki obrazowej.
To się wszystko naprawdę zmieniło w ciągu ostatnich dwóch lat. Przykładów jest wiele, sama zresztą jestem jednym z nich. Nie mogę sobie już wyobrazić pracy w takim tempie bez wykorzystania asystentów AI. Wykorzystuję je do masy zadań, do komunikacji z moim zespołem badawczym, do przygotowywania nowych propozycji, pomysłów na granty, do wsparcia w poprawianiu czy współpisaniu z nami aplikacji, co zresztą zawsze robimy etycznie i transparentnie. Gdyby nam zabrać tę technologię, spowolnilibyśmy swoją pracę.
Problem jest zresztą szerszy. Już parę lat temu ktoś powiedział, że w zasadzie od kiedy mamy internet, a już na pewno od kiedy mamy smartfony, to nasze umysły są w zasadzie umysłami cyborgów. Że znaczną część naszych operacji umysłowych przekładamy na te urządzenia, żeby zwolnić swoje możliwości operacyjne i zająć się czymś innym.
Rozumiem, że mówimy o czymś takim, tylko w dużo większej skali?
Mówimy o substytucji pewnych zadań, w tym zadań poznawczych. Ludzie nie wykonują jakichś operacji programistycznych: jeszcze kilka lat temu słyszeli, że wszyscy muszą uczyć się programowania, a dziś już wiedzą, że nie muszą. Mogą zająć się czymś innym, a programowanie robi za nich AI. Tak jest w wielu zadaniach opartych na wiedzy czy związanych z analizą informacji.
Ale ciekawsze jest to, że sztuczna inteligencja jest komplementarna. Staje się takim sparingpartnerem do współpracy. My np., jako zespół badawczy, wyhodowaliśmy sobie krytyków AI. Czyli: jeśli napiszemy propozycję grantową albo nową publikację, materiał do książki albo artykuł, to prosimy krytyka, który dostał wiele instrukcji od nas i ma określoną tożsamość, żeby tę naszą pracę po prostu skrytykował. I to jest często trafiona krytyka.
Dodaliście sztuczną inteligencję jako członka zespołu.
Myślę, że w wielu branżach wykorzystuje się AI w tej roli. Że to jest taki sparingpartner, który zostaje np. marketerem albo sprawdza informacje dla zespołu, albo zarządza kalendarzem. Sztuczna inteligencja sprawdza się właśnie w takich funkcjach. Odciąża nas, ale jest komplementarna wobec naszej pracy.
Jak to nas zmieni? Nasz sposób myślenia, sposób komunikowania się z innymi ludźmi?
Tu można kreślić bardzo radykalne scenariusze. Powiedzieć, że staniemy się kompletnymi głupolami. Słyszy się czasem takie opinie, że sztuczna inteligencja zrobi z ludźmi to, co zostało pokazane w filmie „Wall-E”: że oni zwolnią się z myślenia, będą oddawać się przyjemnościom i dadzą sobą zarządzać.
Ja bym powiedziała, że tak raczej nie będzie, bo ta korekta, sceptycyzm, o którym rozmawiamy, pokazuje, że sztuczna inteligencja nie radzi sobie sama, ma szereg ograniczeń i wymaga nadzoru człowieka. To jest też odkrycie tego roku i mam nadzieję, że to jest dobre odkrycie.
Natomiast co się w nas zmieni… Myślę, że chodzi o pewną niecierpliwość. To może anegdotyczny dowód, ale mam dziś zupełnie inne szacunki czasu wykonania różnych zadań. Kiedy myślę, że mogę coś zrobić z AI, to zakładam, że wykonam to dużo szybciej. Uważam przez to czasami, że inni też wykonają pewne rzeczy dużo szybciej, i mogę mieć nierealne oczekiwania. Wyobrażam sobie, że generacje ludzi pracujących z AI bardzo intensywnie mogą mieć poczucie, że wszystko powinno się dziać natychmiast.
Druga rzecz: jak mam wykłady ze studentami z generacji Z, to kiedy im wysyłam materiały, oni ich nie czytają, tylko wrzucają do modelu językowego – rozmawiają z tymi dokumentami. To nie znaczy, że nie pozyskują wiedzy, ale np. pytają: „Jaka jest najbardziej zaskakująca rzecz w tym artykule?”, „Jak ten artykuł jest powiązany z innymi i kto jeszcze na ten temat pisze?”. „W jaki sposób opisane jest zjawisko A czy B?”. To inny sposób absorbowania wiedzy niż ten, do którego jesteśmy przyzwyczajeni.
Niektórzy mogą się zżymać i powiedzieć, że to kiepski sposób konsumpcji wiedzy, bo jednak czytanie długiego tekstu uczy cierpliwości, buduje inaczej wyobraźnię.
I na pewno jest waga takiego poglądu. Natomiast jakbym miała uprawiać nie diagnozę, ale wishful thinking, tobym powiedziała, że może ludzie, którzy będą często korzystali ze sztucznej inteligencji, będą odpytywali te dokumenty, których będą potrzebowali, żeby się szybko czegoś dowiedzieć, a w czytaniu odnajdą jakąś przyjemność.
Tego powinniśmy uczyć w szkołach. Bo myślę, że jesteśmy przebodźcowani, ale to nie jest wina AI, tylko smartfonów i social mediów. I myślę, że to się, niestety, może pogłębić, jeśli nie spróbujemy myśleć o AI jako o czymś komplementarnym, co część zadań z nas zdejmie, żebyśmy mogli mieć więcej czasu na inne rzeczy, wartościowe.
A obawa, że te wartościowe rzeczy będą zapomniane? Że ludzie będą niecierpliwi, że będą pozyskiwać wiedzę na wyrywki, także wiedzę wręcz zmyśloną przez modele AI?
Dlatego się cieszę z tej korekty AI. Z tego, że mamy rodzaj otrzeźwienia. Mam wrażenie, że kiedy rozmawiam z moimi studentami i studentkami, to oni też widzą ograniczenia tych modeli i mają coraz bardziej precyzyjne sposoby ich wykorzystania. Mieliśmy np. dyskusję o tym, czy warto jeszcze dzieci uczyć pisania esejów, skoro i tak wiadomo, że większość stworzy je przy pomocy jakiejś wersji generatora. Może, zamiast tego, warto zacząć je uczyć medytacji, jogi, poezji?
I jak brzmi odpowiedź?
Jestem przekonana, że pisania zdecydowanie trzeba ich uczyć. I formułowania swoich myśli. Jakbym miała być adwokatem diabła, to powiedziałabym, że sztucznej inteligencji też jest potrzebny człowiek, który potrafi jej sensownie zadać pytanie. Dzisiejsze rozmowy z AI to tzw. prompting – i jest on albo zadawaniem słabych pytań i otrzymywaniem słabych odpowiedzi, albo ciekawą, złożoną konwersacją.
Czego powinniśmy się uczyć, żeby jak najwięcej z tej rewolucji wyciągnąć? Nie tylko dzieci, my wszyscy?
Uważam, że jak najwcześniej trzeba się zacząć uczyć na temat technologii, którą dzieciaki są otoczone (chociaż chciałabym, żeby były nią otoczone mniej). Uważam, że telefonów jest za dużo, dzieciaki dostały technologię, ale nie były przygotowane do tego, jak z niej korzystać. Szkoła, nie tylko polska, na technologię się obraziła, i nie potrafiła jej uczyć.
To, czego warto się uczyć, to swego rodzaju higieny korzystania z technologii. Może powinny być dla dzieciaków zajęcia o cyfrowym detoksie: żeby spróbowały, jak to jest się wypiąć z sieci na jakiś czas. Trzeba się uczyć myślenia o konsekwencjach tego, że technologia z nami jest. Trzeba rozmawiać o tym, co to jest nałóg cyfrowy, wywołany ciągłym korzystaniem z telefonu. Tak, wprowadziłabym do szkół krytyczną naukę o technologii. To byłby projekt takiej cyfrowej higieny przyszłości.
Druga rzecz, której bym uczyła, to właśnie prompting. Sposób zadawania pytań sztucznej inteligencji, rozmawiania o tym, czego unikać, co jest dobrymi praktykami, co działa. To pozwala też lepiej ją zrozumieć. Mam wrażenie, że ludzie dzisiaj, nawet korzystając z ChatGPT, robią to tak, jakby korzystali z czarnego, magicznego pudełka: ja o coś zapytam, a ono odpowie. Ale jak to działa, jak wyglądają te mechanizmy, jak choćby z grubsza wygląda ten algorytm, tego często nie wiedzą. A przez to korzystanie z niego może nie być aż tak efektywne.
Uczyłabym też programowania, bo uważam, że jest fajnym ćwiczeniem intelektualnym, sposobem definiowania problemów. Ale największy nacisk położyłabym na bycie razem. Dlatego, że w dobie technologii jest dużo zadań rutynowych, które ludzie wykonywali samotnie, a które może zostaną z nich częściowo zdjęte. Działanie ze sztuczną inteligencją też jest formą współpracy. Więc uczyłabym współpracy między ludźmi i współpracy z AI.
AI świetnie się spisuje w podstawowych zadaniach, takich jak streszczenia, pisanie prostego kodu: w wielu zawodach takie rzeczy były przepustką do uczenia się rzeczy bardziej zaawansowanych. Czy nie ryzykujemy tym, że następne pokolenia nie będą już miały podstaw?
Sztuczna inteligencja może wykonywać działania proste i rutynowe, ale to nie jest maksimum jej możliwości. Ona wymyśla już nowe terapie albo gra w szachy: robi rzeczy, które są na końcu drabiny poznawczej.
Ale zgadzam się: robi też za nas część prostych rzeczy. Dobrym przykładem jest ten słynny klepacz kodu, czyli osoba, która wykonuje najprostsze programistyczne zadania. To przykład zadania, które wkrótce ludzie przestaną wykonywać, ale jednocześnie jest ważne, żeby umieli pójść dalej. Najpierw muszą umieć programować, a potem mogą być architektami systemów.
Musimy więc wypracować schemat, i to już jest kwestia uczelni wyższych, ale też środowisk pracy, żeby dawać szansę ludziom robić podstawowe zadania. Niech będzie tak, że AI wykonuje dużą część takiej pracy w firmie, ale ta firma musi również przyjmować na staże, bez których nie będziemy w stanie piąć się wyżej.
W historii mieliśmy już kilka okresów, które nazywano „zimą AI”, kiedy postępy w tej dziedzinie spowalniały dramatycznie. Czy idą przymrozki?
Nie wydaje mi się. Mamy do czynienia z wyjątkowym postępem, zwłaszcza w obszarze modeli generatywnych i współpracy między człowiekiem a AI. To, czego możemy się spodziewać, to raczej korekta oczekiwań i bardziej zrównoważony rozwój, a nie powtórka z „zim”.
Rozmawiał Wojciech Brzeziński

Prof. Aleksandra Przegalińska jest filozofką. Prorektorka Akademii Leona Koźmińskiego i badaczka sztucznej inteligencji, autorka kilku poświęconych jej książek.

Projekt dofinansowany ze środków budżetu państwa, przyznanych przez Ministra Nauki i Szkolnictwa Wyższego w ramach Programu „Społeczna Odpowiedzialność Nauki II”.
„Tygodnik Powszechny” – jedyny polski tygodnik społeczno-kulturalny.
30 tys. Czytelniczek i Czytelników. Najlepsze Autorki i najlepsi Autorzy.
Wspólnota, która myśli samodzielnie.
















