Nie boimy się buntu robotów. Boimy się tego, że nie zdołamy przewidzieć, jak AI zmieni nasz świat

Aleksander Mądry: To nie jest tak, że modele AI nas polaryzują albo dyskryminują. One po prostu – a może aż – uwypuklają nasze instynkty i uprzedzenia.
Czyta się kilka minut
W hallu Filharmonii Szczecińskiej zaprojektowany przez Studio Barozzi Veiga. Polska, Szczecin, luty 2015 r. // Fot. View Pictures / Getty Images
W hallu Filharmonii Szczecińskiej zaprojektowany przez Studio Barozzi Veiga. Polska, Szczecin, luty 2015 r. // Fot. View Pictures / Getty Images

Wojciech BrzezińskI: W OpenAI był Pan do niedawna szefem działu gotowości. Gotowości na co?

Prof. Aleksander Mądry: Zasadniczym celem gotowości, w szerokim tego słowa znaczeniu, jest zrozumieć, jak ta technologia ewoluuje i jaką tak naprawdę przyniesie przyszłość. Szczególny nacisk kładziemy na tzw. zagrożenia katastrofalne (catastrophic risks), ale tak naprawdę musimy być gotowi na to, że zmieni się wiele rzeczy – potencjalnie mniej dramatycznie, ale z dużo większym wpływem na rzeczywistość. Pytanie brzmi: co może się zmienić? Skąd będziemy wiedzieli, że się zmienia? Musimy starać się aktywnie patrzeć na to, co przed nami.

Ja to porównuję do świateł samochodowych. Kiedy prowadzisz samochód nocą lub we mgle, to nie wiesz, co jest daleko przed tobą, ale możesz przynajmniej obserwować coś, co pojawia się w blasku reflektorów, a jesteś też przygotowany na to, że coś może nagle wyskoczyć. Wiesz, że może się zdarzyć coś, co trudno przewidzieć, ale i tak musisz się tego spodziewać. To dla mnie definicja gotowości.

Mam wrażenie, że naszą uwagę długo przyciągały te katastrofalne zagrożenia, powiedzmy: jakiś bunt maszyn. Ale dziś to chyba nie jest coś, na czym powinniśmy się skupiać. Wydaje mi się, że do terminatora jest jeszcze daleko.

Pełna zgoda. Smutne, że dywagacje dotyczące kwestii bardzo interesujących i potencjalnie możliwych, ale jednak w dłuższej perspektywie czasowej, zabrały tlen całej rozmowie na temat AI.

„Roboty-zabójcy” to dobry przykład. Prawdziwej obawy nie budzi to, że maszyny bojowe się zbuntują, ale to, że te bardzo potężne systemy zaczną robić rzeczy, których nie przewidzimy. Że będą wykonywać nasze polecenia, ale w sposób, który zrodzi bardzo nieoczekiwane konsekwencje. Tworzymy coś potężnego i nie do końca wiemy, jak to kontrolować [więcej o tym w tekście Agaty Kaźmierskiej o wojnach AI ].

Przede wszystkim jednak powinniśmy myśleć o tym, w jaki sposób ta technologia wpływa na nas dzisiaj i w najbliższym horyzoncie czasowym. Jakie nowe niebezpieczeństwa się pojawią, jak będą zmieniały się społeczeństwo, kultura i demokracja. Bo możemy być pewni, że zmieni się wszystko.
 

Na lepsze?

Oczywiście mamy nadzieję, że na lepsze, ale część może się zmienić na gorsze. Musimy więc rozmawiać o tym, jak świat się zmienia, jak chcielibyśmy, żeby się zmieniał, i czego wolelibyśmy uniknąć. A potem o tym, co zrobić, żeby zrealizował się scenariusz pozytywny.

Ekstremalne scenariusze zawsze przyciągają uwagę bardziej niż niuanse albo problemy, które trzeba długo tłumaczyć.

Tak, ale mówimy też o zupełnie innym poziomie emocji, w którym uwagę skupiają np. stwierdzenia Eliezera Yudkowsky’ego, twierdzącego, że powinniśmy zbombardować centra obliczeniowe (data centers), jeśli budowane w nich są zbyt zaawansowane AI.

Wyjaśnijmy: Yudkowsky jest badaczem sztucznej inteligencji, ale to samouk i autor powieści science fiction.

Jego stanowisko wywołało oczywiście wywołało gwałtowną reakcję i od razu mamy w mediach zderzenie dwóch stron, wygłaszających bardzo wyraziste opinie.

Rozmowa o wpływie AI na rynek pracy, szkolnictwo czy naukę jest nudniejsza, bo tu opinie są bardziej zbieżne, a więc i emocje mniejsze. A to właśnie w tych dziedzinach sztuczna inteligencja będzie miała niesamowity wpływ na nasze społeczeństwo.

Uruchomiony przed trzema laty ChatGPT rozpoczął wielki eksperyment społeczny. Ludzie dostali w ręce potężne narzędzie, z którym nie mieli przedtem kontaktu, a powiedziano im: „Możecie z tym robić, co chcecie”. Czego nauczyły nas te trzy lata?

W pewnym sensie dowiedzieliśmy się znacznie mniej, niż można było oczekiwać. Choćby dlatego, że wciąż ogromna liczba ludzi nie miała z tymi narzędziami żadnego kontaktu – i to mimo że są darmowe. Czasami wydaje się, że nawet niektórzy politycy wypowiadający się na temat AI nigdy w życiu nie spróbowali z tych narzędzi skorzystać.

Z mojej perspektywy jedna lekcja jest więc taka, że nie chodzi o to, żeby po prostu udostępnić narzędzie, ale też pokazać je; skonceptualizować to, w jaki sposób jest użyteczne. Żeby rzeczywiście AI mogła mieć pozytywny wpływ na świat, musimy pomóc ludziom zrozumieć, czym ona tak naprawdę jest, czego mogę po niej oczekiwać, czy mi pomoże itd.

A czego mogę oczekiwać?

Może nie możemy powiedzieć temu modelowi „ulecz raka”, ale przecież jako społeczeństwo spędzamy mnóstwo czasu na robieniu drobiazgów, które mogłyby spokojnie zostać wykonane przez AI. Przykładowo: ktoś mi ostatnio opowiadał, że jako rodzic dostał na początku roku listę ważnych dat, wywiadówek, spotkań itd., więc po zrobieniu zdjęcia poprosił ChatGPT o przerobienie tego na plik ICS, który mógł zaimportować bezpośrednio do kalendarza. Takich użytecznych drobiazgów jest wiele.

Oczywiście pomijam programowanie. W tym momencie nie znam już nikogo, kto zajmowałby się programowaniem zawodowo i nie używał tych modeli. Nawet najbardziej zatwardziali programiści zrozumieli, że po prostu nie ma innej drogi. Co zresztą w pewnym sensie zrozumiałe: w końcu AI zostało wynalezione przez programistów, więc im najłatwiej zaadaptować tę technologię.


WIELKIE WYZWANIA: ANTROPOCEN

Przyglądamy się największym wyzwaniom epoki człowieka oraz drodze, która zaprowadziła nas od afrykańskich sawann do globalnej wioski. Omawiamy badania naukowe i dyskusje nad interakcjami między człowiekiem i innymi elementami przyrody – zarówno tymi współczesnymi, jak i przeszłymi.


Co ze wspomnianym już wpływem AI na edukację?

Uczniowie i studenci rzeczywiście korzystają z modeli językowych, ale niestety najczęściej niewłaściwie. Mój znajomy wykładowca wspominał niedawno, że studenci zaczęli posługiwać się językiem, którym operuje ChatGPT, nawet w samodzielnych pracach: po prostu nauczyli się, że w esejach należy korzystać z takiego dość kwiecistego stylu, który ów model preferuje. To zmiany, które powinny nam dać najwięcej do myślenia, bo są subtelne i długofalowe.

Ale jak już mówiłem: ogólnie przyjmowanie tej technologii postępuje dość powoli, więc na głębsze wnioski przyjdzie jeszcze chwilę poczekać.

Paradoksalne jest też to, że choć narzędzia AI są proste w obsłudze, to już wykorzystanie ich możliwości pozostaje dość skomplikowane. Trzeba rozmawiać z nimi w pewien specyficzny sposób i tak też myśleć o problemie. Przyznam, że zajęło mi dwa i pół roku nauczenie się tego, jak te narzędzia mogą być przydatne w mojej pracy.

W pewnym sensie jest to wyzwanie każdej technologii, że potencjał to jedno, a faktyczne jej wykorzystanie to często długa droga. Właśnie dlatego powstaje dziś wiele start-upów, które tworzą dla AI „opakowania”, mające w założeniach ułatwić ludziom korzystanie z niej.

Jedną z rad, jakie mogę dać, jest to, żeby zmusić siebie do tego, by przez dwanaście godzin wykonywać swoją pracę, wykorzystując te modele. Na początku będzie to niewygodne i wolniejsze niż praca samodzielna, ale w ten sposób można sprawdzić, w czym ten model może być faktycznie użyteczny, jakie zadawać mu pytania, co się nie sprawdza itd. Potem to procentuje.

Na razie wydaje się, że czarne scenariusze się nie ziściły. Mam poczucie, że nie tak łatwo wykorzystać generator obrazów do wprowadzania ludzi w błąd, bo można odróżnić to, co stworzone przez Midjourney czy DALL-E, od obrazów prawdziwych. Podobnie deepfaki polityczne: miały być prawdziwą bombą podłożoną pod demokrację

Jestem pewien, że nie byłbyś w stanie rozpoznać deepfake’ów tworzonych przez najnowsze modele. Zmieniło się natomiast to, że tak długo mówiliśmy o tym zagrożeniu – i widzieliśmy je w akcji również przed erą generatorów obrazów – że teraz w pewnym sensie jesteśmy zaszczepieni przeciw wierzeniu obrazom.

Zatem – technologia jest już na tyle dobra, że nie byłbyś w stanie zauważyć różnicy między wygenerowanymi przez nią obrazami a fotografią, ale, szczerze mówiąc, nie ma to wielkiego znaczenia, bo ludzie nie wierzą nawet prawdziwym fotografiom. Co samo w sobie też jest dużym problemem.

A problem deepfake’ów?

Nie widzieliśmy jeszcze pełnego spektrum tego, co AI może zrobić, jeśli idzie o manipulację w przestrzeni publicznej. Składałem na ten temat zeznania przed Kongresem USA w marcu 2023: jeśli ktoś stworzy deepfake i opublikuje go na Twitterze, nie różni się to wiele od wykorzystania deepfake’a stworzonego Photoshopem. Niebezpieczniejsze jest robienie zindywidualizowanej propagandy.

Wyobraź sobie, że znalazłeś w sieci przyjaciela. Rozmawiacie na Facebooku o sporcie i różnych innych tematach, ale od czasu do czasu on może wspomnieć, że słyszał coś o Trumpie czy Kamali Harris. Będziesz jego słowa traktował o wiele poważniej niż przekazy płynące z nieznanego źródła. Problem w tym, że taki „przyjaciel” może być sterowanym przez sztuczną inteligencję, bardzo naturalnym botem udającym żywego człowieka. Czy to się dzieje? Na pewno mogłoby i może dopiero za jakiś czas odkryjemy, że takie kampanie już mają miejsce.

Taki diabeł szepczący do ucha każdemu z osobna...

I to w sposób bardzo subtelny. Np. mój „kolega” Piotr, z którym rozmawiam sobie o meczach Wisły Kraków, czasem powie coś na jakiś polityczny temat. Wierzę mu o wiele bardziej niż temu, co wyczytam na publicznym forum.

Cofnijmy się do początku lat dwutysięcznych, bo przecież to, co dzieje się teraz, nie jest naszym pierwszym kontaktem z AI, tylko z tego pierwszego kontaktu mogliśmy nie zdawać sobie sprawy. Myślę o mediach społecznościowych, Amazonie, Netfliksie i algorytmach, które indywidualnie dobierały dla nas treści. Już wtedy dostaliśmy dowód na ich ogromny wpływ na społeczeństwo, zdarzały się też afery, np. Cambridge Analytica. Jaką lekcję powinniśmy wyciągnąć z tamtych wydarzeń?

Dobre pytanie. Ludzie zawsze myślą, że AI to pieśń przyszłości, tymczasem AI to też teraźniejszość i przeszłość. Jest taki fajny artykuł, który czasem pokazuję na wystąpieniach. Pochodzi z 1 listopada 2021 r., czyli opublikowano go na miesiąc przed premierą ChatGPT. Mówi, że technologia AI odniosła wielki sukces… tylko nikt o niej nie słyszał. W wielkich serwerowniach AI jest wszędzie, tylko to nie był temat, o którym rozmawiało się przy obiedzie.

Teraz oczywiście wszyscy zdają sobie sprawę z tego, że jesteśmy otoczeni przez sztuczną inteligencję, i z tego, że może to prowadzić do niepożądanych efektów. Czy nauczyliśmy się, jak ich unikać? Tego nie wiem.

Kiedy zeznawałem, kongresmeni mówili, że nie chcą powtórzyć tego samego błędu, jaki popełniono przy mediach społecznościowych, kiedy nie zrobiono niczego. Tylko że w kwestii mediów społecznościowych wciąż nie zrobiono niczego – a co najwyżej bardzo niewiele. Nie wiem więc, czy odrobiliśmy lekcję.

Europa stara się być bardziej aktywna…

To jest trudne, bo najpierw trzeba dokładnie zrozumieć, z jakimi problemami możemy mieć do czynienia. Najważniejszą lekcją jest dla mnie to, że modele AI są po prostu lustrem tego, jakie jest społeczeństwo. To nie jest tak, że one same nas polaryzują czy dyskryminują. One po prostu – a może aż – uwypuklają nasze własne instynkty i uprzedzenia.

A tym, co czyni AI lustrem, jest fakt, że ona jest doskonała w ekstrapolacji wiedzy z danych. Przeglądając się w niej, dostrzegamy wiele naszych wad i problemów, zarówno w skali osobistej, jak i społecznej. Problem dyskryminacji nie pojawił się przez AI: mamy do czynienia z dyskryminacją w społeczeństwie i dane zawierające dyskryminujące wzorce bywają wykorzystywane do szkolenia AI. Pytanie tylko, co teraz z tą wiedzą zrobimy?

Garbage in, garbage out. Jeśli wprowadzimy złe dane, otrzymamy złe wyniki.

Tyle że to są dane prawdziwe. Mamy lustro, które nas nie upiększa, tylko oddaje ciemną stronę ludzkości. Ważne jest, że tak samo, jak w którymś momencie zdaliśmy sobie sprawę, że dyskryminacja jest zła i musimy coś z nią zrobić, powinniśmy też zmodyfikować AI. Wiemy, że ono może amplifikować złe aspekty społeczeństwa, więc musimy w jakiś sposób temu zapobiec.

A na ile to lustro odbija samych twórców? Największe modele AI powstają czasem we Francji, w jakimś stopniu w Chinach, ale przede wszystkim w USA, a reszta świata może tylko patrzeć i korzystać.

To jest bardzo dobre pytanie i dla mnie ma ono przynajmniej dwa, może trzy aspekty.

Jeden jest ekonomiczny. Wiadomo, że AI będzie miało ogromny wpływ na gospodarkę, w dużej części poprzez dramatyczne zwiększenie produktywności. Jasne jest jednak też to, że bardziej skorzystają na tym kraje, które mają rozwinięty przemysł AI.

Z drugiej strony rzeczywiście coś, co AI tworzy, w pewnym sensie jest normalizacją. Jeśli zakładamy, że ChatGPT powinien się zachować tak samo względem każdego użytkownika, to ktoś musi zdefiniować normy. Dlatego w przypadku OpenAI staramy się być w miarę przejrzyści: tłumaczyć, jak myślimy o zachowaniu chatbota.

Tyle że nie ma jednego wzorca zachowania, który byłby absolutnie zgodny ze wszystkimi wartościami każdego człowieka na świecie.

Pytamy więc: skoro nie ma jednego wzorca, to kto decyduje? Który wzorzec przyjmiemy za właściwy? Tu wchodzi bardzo poważna kwestia kulturowa. Coś, co jest uważane za właściwe w Kalifornii, w innych częściach świata może być uważane za niewłaściwe. Może każdy powinien mieć swoją własną, spersonalizowaną wersję ChatGPT, jeśli chodzi o wartości? Może to jest rozwiązanie? Oczywiście tu pojawiają się kolejne problemy, ale myślę, że widać, dlaczego pytanie o twórców tej technologii jest rzeczywiście ważne.

Po trzecie – kwestia geopolityczna. To technologia, która ma ogromne znaczenie strategiczne. Zarówno pośrednie, poprzez budowę ekonomicznej potęgi i ekonomicznego wpływu, jak i bardziej bezpośrednie: tam, gdzie AI jest stosowane w kwestiach np. bezpieczeństwa narodowego. Dlatego pytanie, kto jest liderem, kto faktycznie tworzy te technologie, jest ważne i warto je sobie zadawać.

Czy warto inwestować siły i środki, żeby tworzyć narodowe odpowiedniki tych modeli? Niedawno na AGH powstał pierwszy polski Wielki Model Językowy Bielik. Czy jest sens, żeby tworzyć polski algorytm rozpoznawania obrazu, polskie LLM-y, skoro ogólnodostępne, open source’owe odpowiedniki można znaleźć w sieci?

Musimy zadać sobie pytanie o to, jakie jest nasze miejsce w świecie i jaki jest nasz plan, żeby „wygrać” w kwestii AI. Nie musimy mieć największych i najlepszych modeli językowych świata, bo ciężko będzie pokonać w tej kwestii największych graczy. Ale możemy zbudować odpowiednią kulturę i zaplecze.

To sytuacja podobna do klasycznych programów komputerowych: można zarobić dużo pieniędzy, tworząc Windows, ale tak naprawdę sam Microsoft najwięcej zarabia na Office, czyli programie, który działa, opierając się na Windowsie. Wyobraźmy sobie więc sytuację, w której Polska skupia się na budowie wspomnianych przeze mnie wcześniej „opakowań”, pozwalających wykorzystywać modele językowe w konkretnych celach. Tworzysz np. aplikacje biznesowe, które w swoim działaniu korzystają z modelu OpenAI czy Anthropic. Moglibyśmy stać się dla Unii Europejskiej zagłębiem praktycznych zastosowań AI.

W przypadku modeli językowych tworzenie własnego modelu może mieć sens, jeśli nie ufamy wystarczająco dostępnym, otwartym modelom, takim jak Llama, i zakładamy, że musimy zbudować wszystko od podstaw. Może nie będzie to najlepszy model na świecie, ale będzie pozbawiony niespodzianek. Musimy jednak zdecydować, gdzie chcemy iść i w co inwestować. To poważne sprawy, wymagające znacznych nakładów finansowych, szczególnie jeśli chcemy grać w pierwszej lidze.

Czyli warto te modele tworzyć?

Warto, bo to buduje w kraju właściwy know-how. Ludzie nabierają sprawności w pracy z tymi aplikacjami, a potem mogą to wykorzystać do zakładania start-upów korzystających z modeli innych firm. To jest to, czego w Polsce troszeczkę brakuje. Mamy uzdolnionych ludzi. Czytałem ostatnio tekst o OpenAI i o tym, że wielu kluczowych ludzi w firmie, w tym główny naukowiec (chief scientist), to Polacy. Fajnie, to wszystko prawda, wszyscy przynajmniej do czasu liceum mieszkaliśmy w Polsce. Tyle że to pokazuje, że mamy w kraju talent, ale nie mamy kultury innowacji. Ani ja, ani moi pozostali koledzy z OpenAI nie mogliśmy pozostać w Polsce po studiach pierwszego stopnia, jeśli chcieliśmy pracować nad najnowszymi technologiami w AI.

Tym, co jest fajne w projektach takich jak „Bielik”, wydaje się fakt, że powstaje dzięki nim nowa kultura i społeczność, w której tworzymy coś nowego i nie mamy żadnych związanych z tym kompleksów. Budujemy na bazie najnowszych technologii coś od podstaw polskiego. Uczymy się, mamy sukcesy, mamy porażki, ale kluczowe jest to, że robimy to w Polsce. Dzięki temu wyjazd do Stanów nie jest jedynym sposobem na pracę w nowych technologiach.

Rozmawiał Wojciech Brzeziński

Aleksander Mądry // Fot. Adam Stępień / Agencja Wyborcza.pl

Prof. Aleksander Mądry jest informatykiem i matematykiem, badaczem sztucznej inteligencji, wykładowcą najważniejszej technicznej uczelni świata – Massachusetts Institute of Technology (MIT), a od maja 2023 r. także pracownikiem OpenAI, gdzie do lipca pełnił funkcję szefa działu gotowości.


 

 

Projekt dofinansowany ze środków budżetu państwa, przyznanych przez Ministra Nauki i Szkolnictwa Wyższego w ramach Programu „Społeczna Odpowiedzialność Nauki II”.

Cały artykuł dostępny tylko dla subskrybentów

„Tygodnik Powszechny” – jedyny polski tygodnik społeczno-kulturalny.
30 tys. Czytelniczek i Czytelników. Najlepsze Autorki i najlepsi Autorzy.
Wspólnota, która myśli samodzielnie.

Najlepsza oferta

Czytaj 1 miesiąc za 1 złotówkę dzięki promocji z

  • Nieograniczony dostęp do treści w serwisie i wersji audio artykułów
  • Tematyczne newslettery i dodatkowe publikacje tylko dla subskrybentów
  • 29 zł miesięcznie po miesiącu promocyjnym. Rezygnujesz, kiedy chcesz

Najniższa cena przed promocją 29,90 zł

Wypróbuj TP Online: 7 dni za darmo

  • Nieograniczony dostęp do treści w serwisie i wersji audio artykułów
  • Tematyczne newslettery i dodatkowe publikacje tylko dla subskrybentów
  • 29 zł miesięcznie po zakończeniu okresu próbnego
  • Wymagane podpięcie karty. Rezygnujesz, kiedy chcesz

TP Online: Dostęp roczny online

Ilustracja na okładce: Przemysław Gawlas & Michał Kęskiewicz dla „TP”