Fałszywki nowego typu: inteligencja i manipulacja

Prezydent Ukrainy wzywający rodaków do złożenia broni czy malezyjski minister uprawiający pozamałżeński seks: materiały preparowane przez sztuczną inteligencję to coraz częstsze zjawisko. Jak sobie z nim radzić?

29.01.2023

Czyta się kilka minut

Tweet z prawdopodobnie fałszywymi zdjęciami mającymi przedstawiać zagranicznych najemników w mieście Goma w Demokratycznej Republice Konga, ochraniających tam kongijskiego szefa sztabu /  / źródło: Twitter
Tweet z prawdopodobnie fałszywymi zdjęciami mającymi przedstawiać zagranicznych najemników w mieście Goma w Demokratycznej Republice Konga, ochraniających tam kongijskiego szefa sztabu / / źródło: Twitter

Do tworzenia alternatywnej rzeczywistości nie potrzeba już zaawansowanych umiejętności informatycznych. Wystarczą proste w obsłudze programy sztucznej inteligencji dostępne online. Od zera generują fantastyczne obrazy albo też tworzą – na podstawie istniejących nagrań wideo – realistycznie wyglądające manipulacje. Ostatnio wielką popularnością cieszy się program ChatGTP: pisze on samodzielnie limeryki, kody komputerowe, hasła marketingowe czy nawet odrabia za uczniów prace domowe. 

Dlatego eksperci zajmujący się dezinformacją biją na alarm: bo tego typu programy są wykorzystywane również w celach politycznych, i to bynajmniej nie w celach dobrych.

NA ZDJĘCIACH WIDAĆ mężczyzn z bronią maszynową; nie mają mundurów, lecz ubrania w stylu wojskowym. Nagranie, na którym też są ponoć widoczni, ma słabą jakość. Pod wpisem na Twitterze, gdzie je zamieszczono, rozpętała się burza – bo autor wpisu twierdził, że to zagraniczni najemnicy w mieście Goma, czyli w jednym z najbardziej zapalnych regionów Demokratycznej Republiki Konga, i że ochraniają tam kongijskiego szefa sztabu.

Część komentujących twierdziła, iż to rosyjscy najemnicy z Grupy Wagnera. Inni – i tych była większość – że zdjęcia i nagranie to podróbki, bo Goma wygląda inaczej, zwłaszcza o tej porze roku, a ten fake news ma stawiać w złym świetle kongijskie władze.

Wszystko to można by uznać za kolejną twitterową burzę, jakich wiele, gdyby nie fakt, że wagnerowcy rzeczywiście byli w Gomie, podobnie jak szef sztabu kongijskiej armii. Tyle że jakiś czas po zamieszczeniu tego tweeta.

Czy zdjęcia i nagranie z Gomy to wygenerowana za pomocą sztucznej inteligencji fałszywka, nazywana deepfake, która ma wpłynąć na sytuację polityczną? Jeśli tak, nie byłby to pierwszy taki przypadek. Niedługo po inwazji Rosji na Ukrainę w internecie pojawiło się nagranie przedstawiające rzekomo prezydenta Zełenskiego, jak wzywa rodaków do złożenia broni. Zrobiono je tak nieudolnie, że na pierwszy rzut oka widać było fałszerstwo.


Łukasz Lamża: Algorytmy rysują, piszą i rozmawiają już jak żywe, czujące istoty. Budzi to problemy technologiczne i prawne, ale też kłopotliwe pytania o naszą własną kreatywność, przytomność i nasze automatyzmy.


 

Umiejętniej przygotowano za to materiały, które wysyłano na maile mieszkańców stanu Karolina Północna przed zeszłorocznymi wyborami w USA. Widać było na nich kandydata, któremu cyfrowo zmieniono napis na koszulce, by zniechęcić jego elektorat. Albo innego, rzekomo na tle policyjnej ściany, co miało dowodzić, iż został aresztowany.

Wcześniej, podczas kampanii przed wyborami prezydenckimi w USA, w sieci pojawiały się nagrania mające dowodzić problemów zdrowotnych Joego Bidena – co najmniej jedno przedstawiało go w miejscu, w którym nigdy nie był. Wcześniej w Malezji stworzone komputerowo nagrania przedstawiały ministra gospodarki uprawiającego pozamałżeński seks; złamało mu to karierę.

TO GŁOŚNE PRZYPADKI, gdy wizerunek polityków wykorzystywano, by ich szkalować. Ale coraz częściej zdarza się, że oni sami upatrują szansy w wykorzystaniu obrazów czy dźwięków generowanych przez sztuczną inteligencję.

Dwa lata temu miliony mieszkańców indyjskiego stanu Pendżab rozmawiały telefonicznie z botem, programem udającym człowieka, który wykorzystał głos premiera Arvinda Kejriwala, który namawiał ich do głosowania na swoje ugrupowanie. Jego rywal, Manoj Tiwari, odpowiedział realistycznie wyglądającym wideo, na którym mówił w dialekcie ­haryanvi, choć w rzeczywistości go nie zna. Z kolei w Nigerii media społecznościowe dosłownie zalewają dziś generowane cyfrowo filmiki, na których gwiazdy – jak Salma Hayek, Idris Elba czy Matthew McConaughey – wyrażają poparcie dla kandydata opozycji Petera Obi. Wątpliwe, by działo się to bez udziału lub co najmniej przyzwolenia jego sztabu.

Wielu naukowców i ekspertów od lat ostrzega, że wraz z rozwojem generowania obrazu i dźwięku przez sztuczną inteligencję znajdziemy się w kryzysie. Ich polemiści twierdzili dotąd, że owa technologia jest na tyle niezaawansowana, iż takie podróbki łatwo poznać. Ten brak zaawansowania nie przeszkadzał jednak w cyfrowym „rozebraniu” ponad 100 tys. kobiet w komunikatorze Telegram albo w wyrządzeniu strat liczonych w milionach dolarów, a spowodowanych tym, że pracownicy odbierali telefony i słysząc realistycznie brzmiący głos przełożonego przelewali pieniądze na rachunek, który im wskazał.  

WIARA W TO, CO USŁYSZYMY, a co zostało wygenerowane przez sztuczną inteligencję, to jednak zaledwie wierzchołek problemu. O tym, jak poważne konsekwencje może mieć niepewność wywołana choćby podejrzeniem, że coś jest deepfake’iem, przekonali się Gabończycy. Pod koniec 2018 r. pojawiły spekulacje, że ich prezydent Ali Bongo jest chory, a może nawet nie żyje. Okazało się, że miał udar, ale był w dobrym stanie, i aby powstrzymać spekulacje, nagrał noworoczne przemówienie. Tyle że przyniosło to odwrotny skutek do zamierzonego: wielu uznało, że Bongo wygląda nie tak jak powinien, a nagranie jest fałszywe. Tydzień później wojsko dokonało nieudanego zamachu stanu, uzasadniając go rzekomym deepfake’iem. Późniejsza analiza wskazała, że przy nagraniu nikt nie majstrował. 

„Kiedy wszystko może być prawdziwe lub fałszywe, czy nadal będziemy dbać o znalezienie różnicy, czy po prostu zaczniemy wierzyć w to, w co będzie nam wygodniej wierzyć?” – zastanawiał się jakiś czas temu magazyn „Wired”. Nie chodzi tylko o to, co zobaczymy, przeglądając media społecznościowe. Wystarczy sobie wyobrazić, że ktoś nagrywa przestępstwo. Czy do zdyskredytowania go będzie wystarczyło stwierdzenie, że to deepfake, i utnie to dalszą rozmowę – tak jak już teraz wiele niewygodnych tematów ucina oświadczenie, że coś jest fake newsem? 

Oczywiście możemy liczyć na to, że powstaną specjalne programy sztucznej inteligencji, które będą za nas sprawdzać, co jest prawdziwe. Od kilku lat nad takimi rozwiązaniami pracują Facebook, Google czy DARPA (agencja Pentagonu, która dała nam internet).

Możemy też sami sobie obiecać, że będziemy sprawdzać wszystko, co wyda nam się podejrzane. O skuteczności takich postanowień może świadczyć wynik zeszłorocznego badania Sophie ­Nightingale z brytyjskiego Lancaster University i Hany’ego Farida z Uniwersytetu Kalifornijskiego. Poprosili oni ponad 300 osób o wskazanie, które twarze są prawdziwe, a które wygenerowane cyfrowo. Prawidłowość wskazań wynosiła 48 proc., co oznacza, że większość uczestników badania zgadywała.

Gdy zaś poproszono ich o wskazanie, które z prezentowanych twarzy budzą w nich zaufanie, twarze wygenerowane przez algorytm wskazywano nieznacznie częściej. Czyli: bardziej ufamy ludziom, którzy nie istnieją.

SZTUCZNA INTELIGENCJA może wspierać kampanie polityczne na wielu poziomach. Katerina Sedova z Uniwersytetu Georgetown, badająca zagrożenia związane z wykorzystaniem sztucznej inteligencji, twierdzi, że takie algorytmiczne narzędzia mogą przeszukiwać media społecznościowe i portale informacyjne w poszukiwaniu konfliktów społecznych, które można wykorzystać i zaognić. Generatory mogą też masowo tworzyć treści w dowolnym języku, które następnie są rozsiewane przez sztuczne konta posługujące się generowanymi komputerowo zdjęciami profilowymi.


Czytaj także: W rosyjskiej wojnie informacyjno-psychologicznej chodzi o podminowywanie nastrojów, by atakowane społeczeństwa uległy demoralizacji, stały się rozproszone, pasywne i pogrążone w paranoi.


 

Sztuczna inteligencja może też sterować kontami w mediach społecznościowych tak, by ta aktywność wyglądała, jakby stali za nią prawdziwi ludzie. W 2021 r. zespół Sedovej wykazał, że generator tekstu GPT „sprawdza się lepiej w pisaniu dezinformacji niż pisaniu tekstów zawierających fakty” i w badanej grupie o jedną trzecią skuteczniej przekonywał do zmiany zdania na kontrowersyjne tematy niż komentarze prawdziwych ludzi.

PRZED DEZINFORMACYJNĄ APOKALIPSĄ przestrzega raport, który kierowany przez Sedovą zespół z Uniwersytetów Georgetown i Stanforda oraz organizacji ­OpenAI (to ona stworzyła GTP) opublikował w tym miesiącu. Upowszechnienie coraz doskonalszych i coraz łatwiejszych w obsłudze narzędzi może sprawić, że generowane przez sztuczną inteligencję kampanie będą prowadzone na coraz większą skalę, mniejszym kosztem i staną się bardziej perswazyjne.

Badacze przewidują, że nowym kanałem dezinformacji będą nie posty w mediach społecznościowych, ale czatboty prowadzące dynamiczne rozmowy z konkretnymi użytkownikami. Fejkowe nagrania, teksty czy „rozmówcy” dostosowani do konkretnego odbiorcy i wykorzystujący jego uprzedzenia oraz obawy staną się elementami nowej propagandy. „Firmy reklamowe i marketingowe mają motywację ekonomiczną do trenowania takich modeli sztucznej inteligencji i mogą nieumyślnie udostępniać know-how propagandzistom” – przestrzegają badacze.

Czy daleko nam do takiej przyszłości? W każdym razie narzędzia już są. W Indiach trwa kampania, której twarzą jest gwiazdor filmowy Shah Rukh Khan. Właściciele małych firm z całego subkontynentu mogą wykorzystać jego wizerunek do promocji swojego biznesu – dzięki specjalnej aplikacji stworzony komputerowo aktor powie dokładnie to, czego sobie zażyczą zleceniodawcy. 

SEDNO PROBLEMU związanego ze stworzonymi na polityczne potrzeby fałszywkami dobrze obrazują wspomniane zdjęcia i nagranie z Gomy. Ich publikacja na Twitterze wraz z serią sprzecznych komentarzy mogły znieczulić odbiorców – niepewnych, czy wierzyć w to, co widzą.

Badacze na to zjawisko ukuli już nazwę: apatia rzeczywistości. „To przeciążenie negatywnymi treściami i fałszywymi informacjami obecnymi na platformach cyfrowych, które wywołuje uczucie odrętwienia, dezorientacji i obojętności, co ostatecznie prowadzi do chęci odcięcia się od świata” – tak definiuje problem amerykański think tank The Center for a New American Security.

W wydanym pod koniec zeszłego roku raporcie Europol Innovation Lab ostrzegał, że w ciągu najbliższych trzech lat aż 90 proc. treści online może być generowanych syntetycznie. Może to sprawić, że „rosnąca ilość dezinformacji i deepfake’ów (...) doprowadzi do sytuacji, w której obywatele nie będą już mieli wspólnej rzeczywistości”.©

 

Od redakcji: poprzednie zdjęcie opisane jako Prawdopodobnie fałszywe zdjęcie, sugerujące przyjazd do Konga białych najemników (z Grupy Wagnera). Styczeń 2023 r. po wtórnej weryfikacji jak na ironię okazało się... prawdziwe. Za omyłkę przepraszamy".

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp kwartalny

Kwartalny dostęp do TygodnikPowszechny.pl
  • Natychmiastowy dostęp
  • 92 dni dostępu = aż 13 numerów Tygodnika
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
89,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]
Dziennikarka specjalizująca się w tematyce międzynarodowej, ekologicznej oraz społecznego wpływu nowych technologii. Współautorka (z Wojciechem Brzezińskim) książki „Strefy cyberwojny”. Była korespondentką m.in. w Afganistanie, Pakistanie, Iraku,… więcej

Artykuł pochodzi z numeru Nr 6/2023

W druku ukazał się pod tytułem: Fałszywki nowego typu