Sztuczna inteligencja daje nowe możliwości autorom dezinformacji i propagandy – mówi „Tygodnikowi” Evanna Hu, ekspertka NATO

EVANNA HU, ekspertka NATO: Podczas amerykańskich wyborów w 2016 r., w które Rosja ingerowała, jedna osoba z rosyjskiej fabryki trolli monitorowała najwyżej 20 kont w internecie. Teraz może to być kilkanaście tysięcy. Ale nie jesteśmy bezbronni.
Czyta się kilka minut
Amerykańscy żołnierze z West Virginia Air National Guard podczas symulacji cyberataku we Wspólnym Centrum Obrony Cybernetycznej NATO w Tallinnie, Estonia, kwiecień 2022 r. // Operation 2022 / Alamy / BE&W
Amerykańscy żołnierze z West Virginia Air National Guard podczas symulacji cyberataku we Wspólnym Centrum Obrony Cybernetycznej NATO w Tallinnie, Estonia, kwiecień 2022 r. // Operation 2022 / Alamy / BE&W

WOJCIECH BRZEZIŃSKI: Wygląda na to, że mamy idealne warunki dla masowego szerzenia dezinformacji. Trwają dwa światowe konflikty z udziałem mocarstw. Czy to przekłada się na sieć?

Evanna Hu: Obie wojny, na Ukrainie i Bliskim Wschodzie, podkreślają znaczenie operacji informacyjnych i to, jak powszechne są one w sieci. Ale nie sądzę, aby było to coś nadzwyczajnego. Operacje wpływu online, prowadzone na wielką skalę, zaczęły pojawiać się podczas globalnej wojny z terroryzmem, ale teraz ludzie są ich bardziej świadomi. Sama dezinformacja jest stara jak ludzkość.

Pojawienie się narzędzi generatywnej sztucznej inteligencji [tworzy ona teksty i obrazy w oparciu o dane, na których jest szkolona – red.], jak ChatGPT, wywołało obawy, że teraz wszystko może być sztucznie tworzone i stracimy wiarę w podstawy rzeczywistości. To naprawdę tak duża zmiana?

Podzieliłabym to pytanie na dwie części: jak te narzędzia wpłynęły na tworzenie treści, a jak na ich rozpowszechnianie.

Dzięki generatywnej sztucznej inteligencji możesz stworzyć lepszy deepfake. Przykład: możesz odtworzyć głos Bidena i wykorzystać go do obdzwaniania wyborców w prawyborach w New Hampshire.

To miało miejsce kilka miesięcy temu.

Jednak na razie takie działania mają mniejszą skalę, niż obawiało się wielu ekspertów. Nie znaczy to jednak, że oni niepotrzebnie biją na alarm. Po prostu jeszcze nie nadszedł ten czas. To dobrze, bo mimo upływu 10 lat, które spędziliśmy na rozmowach o zagrożeniach ze strony takich sztucznych mediów, wciąż nie mamy na nie dobrego sposobu.

Aktualny przykład wykorzystania deepfake’ów na dużą skalę to wybory w Pakistanie. Główny kandydat opozycji, Imran Khan, podczas kampanii siedział w więzieniu, wyraził więc zgodę na tworzenie deepfake’ów na swoje podobieństwo, by móc uczestniczyć w kampanii. To przykład legalnego wykorzystywania sztucznej inteligencji.

A problem rozpowszechniania treści?

Sztuczna inteligencja może być niezwykle pomocna w szerzeniu dezinformacji. Można ją wykorzystać do tworzenia botów i całych ich sieci oraz do prowadzenia fałszywych kont.

Jedna osoba może monitorować np. 10 tysięcy fałszywych kont.

Podczas amerykańskich wyborów w 2016 r., w które Rosja ingerowała, jedna osoba z rosyjskiej Agencji Badań Internetu – eufemistyczna nazwa – monitorowała najwyżej 20 kont. Teraz ta liczba może wzrosnąć dramatycznie.

Jak duży to problem?

To zależy od firm prowadzących platformy mediów społecznościowych i komunikatory. Wykrywanie fałszywych kont nie stanowi problemu technologicznego. Pytanie brzmi, czy one powinny być usuwane, i czy firmy prowadzące media społecznościowe są skłonne podejmować realne działania, czy tylko zasłaniają się pustosłowiem.

Mieliśmy w Europie falę protestów rolników. Czy mogli wpływać na nie zewnętrzni aktorzy? Czy takie protesty mogą być narzędziem dezinformacji?

Oczywiście – najlepsza operacja informacyjna to nie taka, którą tworzysz z niczego, lecz taka, która opiera się na wykorzystaniu istniejących problemów. Rolnicy mają swoje realne problemy, których Rosja nie wymyśliła. Dołożyła jedynie więcej paliwa do ognia.

Udane działania wpływu muszą odpowiadać rzeczywistości przeżywanej przez docelową populację. Wykorzystanie istniejących napięć pozwala tworzyć przekazy, które są skuteczniejsze i trudniejsze do podważenia.

Jak radzimy sobie, jako Zachód, z wymierzonymi w nas operacjami?

Jeśli mówimy tylko o zachodnich rządach, to radzą one sobie coraz lepiej. Ale czy jesteśmy tak dobrzy, jak byliśmy w czasie zimnej wojny? Absolutnie nie. Można powiedzieć, że przez ostatnich kilkadziesiąt lat mięśnie odpowiadające za reagowanie na takie operacje uległy u nas atrofii i dopiero od niedawna znów próbujemy je ćwiczyć. Ale rządy faktycznie zaczęły nad tym pracować. Problem w tym, że ich działania są z natury powolne. Muszą przeanalizować problem, potem rok czy dwa zajmie powołanie zespołu do pracy nad nim, następnie znów upłynie sporo czasu, zanim znajdzie się rozwiązanie i dostosuje do niego prawo. To sprawia, że zachodnie rządy zaczęły prowadzić aktywne działania przeciw operacjom wpływu dopiero kilka lat temu.

Mówisz, że straciliśmy coś, co mieliśmy podczas zimnej wojny. Co to było?

Wtedy znaliśmy znaczenie operacji wpływu. W USA mieliśmy coś, co nazywa się Agencją Informacyjną USA. Przeznaczaliśmy też dużo pieniędzy na wspieranie niezależnych redakcyjnie mediów, jak Radio Wolna Europa czy Radio Swoboda. Ich obecny budżet jest niewiele wyższy niż za administracji Trumpa, gdy został zredukowany do zera.

Gdzie są dziś linie frontu bitwy informacyjnej?

Celem autorów dezinformacji jest tworzenie komór echowych [sytuacji, gdy człowiek spotyka tylko opinie odpowiadające jego poglądom – red.], a ostatecznie doprowadzenie ludzi do apatii. Zawsze łatwiej jest komuś powiedzieć, by nie wierzył w nic, niż żeby zmienił swoje poglądy. Oni starają się zasiać apatię i nieufność, zwłaszcza wobec demokratycznych instytucji. Pierwszym krokiem jest tu przekonanie odbiorcy, że jego obecny światopogląd jest błędny. A jeśli zaczynam kwestionować mój światopogląd, nieuchronnie szukam innego. I znajduję go: na ich progu. Choć wydaje mi się, że sama podjęłam tę decyzję.

Mamy iluzję wolnego wyboru.

U podstaw całej koncepcji społeczeństwa demokratycznego jest wiara w wolną wolę. Dlatego to naprawdę sprytny sposób na jej przejęcie.

Kim są tu główni gracze? To państwa czy organizacje, jak swego czasu Państwo Islamskie, mocno obecne w mediach społecznościowych?

Widzimy wielu niepaństwowych aktorów, ale ci, którzy nas teraz martwią, są sponsorowani przez państwa. Jeśli spojrzymy na to, co dzieje się wokół konfliktu w Gazie, na Hamas czy Hezbollah, to większość ich ludzi od mediów społecznościowych i komunikacji strategicznej zostało przeszkolonych przez Irańską Akademię Mediów Społecznościowych.

Głównymi graczami są dziś prawdopodobnie Iran, Rosja, Chiny. Ale operacje wpływu coraz częściej prowadzą też cyberprzestępcy: gangi zarabiają, sprzedając w mrocznej sieci dezinformację jako usługę.

To duży biznes?

Nie ma zbyt wielu twardych danych. Ale gwarantuję, że jeśli potrzebujesz dezinformacji jako usługi, możesz ją znaleźć.

Ile to kosztuje?

Poniżej 10 tys. dolarów za bardzo dobrą kampanię w języku angielskim. Inne języki mogą kosztować więcej.

Powinniśmy się martwić, że narzędzia, które pozwalają tworzyć deepfake i inne treści generowane przez sztuczną inteligencję, są coraz bardziej zaawansowane?

Każdego narzędzia można użyć do złego lub dobrego. Ta sama technologia może służyć także do zwalczania dezinformacji. Ale mamy ogromną dysproporcję wydatków. Generatywna sztuczna inteligencja opiera się na 40 latach badań, w które zainwestowano biliony dolarów. A jeśli spojrzeć na drugą stronę problemu, na wykorzystanie tej technologii do wykrywania mediów syntetycznych, ta przestrzeń istnieje dopiero od jakiejś dekady, a inwestycje w nią są ograniczone. Na to musimy położyć większy nacisk.

Nowe rozporządzenie Unii dotyczące sztucznej inteligencji nakazuje mediom oznaczać treści tak generowane. Ale to dotyczy tylko legalnych podmiotów. Pomysł polityków to chyba: zmuszamy firmy do robienia czegoś z tym problemem, skoro to one go stworzyły. Co jeszcze można zrobić?

Rządy muszą pogodzić się z tym, że w przypadku nowych technologii znalazły się w niespotykanej wcześniej sytuacji, tj. że nie mogą ich kontrolować. To jeden z pierwszych przypadków, gdy taka technologia była rozwijana i finansowana bez kontroli rządów. Prywatny sektor zainwestował w sztuczną inteligencję dużo więcej niż rządy. Stąd politycy czują się nieswojo.

Tymczasem rzecz osiągnęła już taką skalę, że należy ją uznać za istotny problem społeczny. Społeczeństwa muszą pociągnąć korporacje do odpowiedzialności, ale tego nie robią. Rządy nie współpracują w tej sferze wystarczająco z organizacjami społeczeństwa obywatelskiego.

Natomiast gdy spojrzymy na kwestie związane ze zmianami klimatu – czyli kolejną kwestię, której rządy nie są w stanie kontrolować – widać, jak szybko ton rządzących zmienił się, gdy tylko społeczeństwo powiedziało: „dość, nie chcemy żyć na takiej planecie, zróbcie coś”. Ale inicjatywa nie wyszła od rządów, ich działania były opóźnione względem zmiany postaw społecznych. Do podobnych przemian musi dojść w środowisku informacyjnym.

Waga problemu jest podobna jak w przypadku zmian klimatu?

Nawet większa, bo atak na nasze bezpieczeństwo poznawcze wpływa na to, jak podejmujemy wszystkie decyzje, w tym te dotyczące zmian klimatu. Jeśli żyjesz we własnej „bańce”, jak niektórzy ekstremiści, możesz wciąż nie wierzyć w zmiany klimatu i nie podejmować tu żadnych działań.

Jak przebić się do takich „baniek”?

Z takimi ludźmi trzeba pracować indywidualnie. To wynika z naszych doświadczeń z deradykalizacji neonazistów w Skandynawii. Zdaliśmy sobie sprawę, że jedynym sposobem, by na nich wpłynąć, jest traktowanie ich jako jednostki. Każdy jest osobnym przypadkiem, każdy ma przypisanego pracownika socjalnego. Nie są traktowani jak wielka grupa, do której kieruje się jedynie zbiorowe komunikaty.

Gdy zaczynasz rozmawiać z kimś z drugiej strony barykady, szybko zdajesz sobie sprawę, że niezależnie od naszych poglądów wszyscy pragniemy tych samych trzech rzeczy: chcemy być szczęśliwi, zdrowi i chcemy, by nasze dzieci miały lepiej niż my. Drogi do osiągnięcia tych celów są tym, co nas różni. Siedziałam przy stole z terrorystami, którzy chcieli rozmawiać głównie o tym, że ich roczne dziecko właśnie zaczęło  chodzić. To był ich powód do dumy. Musimy być w stanie jakoś odłożyć na bok wiele naszego gniewu i frustracji. Ale nie sprzyja temu to, jak funkcjonuje nasze społeczeństwo.

Kogo więc powinniśmy edukować jako pierwszych? Wyborców, dziennikarzy czy polityków?

Powinniśmy uczyć ludzi krytycznego myślenia i wiedzy o mediach, aby budować ich odporność. Powinniśmy szkolić dziennikarzy, jak rozpoznać dezinformację i jak o niej informować bez dalszego jej szerzenia.

Ale tym, co przede wszystkim musi się zmienić, jest fundament funkcjonowania mediów społecznościowych, oparty na skupianiu ludzkiej uwagi i sprzedaży reklam. Inaczej zawsze najskuteczniejszym sposobem na sprzedaż reklam będzie pokazywanie ludziom treści budzących złość i gniew, bo na te emocje najsilniej reagujemy. Model reklamowy wykorzystuje nasze biologiczne dźwignie. Musimy znaleźć inny sposób na komunikację.

Powinniśmy też wrócić do uczenia etyki. Wiele uczelni wprowadziło już zajęcia z niej na kierunkach informatycznych. Tak jak studenci medycyny muszą uczyć się etyki, by zostać lekarzami, tak powinni ją rozumieć ludzie kierujący projektami informatycznymi.

Bo oni kształtują to, jak działa społeczeństwo.

Tak. I często sprowadza się to do tego jednego inżyniera czy menadżera, który chce zrobić coś, czego nikt wcześniej nie robił. Jeśli nie znają etyki, to nie mają tego cichego głosu z tyłu głowy, który im podpowie, kiedy coś nie jest dobrym pomysłem.

Jakie są scenariusze na przyszłość?

Problem będzie się pogłębiać, dopóki korporacje nie zaczną się nim naprawdę przejmować. A nie będą się nim przejmować, dopóki dezinformacja nie zabije wielu ludzi. Ona już zabija – przez wojny, nękanie, samobójstwa. Ale nie osiągnęliśmy jeszcze niestety progu, na którym to mobilizowałoby firmy do działania.

Problemem jest też to, że zawsze rozmawiamy o narzędziach. Tymczasem to jest tak jak z cyberbezpieczeństwem: możemy dać ludziom wszystkie narzędzia do obrony przed hakerami, ale ostatecznie to oni muszą zmienić swoje zachowanie. Bo jeśli ustawiasz swoje hasło „12345”, nikt nie jest w stanie ci pomóc i najlepsze narzędzia nie mają wtedy znaczenia.

Archiwum prywatne

EVANNA HU jest ekspertką NATO i Rady Atlantyckiej, od lat bada radykalizację i to, jak napędzana jest ona przez komputerowe algorytmy. Firma Omelas, którą zarządza, wykorzystuje sztuczną inteligencję do identyfikowania zagrożeń informacyjnych w sieci. Hu gościła w Warszawie na zaproszenie ambasady USA.

Cały artykuł dostępny tylko dla subskrybentów

„Tygodnik Powszechny” – jedyny polski tygodnik społeczno-kulturalny.
30 tys. Czytelniczek i Czytelników. Najlepsze Autorki i najlepsi Autorzy.
Wspólnota, która myśli samodzielnie.

Najlepsza oferta

Czytaj 1 miesiąc za 1 złotówkę dzięki promocji z

  • Nieograniczony dostęp do treści w serwisie i wersji audio artykułów
  • Tematyczne newslettery i dodatkowe publikacje tylko dla subskrybentów
  • 29 zł miesięcznie po miesiącu promocyjnym. Rezygnujesz, kiedy chcesz

Wypróbuj TP Online: 7 dni za darmo

  • Nieograniczony dostęp do treści w serwisie i wersji audio artykułów
  • Tematyczne newslettery i dodatkowe publikacje tylko dla subskrybentów
  • 29 zł miesięcznie po zakończeniu okresu próbnego
  • Wymagane podpięcie karty. Rezygnujesz, kiedy chcesz

TP Online: Dostęp roczny online

ilustracja na okładce: Jerzy Skakun dla „TP”

Artykuł pochodzi z numeru Nr 25/2024

W druku ukazał się pod tytułem: W sieci kłamstw