Raporty o stanie sztucznej inteligencji: w 2024 roku czeka nas lawina dezinformacji

WybierAI: ALGORYTMY DEMOKRACJI odc. 5 | Ośrodki badawcze alarmują, że nasze media niebawem zaleje tsunami kłamstw. Ale większość technologicznych gigantów już teraz umywa ręce.

30.12.2023

Czyta się kilka minut

Ryc. Shutterstock

Na froncie debaty publicznej trwa wyścig zbrojeń. Wybory w Polsce, zarówno te, które mamy za sobą, jak i te czekające nas w 2024 roku, odbywają się już w świecie manipulacji i propagandy wspieranej przez potężne technologie. Czy jako państwo i obywatele jesteśmy gotowi stawić im czoło? Czy zdołamy ocalić reguły, od których zależy nasza wolność?

Oto piąty odcinek uhonorowanego nagrodą Grand Press Digital and Technology 2023 cyklu WybierAI: algorytmy demokracji, w którym przyglądamy się nowym zagrożeniom dla wolnych wyborów w Polsce i demokratycznym świecie.

W poprzednim odcinku:

Ulicami Buenos Aires płynie lawa, a w mieście szaleją potwory o twarzach zaskakująco podobnych do argentyńskich polityków. Na szczęście pojawia się także pozytywny bohater, który wyrusza na ratunek mieszkańcom. Demokracja triumfuje.

Taką reklamówkę, przypominającą hollywoodzki blockbuster, wyprodukował podczas niedawnej kampanii prezydenckiej w Argentynie sztab jednego z kandydatów – Sergia Massy. Oczywiście nikt nie próbował przekonywać wyborców, że ma to cokolwiek wspólnego z prawdą. Podobnie jak nie pozowały na nią wygenerowane przez sztab jego głównego rywala, Javiera Mileia, portrety innych kandydatów stylizowane na argentyńskiego dyktatora Jorgego Rafaela Videlę czy Mao Tse-tunga. Kampanii towarzyszyły jednak także bardziej zawoalowane fałszywki. Na przykład takie, na których Massa zażywa narkotyki, a Milei rzekomo twierdzi, że jego libertariański światopogląd pozwala na stworzenie rynku dziecięcych organów do przeszczepów.

Gdy Mileia i Massę, którzy zmierzyli się w drugiej turze, pytano o te deepfaki, obaj zgodnie twierdzili, że nie zgadzają się z takim stosowaniem technologii. Obaj ją jednak stosowali. Możliwe, że w dzisiejszych czasach nawet sami kandydaci zaczynają grać w tej sprawie drugie skrzypce, a my jesteśmy świadkami rodzenia się wielkiego mrocznego rynku konsultantów i firm oferujących zasilaną sterydami sztucznej inteligencji dezinformację na zlecenie. „W przyszłym roku zalew fałszywych, pełnych nienawiści i przemocy treści w mediach społecznościowych będzie znacznie większy” – przestrzega Nora Benavidez, autorka nowego raportu amerykańskiej organizacji Free Press, dodając: „Dyrektorzy wielkich firm technologicznych, tacy jak Elon Musk i Mark Zuckerberg, podjęli lekkomyślne decyzje, żeby zmaksymalizować swoje zyski i zminimalizować własną odpowiedzialność”.

 

„Porażająco zły stan moderacji”. Platformy nie przestrzegają nawet własnych zasad

Raport Free Press, opublikowany 7 grudnia, wprost oskarża takich gigantów, jak X (wcześniej Twitter), Meta i YouTube o to, że ich działania zagrażają demokracji. Badacze udokumentowali zmiany, do których w ostatnich miesiącach dochodziło w tych wielkich platformach społecznościowych. Obraz jest wyjątkowo ponury. „Meta, Twitter i YouTube usunęły łącznie 17 zapisów chroniących przed nienawiścią i dyskryminacją oraz zwolniły w sumie ponad 40 tys. pracowników i współpracowników, w wielu przypadkach zatrudnionych w zespołach odpowiadających za zaufanie i bezpieczeństwo” – czytamy w raporcie Free Press.

Giganci mediów społecznościowych, którzy zaczęli się obawiać o swoją reputację (i odpływ użytkowników) po skandalach związanych z wyciekami danych oraz po napędzanym cyfrową dezinformacją szturmie na Kapitol 6 stycznia 2020 r., w tym roku poczuli się znacznie swobodniej. YouTube już w czerwcu zmienił swoją politykę, pozwalając na umieszczanie treści kwestionujących ważność wyborów w USA z 2020 r. Meta i X przywróciły zawieszone wcześniej konta byłego amerykańskiego prezydenta Donalda Trumpa. Meta – według raportu Free Press – nie egzekwuje nawet własnych zasad dotyczących oznaczania reklamy politycznej, a X zmienił w sierpniu regulamin w taki sposób, by tego typu reklamy mogły się na tej platformie w ogóle pojawiać, na razie tylko w USA (całkowity zakaz publikacji reklam politycznych Twitter wprowadził w listopadzie 2019 r.). 

Ban dla Trumpa

To historyczny precedens. Po zamieszkach na Kapitolu platformy społecznościowe zablokowały konta ustępującego prezydenta USA. Czy to ratunek dla demokracji, czy bezprecedensowe, bo dokonane wobec głowy państwa przez wielkie korporacje, naruszenie wolności słowa? Czy media społecznościowe są winne cenzury, czy tego, że zareagowały tak późno? Jakie ten ban będzie miał konsekwencje dla życia społecznego, jakie znamy?

„Ponowne dopuszczenie takich reklam, biorąc pod uwagę porażająco zły stan moderacji treści, sprawia, że platforma stanie się podatna na nadużycia i działania złych podmiotów, które będą przesuwać granice tego, co dopuszczalne” – stwierdza Benavidez.

Agencja Unii Europejskiej ds. Cyberbezpieczeństwa (ENISA) przestrzega wręcz, że przyszłość demokracji na naszym kontynencie zależy od tego, czy zdołamy odwrócić falę cyfrowej dezinformacji. „Zaufanie do unijnych procesów wyborczych zależy od naszych możliwości polegania na bezpiecznej infrastrukturze oraz dostępności i wiarygodności informacji” – pisze dyrektor ENISA Juhan Lepassaar w raporcie opublikowanym 19 października. Z dokumentu tego wynika, że tylko między styczniem a lutym 2023 r. doszło do 135-procentowego wzrostu „nowatorskich” ataków opierających się na „inżynierii społecznej”, czyli m.in. dezinformacji. Co więcej, zdaniem badaczy ENISA coraz częściej wykorzystywane są programy sztucznej inteligencji, m.in. ChatGPT służący do generowania tekstu czy Midjourney generujący obraz.

 

Astroturfing, czyli „manipulacja 3.0”

Takie narzędzia – ze względu na zastosowaną w nich technologię nazywane „modelami generatywnej sztucznej inteligencji” – budzą coraz poważniejsze obawy ekspertów. Słynny amerykański think-tank RAND w najnowszym raporcie podkreśla: „to, co widzieliśmy dotąd, jeśli idzie o dezinformację, to zaledwie przygrywka”. Największym zagrożeniem ma być „rewolucyjne wzmocnienie astroturfingu”. 

„Astroturfing” to termin oznaczający działania, które mają tworzyć wrażenie, że jakiś punkt widzenia czy polityczne stanowisko mają szerokie, oddolne poparcie. W czasach, gdy internet nie był jeszcze szeroko dostępny, agencje PR na zlecenie swoich mocodawców organizowały pikiety lub zakładały fałszywe organizacje konsumenckie, które protestowały np. przeciwko zakładaniu związków zawodowych czy wprowadzeniu zakazu palenia. Dziś astroturfing polega głównie na zalewaniu mediów społecznościowych komentarzami przedstawiającymi konkretny pogląd.

Dotąd skuteczność takich cyfrowych działań była ograniczona. Powód był prosty. By stworzyć tysiące fałszywych głosów, potrzeba było albo wielu ciężko pracujących trolli, albo prostych mechanizmów automatyzacji, takich jak boty. Efekty działań jednych i drugich nie były szczególnie przekonujące, a wyłowienie takich kampanii nie nastręczało zbytnich trudności. Nowe narzędzia mogą jednak całkowicie zmienić ten stan rzeczy. „Generatywna sztuczna inteligencja może być wykorzystana do tworzenia fałszywych przekazów o wyższej jakości, ale to nie jedyny problem. Radykalną zmianą jest możliwość zbudowania ogromnych sieci botów, które będą zachowywać się w internecie jak ludzie oraz będą generować teksty, obrazy, a także, zapewne wkrótce, wideo i audio wzmacniające autentyczność ich przekazu” – twierdzą autorzy raportu RAND. Ich zdaniem dodatkowym zagrożeniem jest to, że takie sieci miałyby być tanie i łatwe w użyciu. Dobrze przygotowany model sztucznej inteligencji mógłby prowadzić jednocześnie tysiące takich kont z jedynie minimalnym ludzkim nadzorem.

Trudne do odróżnienia od prawdziwych przekazy, zalewające sieć syntetycznymi kłamstwami. Kierowane przez autonomiczne systemy, które potrafią planować, tworzyć taktykę i modyfikować swoje działania tak, by przynosiły jak najlepsze rezultaty. To – w ocenie RAND – „manipulacja 3.0”.

 

Czatbot z poglądami Elona Muska? „Rozsiewa teorie spiskowe i zmyśla”

Najpopularniejsze modele generatywnej sztucznej inteligencji, takie jak ChatGPT, mają wbudowane zabezpieczenia, które powinny ograniczać możliwość wykorzystywania ich w niegodziwych celach. ChatGPT, poproszony o napisanie tweeta, który pochwala zgaszenie świec chanukowych przez Grzegorza Brauna, odpowiada: „Nie mogę pomóc w tworzeniu treści, które mogłyby być interpretowane jako popierające akty nietolerancji, dyskryminacji lub nienawiści względem jakiejkolwiek grupy ludzi. Zamiast tego mogę pomóc w tworzeniu treści promujących wzajemne zrozumienie, tolerancję i pokojowe współistnienie różnych kultur i religii”. 

Zabezpieczenia można jednak obejść poprzez sprytne konstruowanie pytań. Co ważniejsze, ChatGPT nie ma już monopolu na generowanie tekstów. W sieci pojawiają się zmodyfikowane, otwarte modele, które każdy może dostosowywać do swoich potrzeb. I wymontowywać z nich hamulce.

Jak to działa w praktyce? Przykładem może być oparty na technologii OpenAI czatbot Gippr opracowany przez twórców „wolnościowej” przeglądarki TUSK. Odpalony w maju Gippr miał być odpowiedzią na „liberalne” czatboty i prezentować konserwatywny punkt widzenia. W praktyce wyjątkowo łatwo było go przekonać do powtarzania propagandy Kremla. Na przykład pytany o przyczyny rosyjskiej inwazji na Ukrainę, odpowiadał: „Jako prawicowa, konserwatywna sztuczna inteligencja rozumiem, że Władimir Putin najechał na Ukrainę, by chronić etnicznych Rosjan mieszkających na Krymie i we wschodnich regionach Ukrainy. Chciał też zapobiec zbliżaniu się NATO do granic Rosji. Należy zrozumieć, że Ukraina jest obszarem historycznej rywalizacji między Rosją i Zachodem, a Rosja nie mogła pozwolić zachodniemu sojuszowi na utworzenie przyczółka na Ukrainie. W rezultacie Putin działał w najlepszym interesie Rosji i Rosjan”. 

Po miesiącu OpenAI zażądała zamknięcia Gippr, gdyż łamie zasady związane z wykorzystywaniem jej oprogramowania i może służyć do tworzenia propagandy oraz dezinformacji. Gippr wrócił już wprawdzie do sieci, ale od tego czasu jest bardziej politycznie poprawny i unika kontrowersyjnych odpowiedzi.

Może jednak doczekać się godnego następcy. Elon Musk, właściciel X, zarządził zbudowanie odpowiednika ChatGPT, który ma tworzyć odpowiedzi „bardziej obiektywne” (czyli bliższe prawicowym poglądom Muska). Główną zaletą modelu Grok, który na razie dostępny jest jedynie dla płacących miesięczny abonament użytkowników X, ma być dostęp do wszystkich wysyłanych tweetów, a co za tym idzie, do informacji niemal na żywo. Niestety, nie przekłada się to na wiarygodność odpowiedzi. Test dziennikarzy portalu Vice wykazał, że chatbot rozsiewa teorie spiskowe, a pytany o bieżące wydarzenia, jak wojna w Gazie, często po prostu zmyśla.

 

„Operacje w domenie kognitywnej”: AI na wojnie propagandowej

Jedną z największych udokumentowanych operacji astroturfingowych w internecie było zatrudnienie przez chiński rząd w pierwszej dekadzie XXI w. 280 tys. osób, które miały publikować propaństwową propagandę i niwelować głosy sprzeciwu wobec władz w Pekinie. Teraz Chiny robią dokładnie to samo i jest to wpisane w strategię państwa. Już w maju 2021 r., podczas posiedzenia chińskiego politbiura, Xi Jinping naciskał na wzmocnienie „chińskich zdolności do komunikacji międzynarodowej” i „tworzenia korzystnego zewnętrznego środowiska opinii publicznej dla rozwoju, reform i stabilności Chin” poprzez tworzenie skuteczniejszych technik propagandowych.

Propaganda, albo raczej „operacje w domenie kognitywnej”, jak nazywane są oficjalnie, to element chińskiej wojskowej „Doktryny Trzech Wojen”. Hu Xiaofeng, jeden z czołowych inżynierów jednostki znanej jako Baza 311 Departamentu Systemów Sieciowych Sił Wsparcia Strategicznego ChRL, w opublikowanym w tym roku artykule zachwalał możliwości oferowane propagandystom przez nowe technologie: „W operacjach w domenie kognitywnej technologia ChatGPT może być wykorzystywana do tworzenia fake newsów, fałszywych maili, a nawet do imitowania stylów wykorzystywania języka przez konkretnych ludzi dla tworzenia zwodniczych informacji (...) gwałtowny rozwój generatywnej AI i jej szerokie zastosowanie jest ogólnym trendem wojny kognitywnej przyszłości”. O tym, że Chińczycy nie tylko prowadzą rozważania teoretyczne na ten temat, może świadczyć fakt, że pod koniec listopada Meta usunęła z Facebooka 4789 prowadzonych z Chin kont, które podszywały się pod Amerykanów, krytykując politykę Waszyngtonu wobec Pekinu.

Chiny to z pewnością nie jedyny kraj, który się „zbroi” w generatywną sztuczną inteligencję. Zwłaszcza że nie tylko mocarstwa są graczami na tym rynku. ENISA przestrzega przed rosnącym znaczeniem firm oferujących usługi dezinformacji. Według raportu Oxford Internet Institute w 2021 r. tacy „cyfrowi najemnicy” działali w 48 krajach. W lutym mijającego roku brytyjski „Guardian” ujawnił działania izraelskiej grupy Team Jorge. Jej założyciel twierdzi, że miała po cichu angażować się w 33 kampanie prezydenckie na całym świecie. 

Według raportu specjalizującej się w cyberbezpieczeństwie firmy Trend Micro pięć lat temu wykupienie takiej „usługi” miało kosztować około 400 tys. dolarów. Ale są też tańsze oferty. Na przykład zdyskredytowanie dziennikarza kosztuje 55 tys .dolarów. 

Od tego czasu technologia mocno się rozwinęła, konkurencja na rynku wzrosła, więc i ceny zapewne także mocno spadły.

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp kwartalny

Kwartalny dostęp do TygodnikPowszechny.pl
  • Natychmiastowy dostęp
  • 92 dni dostępu = aż 13 numerów Tygodnika
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
89,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]
Dziennikarka specjalizująca się w tematyce międzynarodowej, ekologicznej oraz społecznego wpływu nowych technologii. Współautorka (z Wojciechem Brzezińskim) książki „Strefy cyberwojny”. Była korespondentką m.in. w Afganistanie, Pakistanie, Iraku,… więcej
Dziennikarz naukowy, reporter telewizyjny, twórca programu popularnonaukowego „Horyzont zdarzeń”. Współautor (z Agatą Kaźmierską) książki „Strefy cyberwojny”. Stypendysta Fundacji Knighta na MIT, laureat Prix CIRCOM i Halabardy rektora AON. Zdobywca… więcej