Algorytmy demokracji 2023: Deepfake, który może wpłynąć na wynik wyborów? To już się stało

WybierAI odc. 3 | Czy do zwycięstwa partii Roberta Ficy na Słowacji przyczyniło się sfałszowane nagranie głosu lidera konkurencyjnego ugrupowania? Czy coś podobnego grozi też nam?

10.10.2023

Czyta się kilka minut

ryc. Adobe Stock

Na froncie debaty publicznej trwa wyścig zbrojeń. Wybory, które czekają nas w Polsce, odbywają się już w świecie manipulacji i propagandy wspieranej przez potężne technologie. Czy jako państwo i obywatele jesteśmy gotowi stawić im czoło? Czy zdołamy ocalić reguły, od których zależy nasza wolność?

Oto trzeci odcinek cyklu WybierAI: algorytmy demokracji, w którym przyglądamy się nowym zagrożeniom dla wolnych wyborów w Polsce i demokratycznym świecie.

W poprzednim odcinku:

  • Z umiarkowanym przekazem coraz trudniej się przebić – a to oznacza brutalizację kampanii
  • Osobne bańki: wyborcy opozycji kłócą się o politykę, ale… między sobą, a nie z wyborcami PiS
  • Źródła polaryzacji – jest tak stara, jak ludzkość
  • „Tiktokizacja mediów społecznościowych” – skąd się biorą cyfrowe sterydy

Gdy po wyjątkowo brutalnej kampanii zapadła wyborcza cisza, w sieci pojawiło się nagranie rozmowy telefonicznej o tym, że szykuje się fałszerstwo przy urnach. Po zaciętym wyścigu taka wiadomość mogła zaważyć, na kogo oddadzą głos niezdecydowani wyborcy. A co za tym idzie – o wyniku głosowania.

To nie fikcja. To wydarzyło się ostatnio na Słowacji i wiele wskazuje, że był to pierwszy przypadek, gdy treść wygenerowana przy pomocy sztucznej inteligencji wpłynęła na to, kto rządzi krajem. Istnieje ryzyko, że w Polsce na ostatniej prostej kampanii może dojść do publikacji podobnej fałszywki. Równie niebezpieczna może być jednak dezinformacja zaraz po ogłoszeniu wyników.

Nie do sprostowania: co się stało w ciszy wyborczej na Słowacji

Na spreparowanym nagraniu słychać rzekomo Michała Šimečkę, przewodniczącego partii Postępowa Słowacja, oraz Monikę Todovą, dziennikarkę „Denníka N”. Mężczyzna podczas rozmowy telefonicznej ma potwierdzać, że jego partia podkupi głosy na osiedlach romskich. „Ostatnio mieliśmy słabe dotacje, ale teraz mamy lepszy budżet” – przekonuje męski głos. Rozmowa dotyczy także pieniędzy dla dziennikarki. Gdy ta mówi, że boi się podsłuchu, głos uspokaja: „Monika, nie wpadaj w paranoję, ja rozumiem, że tobie też chodzi o dużo, ale tu możemy sobie gadać nawet o dziecięcej pornografii i nikt nic nie zauważy”.

Šimečka wiedział, że to bzdura. Todova też. Tylko co z tego, skoro trwała cisza wyborcza i żadne z nich nie miało szansy publicznie sprostować oczywistego dla nich kłamstwa? 

– Trudno powiedzieć, do jak wielu osób to kłamstwo dotarło, bo nagranie było rozsyłane głównie za pomocą e-maili łańcuszkowych i wiadomości na WhatsAppie – mówi „Tygodnikowi” Veronika Hincová Frankovská, analityczka organizacji demagog.sk, dodając: – Wiemy jednak, że nawet członkowie rodzin osób z naszego zespołu je rozsyłali. Sądzimy więc, że było rozpowszechniane szeroko.

Dramatyzmu sytuacji dodaje fakt, iż w sobotni wieczór 30 września exit polls wskazywały na zwycięstwo partii Šimečki i dopiero z biegiem kolejnych godzin okazało się, że prawdziwym wygranym jest prorosyjski Smer Roberta Ficy. 

Dotąd nie udało się ustalić, kto stworzył fałszywkę. 

Brzmienie kłamstwa: po czym poznać deepfake

Nagranie mogło mieć wpływ na wyborców i to pomimo faktu, że nie brzmi wiarygodnie. „Ten deepfake był w zasadzie od strony technicznej dość prymitywny – łatwo można rozpoznać, że nie jest to rozmowa prawdziwych ludzi” – komentował w wywiadzie dla Bloomberga Daniel Milo, szef Centrum Zwalczania Zagrożeń Hybrydowych w słowackim Ministerstwie Spraw Wewnętrznych. 

Eksperci, którzy analizowali nagranie, zgodnie twierdzą, że fałszerstwo można przede wszystkim poznać po tonie głosu i nienaturalnej dykcji rozmówców – każde zdanie brzmi, jakby było wypowiadane dokładnie w ten sam sposób. „Twórca nagrania starał się to ukryć, obniżając jakość dźwięku tak, by wywołać wrażenie rozmowy telefonicznej” – uważa Milo. Jakub Šuster, prezes start-upu elv.ai, zajmującego się moderowaniem treści przy użyciu metod sztucznej inteligencji, w rozmowie z AFP zwrócił uwagę na szybkość wypowiedzi na nagraniu oraz brak jakichkolwiek błędów językowych rozmówców: „Stałe tempo mowy, które słyszymy, w realnym świecie występuje stosunkowo rzadko. Jednocześnie nie słychać żadnego niewyraźnie wypowiedzianego zdania, kaszlu, mamrotania ani innych dźwięków, które naturalnie pojawiają się w zwykłej, nieformalnej komunikacji. Takich rzeczy tutaj nie ma”.

Deepfake nie do rozróżnienia – to kwestia roku, może dwóch

Według DeepMedia, firmy opracowującej narzędzia do wykrywania treści wygenerowanych przez sztuczną inteligencję, w tym roku w internecie pojawiło się trzy razy więcej deepfake’ów wideo i aż osiem razy więcej podrobionych nagrań głosowych niż w zeszłym roku, a na platformach społecznościowych na świecie w tym roku udostępnionych zostanie łącznie około 500 tys. takich materiałów. Jakie ryzyko się z tym wiąże? „Odpowiedź ogranicza jedynie wyobraźnia” – odpowiada amerykański think tank RAND Corporation w najnowszym raporcie o internetowej dezinformacji.

Między tymi, którzy tworzą deepfake’i, a tymi, którzy próbują je zwalczać, trwa technologiczny wyścig. I ci pierwsi wygrywają. Do niedawna wydawało się, że fałszywe wideo można poznać po tym, że osoby na nim przedstawione nie mrugają tak często, jak prawdziwi ludzie. Dosłownie kilka tygodni po tym, jak naukowcy zajmujący się wykrywaniem sztucznie generowanych treści opublikowali artykuł naukowy na ten temat, w sieci zaczęły się pojawiać fałszywki z bardziej naturalnym tempem mrugania.

Wiosną dwa lata temu Metaphysic.ai, firma zajmująca się rozwijaniem oprogramowania w oparciu o sztuczną inteligencję, opublikowała na TikToku wygenerowane nagrania z Tomem Cruise’em. „Stworzenie ich wymagało wielu godzin autentycznego materiału filmowego w celu wytrenowania modeli sztucznej inteligencji, a samo szkolenie trwało dwa miesiące. Deepfake’i wymagały także pary procesorów graficznych (GPU) NVIDIA RTX 8000, których koszt przekraczał 5795 dol. za każdy. Następnie twórcy musieli przeglądać końcowy materiał klatka po klatce pod kątem zauważalnych elementów, takich jak nierealistyczne ruchy oczu. Wreszcie proces ten nie mógłby nastąpić bez utalentowanego aktora, który z powodzeniem potrafiłby naśladować ruchy i maniery Toma Cruise’a” – pisze RAND. Think tank podkreśla jednak, że „z biegiem czasu tworzenie takich filmów stanie się tańsze i będzie wymagało mniej materiału szkoleniowego”, a stworzone przez sztuczną inteligencję nagrania staną się niemożliwe do wychwycenia gołym okiem. 

„To kwestia roku, może dwóch” – uważa Daniel Milo.

Wiarygodnie podrobione nagrania audio mogą się pojawić znacznie szybciej. DeepMedia wylicza, że jeszcze w zeszłym roku sklonowanie głosu kosztowało około 10 tys. dol. Obecnie start-upy oferują taką usługę za kilka dolarów.

Nie tylko Rosja i Chiny: nowe zagrożenie to „aktorzy krajowi”

Deepfake, który pojawił się na Słowacji w czasie ciszy wyborczej, może być zaledwie przedsmakiem tego, co będzie się działo na świecie. Do końca przyszłego roku w prawie trzech czwartych państw demokratycznych mają się odbyć wybory. Oprócz głosowania u nas w najbliższą niedzielę, zapowiedziano je m.in. w Indiach, Australii, Wielkiej Brytanii, a mieszkańcy Unii Europejskiej będą wybierać europarlament. 

Już teraz w kampanii przed przyszłorocznymi wyborami w USA regularnie pojawiają się deepfake’i. Republikanie przekroczyli Rubikon w kwietniu, gdy na wyglądającym wyjątkowo realistycznie nagraniu przedstawili dystopijną wizję przyszłości – po zwycięstwie Joego Bidena i Kamali Harris w wyborach w 2024 roku Stany Zjednoczone i świat ogarnia chaos: wybucha kryzys gospodarczy, migranci szturmują granice, wojsko pojawia się na ulicach miast, Chiny dokonują brutalnej inwazji na Tajwan. A w tym czasie prezydent w Gabinecie Owalnym wygląda na słabego, zdezorientowanego, zmęczonego. 

Na Tajwanie, gdzie głosowanie zapowiedziano na styczeń 2024 roku, już teraz kampania toczy się w cieniu skandalu związanego z podrobionym nagraniem. Słychać na nim głos przypominający kandydata Tajwańskiej Partii Ludowej (TPP) Ko Wen-je, który twierdzi, że jego główny rywal Lai Ching-te z Demokratycznej Partii Postępu (DPP) jest nadęty i płaci po 800 dol. uczestnikom swoich wieców. 57-sekundowy plik rozsyłano za pomocą maili i komunikatorów.

„Kraje takie jak Rosja i Chiny od dawna testują cyberataki i operacje dezinformacyjne na mniejszych krajach, zanim zastosują je szeroko” – twierdzi Bruce Schneier, specjalista ds. cyberbezpieczeństwa z Uniwersytetu Harvarda w analizie opublikowanej na łamach „The Conversation”. Pisze w niej, że kilka miesięcy temu uczestniczył w konferencji z przedstawicielami wszystkich amerykańskich agencji zajmujących się bezpieczeństwem: „Mówili, czego się spodziewają, jeśli idzie o ingerencje wyborcze w 2024 roku. Twierdzili, że oprócz zwyczajowych graczy, jak Rosja, Chiny i Iran, pojawi się nowe zagrożenie: aktorzy krajowi. I to bezpośredni skutek obniżenia kosztów [produkcji deepfake’ów]”. 

Dezinformacja: śmiertelne zagrożenie dla demokracji

W ostatnich tygodniach polski polityczny internet dosłownie zalewały nagrania podrobione w sposób – mówiąc delikatnie – wyjątkowo prymitywny, a zamiast sztucznej inteligencji do ich stworzenia wykorzystywano programy montażowe: pod obraz, bez zbytniego patyczkowania się z detalami, podkładano zmanipulowane wypowiedzi. Dotąd porządnie zrobione deepfake’i, o których dyskutowano publicznie, pojawiły się tylko trzy. Najpierw Platforma Obywatelska wykorzystała sztuczną inteligencję do stworzenia głosu premiera Mateusza Morawieckiego, czytającego treść wysłanego przez niego maila opublikowanego przez portal Poufna Rozmowa. PO początkowo nie zaznaczyła, że głos został sztucznie wygenerowany, i była za to szeroko krytykowana. Na sześć dni przed wyborami PO znów użyła tego narzędzia – syntetyczny głos Morawieckiego czyta fragment wywiadu, którego późniejszy premier udzielił w 2010 roku. 

O ile można było przypuszczać, że szef rządu rzeczywiście napisał czy wypowiedział takie słowa, w przypadku deepfake’a stworzonego na zlecenie posła Prawa i Sprawiedliwości Piotra Saka taka koincydencja nie zachodzi. Na opublikowanym przez niego filmiku słychać sztucznie wygenerowany głos przestępcy uwodzącego kobiety w czasach PRL, Jerzego Kalibabki, a następnie Simona Levieva, bohatera filmu „Oszust z Tindera”. Jako trzeci pojawia się sztucznie wygenerowany głos lidera KO, który mówi: „Ja jestem Donald Tusk i od moich poprzedników różnię się tym, że oszukałem miliony Polaków”. Sak publikując nagranie wyraźnie zaznaczył jednak, że zostało ono stworzone przez sztuczną inteligencję.

Co jednak by się stało, gdyby w Polsce nagranie podobne do tego ze Słowacji trafiło do sieci podczas ciszy wyborczej i część użytkowników rzeczywiście uznałaby je za prawdziwe? 

– Publikacja takich materiałów w czasie, gdy agitacja jest zakazana, otwiera kwestię, czy wybory zostały przeprowadzone w sposób wolny oraz czy spełniały kryteria, które są określone w ustawie. Kodeks wyborczy ma na celu upewnienie się, że wybory będą wolne od działań, które mogą wpływać w sposób niezgodny z prawem na preferencje wyborców – mówi nam mec. Rafał Rozwadowski.

Dezinformacja jest śmiertelnym zagrożeniem dla procesów demokratycznych. I w tym stwierdzeniu nie ma ani krztyny przesady, czego dowiodły wydarzenia z 6 stycznia 2021 roku, gdy karmiony kłamstwami o wyborczym fałszerstwie tłum przypuścił szturm na amerykański Kapitol. W zamieszkach zginęło pięć osób, ale ofiar mogło być o wiele więcej, bo część z napastników była najwyraźniej gotowa uśmiercić amerykańskich parlamentarzystów. Wszystko przez silną polaryzację i jad sączony w internecie.

Jak zabezpieczyć wybory: atak na zaufanie

Celem ataku może stać się także sam proces wyborczy, w większości krajów świata uzależniony od sprawnego działania sieci informatycznych. W 2020 roku doradca Donalda Trumpa ds. bezpieczeństwa narodowego Robert O’Brien przyznał, że infrastruktura wyborcza w USA była celem chińskich hakerów. Amerykańska rządowa agencja ds. cyberbezpieczeństwa CISA podkreśla, że te ataki się nie powiodły. Nie wszyscy mieli jednak aż tyle szczęścia. 

W 2014 roku, na trzy dni przed ukraińskimi wyborami prezydenckimi, grupa hakerska CyberBerkut ogłosiła, że udało jej się spenetrować systemy Centralnej Komisji Wyborczej Ukrainy i wykraść hasła do serwerów. Hakerzy opublikowali w internecie wykradzione dane, w tym adresy mailowe i inne dokumenty. Oświadczyli, że „zniszczyli infrastrukturę komputerową” wyborów. Systemy zostały dzień później odtworzone przez rządowych ekspertów z kopii zapasowych, a same wybory odbyły się zgodnie z planem. To jednak nie był koniec. 25 maja, na 40 minut przed ogłoszeniem wstępnych wyników głosowania, w systemach Centralnej Komisji Wyborczej wykryto, że zainstalowany w nich wirus ma przedstawić sfabrykowane wyniki głosowania jako prawdziwe, wskazując na zwycięstwo ultranacjonalistycznego kandydata Dmytro Jarosza z Prawego Sektora. Według sfałszowanych wyników miał zdobyć 37 procent głosów, a jego rywal Petro Poroszenko 29 procent. Dodatkowym elementem była seria ataków DDoS, mających przeciążyć serwery, na których zbierane były wyniki głosowań z poszczególnych komisji. Opóźniło to publikację ostatecznych wyników wyborów. To, że za atakiem stał Kreml, stało się oczywiste, gdy – najwyraźniej nie sprawdzając, czy operacja się powiodła – rosyjska telewizja Kanał Pierwszy nadała informację o wyborach w Ukrainie zawierającą sfabrykowane informacje, choć te nigdy nie zostały ogłoszone przez władze w Kijowie.

Polskie Ministerstwo Cyfryzacji, które odpowiadało za stworzenie i wprowadzenie w życie centralnego rejestru wyborców, umożliwiającego samorządom pobieranie aktualnych list wyborców, zapewnia, że nasz system na podobne ataki powinien być odporny. 

– Został gruntownie przetestowany zarówno z udziałem użytkowników, jak i przez zewnętrznych ekspertów. Nie wykryto żadnych wysokich, krytycznych błędów. Przed samymi wyborami nasz zespół będzie pracował 24 godziny na dobę, by zapewniać wsparcie użytkownikom – wyjaśnia w rozmowie z nami minister cyfryzacji Janusz Cieszyński. – Przeprowadzenie ataku DDoS na ten system jest zupełną abstrakcją, bo działa on w oparciu o wydzieloną sieć, bez dostępu do internetu. A w razie awarii mamy wariant alternatywny pozwalający na bezpieczne wygenerowanie list dzięki alternatywnej infrastrukturze.

– Największym problemem, jaki mamy, jest fakt, że w ramach oszczędności komisje wielokrotnie korzystały na przykład z komputerów szkół, w których się znajdują – mówi nam doświadczony polski ekspert od cyberbezpieczeństwa, który pracował nad zabezpieczeniami poprzednich wyborów. – Ewentualny napastnik może wcześniej umieścić na takich maszynach malware [złośliwe oprogramowanie – red.], które umożliwiałoby zakłócanie procesu zliczania i przesyłania głosów. Wszystko co prawda jest też na papierze, więc nasz proces jest stosunkowo odporny na podobne ataki, ale każde zakłócenia mogą prowadzić do spadku zaufania w uczciwość procesu wyborczego.

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp kwartalny

Kwartalny dostęp do TygodnikPowszechny.pl
  • Natychmiastowy dostęp
  • 92 dni dostępu = aż 13 numerów Tygodnika
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
89,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]
Dziennikarka specjalizująca się w tematyce międzynarodowej, ekologicznej oraz społecznego wpływu nowych technologii. Współautorka (z Wojciechem Brzezińskim) książki „Strefy cyberwojny”. Była korespondentką m.in. w Afganistanie, Pakistanie, Iraku,… więcej
Dziennikarz naukowy, reporter telewizyjny, twórca programu popularnonaukowego „Horyzont zdarzeń”. Współautor (z Agatą Kaźmierską) książki „Strefy cyberwojny”. Stypendysta Fundacji Knighta na MIT, laureat Prix CIRCOM i Halabardy rektora AON. Zdobywca… więcej