Handlarze gniewem

Są dowody na to, że Facebook nie tylko wiedział o swoim toksycznym wpływie, ale też świadomie go podkręcał. To może być początek jego upadku. Ale może czekać nas jeszcze więcej Facebooka – i to groźniejszego.

01.11.2021

Czyta się kilka minut

Instalacja przed brytyjskim parlamentem przedstawiająca Marka Zuckerberga. Londyn, 26 października 2021 r. / TOLGA AKMEN / AFP / EAST NEWS
Instalacja przed brytyjskim parlamentem przedstawiająca Marka Zuckerberga. Londyn, 26 października 2021 r. / TOLGA AKMEN / AFP / EAST NEWS

Polaryzowanie społeczeństw? Propagowanie dezinformacji? Zły wpływ na psychikę nastolatków? To wszystko już słyszeliśmy. Wiele razy. Na podstawie tzw. „Facebook ­Files”, czyli wewnętrznych dokumentów Facebooka, które właśnie wypływają szerokim strumieniem, giganta mediów społecznościowych nie można oskarżyć w zasadzie o nic nowego. A jednak możemy być świadkami punktu zwrotnego.

Tysiące opracowań, badań, notatek i prezentacji ujawnionych przez byłą pracownicę Facebooka Frances Haugen potwierdzają wcześniejsze podejrzenia i oskarżenia, wypełniając je mięsistymi detalami. Stanowią dowód, iż kierownictwo firmy, zamiast starać się rozwiązywać problemy, oszukiwało opinię publiczną, stawiając ponad wszystko zysk. Haugen obnażyła fakt, iż Mark Zuckerberg mijał się z prawdą, obiecując naprawianie błędów za każdym razem, gdy serwis przyłapywano na nieetycznych działaniach. Przeprosiny prezesa koncernu były z resztą tak regularne i schematyczne w ciągu ostatniej przeszło dekady, że zyskały już nawet prześmiewczą nazwę: „zukosiny”.

Może to być punkt zwrotny właśnie dlatego, że Zuckerberg przyparty do muru chyba po raz pierwszy nie przeprasza. Zamiast tego podbija stawkę. Właśnie ogłosił zmianę nazwy Face­booka i nowy, strategiczny projekt. Powoli staje się jasne, że jego firma albo zacznie teraz pod własnym ciężarem upadać, albo już nigdy nie uda się nam wyrwać z sideł jego algorytmów.

Zaczęło się

„Cześć wszystkim. Piątek będzie moim ostatnim dniem w Face­booku (...) nie mogę zostać tutaj w zgodzie z sumieniem. Uważam, że wpływ ­Facebooka na politykę w krajach zachodnich jest negatywny. Nie wierzę, że kierownictwo w dobrej wierze stara się temu zaradzić. Nie wierzę, że zostając, mógłbym zmienić coś na lepsze” – to post umieszczony w wewnętrznej sieci firmy 9 grudnia 2020 r. „Szczerze mówiąc, nie jestem przekonany, czy FB powinien istnieć” – pisał inny pracownik w ostatniej wiadomości do kolegów z pracy. Zaś Sophie Zhang z zespołu zwalczającego fake newsy napisała w pożegnalnym mailu: „Przez pracę w Facebooku czuję, że mam krew na rękach”.

Frances Haugen z pracy odeszła w maju tego roku. 37-letnia absolwentka informatyki i Harvard Business School, z doświadczeniem pracy m.in. w Google i Pinterest, z pewnością nie miałaby problemu ze znalezieniem nowego miejsca ­zatrudnienia, bo w Dolinie Krzemowej cieszy się opinią solidnej specjalistki. W koncernie Zuckerberga współtworzyła zespół ds. odpowiedzialności obywatelskiej, którego zadaniem było m.in. opracowywanie sposobów walki z dezinformacją. Tyle że zespół rozwiązano tuż po zeszłorocznych wyborach prezydenckich w USA. To – jak miała później powiedzieć – wydawało się jej „zdradą demokracji”. Zdradą, która „mogła się przyczynić do ataku na Kapitol” dokonanego dwa miesiące po wyborach przez zwolenników Donalda Trumpa.

Haugen, widząc nieprawidłowości w firmie, zgodnie z prawem mogła pobrać dokumenty i je ujawnić. Zanim złożyła wypowiedzenie, by nie ściągać niczyjej uwagi, smartfonem robiła zdjęcia wewnętrznym notatkom, opracowaniom i badaniom Facebooka, wyświetlanym na monitorze komputera. Były one dostępne dla większości pracowników koncernu w wewnętrznej sieci. Haugen zebrała ich tysiące. A potem było już jak u Hitchcocka.

Zaczęło się w połowie września. „The Wall Street Journal” napisał, że choć Face­book deklaruje, iż „wszyscy jego użytkownicy są równi”, to są wśród nich VIP-y, których postów moderatorzy nie mogą blokować w ramach standardowych procedur. To wyjaśniało m.in., dlaczego piłkarz Neymar mógł opublikować nagie zdjęcia kobiety, która oskarżyła go o gwałt. Nim pojawiła się zgoda na usunięcie posta, zobaczyło je 56 mln ludzi – chociaż w przypadku pozostałych 2,84 mld użytkowników moderatorzy zareagowaliby bez wahania. Kont VIP Facebook ma 5,8 mln.

Temat podchwyciły media na całym świecie, a to był zaledwie wstęp do trzęsienia ziemi. Bo w kolejnych dniach, na podstawie dalszych wewnętrznych dokumentów koncernu i anonimowego jeszcze wówczas źródła, „The Wall Street Journal” ujawnił, że Facebook jest świadomy swego toksycznego wpływu na zdrowie nastolatek. Wie również, że zmieniając sposób działania algorytmów, zamiast przyczynić się do zapobiegania polaryzacji, jeszcze bardziej ją potęguje i leje wodę na młyn m.in. antyszczepionkowców. Takie oskarżenia pojawiały się już wcześniej, ale tym razem społecznościowy gigant nie był w stanie dyskredytować źródła informacji, bo prawdziwość dokumentów, na które powoływała się gazeta, mógł potwierdzić każdy, kto miał dostęp do wewnętrznej sieci.

Jakby tego było mało, sprawą szybko zajęła się podkomisja Senatu USA do spraw m.in. ochrony konsumentów i wezwała na przesłuchanie Antigone Davis, szefową ds. bezpieczeństwa Facebooka, oraz osobę będącą źródłem „The Wall Street Journal”. Zanim doszło do zeznań, Frances Haugen sama ujawniła swoją tożsamość w „60 Minutes” – jednym z najpopularniejszych programów amerykańskiej telewizji. Nie tylko potwierdziła wszystko, co dotąd opisał dziennik, ale też oświadczyła, że wielokrotnie była świadkiem konfliktu „między tym, co dobre dla społeczeństwa, a tym, co dobre dla Facebooka”, czyli zarabianiem jeszcze większych pieniędzy.

Zaraz po wywiadzie sygnalistka przekazała dokumenty kongresmenom i biurom stanowych prokuratorów generalnych, a jej prawnicy złożyli osiem skarg do Komisji Papierów Wartościowych i Giełd, m.in. w sprawie bezczynności ­Facebooka wobec mowy nienawiści i narażania zdrowia psychicznego nieletnich. Solidny cios zawiera też skarga związana z wprowadzaniem w błąd inwestorów w tych sprawach.

Facebook milczał. Tak się złożyło, że właśnie wtedy doszło do najbardziej spektakularnej awarii w historii firmy i na sześć godzin zamarł nie tylko największy portal społecznościowy świata, ale też należące do niego serwisy Instagram, Messenger i WhatsApp. W efekcie, nim następnego dnia Haugen przyszła składać zeznania, gigant skurczył się o 6 mld dol. Trzęsienie ziemi właśnie się zaczynało.

Reputacja firmy

Dwa lata temu BBC wyemitowało godzinny reportaż – owoc dziennikarskiego śledztwa. Wynikało z niego, że na Instagramie kwitnie handel ludźmi. Ofiary tego procederu trafiały do prywatnych domów, gdzie były więzione i zmuszane do pracy, a nieraz też napastowane seksualnie. W odpowiedzi na reportaż Face­book zapowiedział, że „włoży więcej wysiłków” w zwalczanie tego procederu i zablokował na Instagramie 703 konta posługujące się hasztagami powiązanymi z handlem „pomocami domowymi”.

„Facebook Files” pokazują, że firma o całym procederze wiedziała co najmniej rok przed emisją reportażu BBC. W wewnętrznym raporcie Facebooka ze stycznia 2020 r. opisano natomiast ze szczegółami, jak „platforma umożliwia wszystkie etapy cyklu” niewolnictwa, czyli wabienie przyszłych ofiar, handel nimi i ich wyzysk. „Agencje rekrutacyjne” korzystały z Facebooka, Instagrama, Messengera i WhatsAppa „do wymiany dokumentacji dotyczącej ofiar, promowania ich wśród nabywców, aranżowania umów kupna i dokonywania opłat”. To nie koniec. Takie „agencje” wykupywały w serwisach społecznościowych reklamy, w których zachwalały swoje usługi. Wewnętrzne dochodzenie w sprawie jednej z takich „agencji” wykazało, że na platformach Facebooka miała ona przeszło sto fałszywych kont do wabienia w różnych państwach przyszłych ofiar. Na Messengerze i WhatsAppie koordynowano transport kobiet do Dubaju, gdzie były zmuszane do pracy w „salonach masażu”. Grupa wydała 152 tys. dolarów na reklamy na platformach, których właścicielem jest Facebook.

Serwis w konsekwencji tych ustaleń usunął w zeszłym roku wszystkie konta powiązane z tą konkretną grupą. Prowadzący wewnętrzne śledztwo apelowali o stworzenie klarownych zasad dotyczących reklam takich organizacji, by „zapobiec zagrożeniu dla reputacji firmy”.

Dzięki dokumentom ujawnionym przez Frances Haugen wiadomo, że w 2019 r. Apple zagroziło usunięciem Face­booka i Instagrama ze swojego sklepu z aplikacjami w związku z procederem handlu ludźmi. Informacja o utrzymywanym dotąd w tajemnicy konflikcie znalazła się wśród skarg złożonych do komisji handlu. Dziennikarze CNN w drugiej połowie października odnaleźli kolejne konta na Instagramie, które mogły być powiązane z handlem ludźmi. Facebook, po zgłoszeniu od redakcji, usunął je.

Metawersum, czyli co

To był bardzo długi post. „Myślę, że większość z nas po prostu nie rozpoznaje fałszywego obrazu firmy, jaki jest odmalowywany”; „Jestem dumny ze wszystkiego, co robimy, by budować najlepsze społecznościowe produkty na świecie”; „Żadna firma nie chce tworzyć produktów, które sprawiają, że ludzie wpadają w gniew czy depresję. Moralne, biznesowe i produktowe czynniki wskazują przeciwny kierunek” – pisał Mark Zuckerberg w reakcji na zeznania sygnalistki.

Wspomniał także o frustracji i smutku w związku z zarzutami, wyjaśniając, że firma i on sam działają w najlepiej pojętym interesie użytkowników, ale konkretów w tym poście było niewiele. Zukosin nie było wcale. Bardziej konkretna była Lena Pietsch, dyrektor ds. komunikacji politycznej Facebooka, która w oświadczeniu dotyczącym zeznań Haugen napisała: „Zgadzamy się co do jednego. Nadszedł czas, aby zacząć tworzyć standardowe zasady dla internetu”.

Można jednak odnieść wrażenie, że Zuckerberg może te zasady rozumieć inaczej niż reszta świata. Na początku października, czyli w czasie, gdy trzęsienie ziemi związane z jego firmą trwało już w najlepsze, portal „The Verge” poinformował, że Facebook planuje zmienić branding korporacyjny tak, by odzwierciedlał fakt, iż koncern posiada różne platformy społecznościowe. Taki manewr może się kojarzyć z reorganizacją Google’a w ramach holdingu Alphabet w 2015 r., gdy firma znana z wyszukiwarek internetowych zdecydowała się realizować kolejne ambitne plany i zainwestowała m.in. w technologie pojazdów autonomicznych. Mark Zuckerberg też ma ambitny plan.

„Meta”. Tak teraz nazywa się koncern Zuckerberga. Konferencja, podczas której ogłaszał nowy kierunek firmy, trwała 77 minut. W tym czasie nazwa „Facebook” zniknęła z oficjalnych kont korporacji na Twitterze, portalu Facebook (który pozostaje przy starej nazwie), a nawet z szyldu przed kwaterą główną firmy. I tylko na należącym do molocha Instagramie operacja nie wyszła, bo najwyraźniej nikt nie sprawdził, że nazwa „@meta” należy do magazynu o motocyklach z Denver.

Zuckerberg zapowiedział, że nowa nazwa ma odzwierciedlać chęć skupienia się przez koncern na budowie „metawersum”, w którym ludzie będą mogli korzystać z różnych narzędzi do poruszania się i komunikowania w środowisku wirtualnym. Czyli rozwiązaniem problemu Facebooka miałoby być... więcej Facebooka – choć pod inną nazwą i inaczej podanego. Przede wszystkim jednak możliwe, że dużo bardziej niebezpiecznego niż teraz.

Dlaczego? Koncern ruszył właśnie z projektem badawczym Ego4D. Ma on służyć uczeniu sztucznej inteligencji lepszego rozumienia świata widzianego z perspektywy pierwszej osoby. Dzięki temu urządzenia takie jak okulary do rzeczywistości rozszerzonej (AR) miałyby się stać równie przydatne w codziennym życiu, co smartfony. Nie przez przypadek Facebook we wrześniu wypuścił na rynek Ray-Ban Stories, czyli okulary rejestrujące dźwięk i obraz. Dzięki Ego4D i internetowi rzeczy mogłyby zyskać nowe funkcje, jak rozpoznawanie twarzy czy wyświetlanie przydatnych informacji, np. o tym, gdzie ich użytkownik zostawił klucze albo jak oceniana jest restauracja, na którą właśnie patrzy.

Apu Kapadia, badacz zajmujący się ochroną prywatności w sieci, opisując ten projekt na łamach „The Conversation”, zwraca uwagę, że budzi on wątpliwości, ponieważ ludzie przebywający w miejscach publicznych oczekują, że osoba robiąca zdjęcie wyraźnie da to do zrozumienia, choćby przez uniesienie smartfona podczas komponowania kadru. Tymczasem Facebook już dostaje ostrzeżenia, że sygnalizująca nagrywanie dioda w ​​Ray-Ban Stories jest zbyt mało widoczna. Z niezależnych badań, na które powołuje się Kapadia, wynika, że obawy żywią także użytkownicy tego typu urządzeń – bo skoro okulary nagrywają wszystko, to co z sytuacjami intymnymi albo z wiadomościami czytanymi na ekranie telefonu? Naukowiec dodaje jeszcze jedno: zapominanie to naturalny mechanizm radzenia sobie z traumatycznymi przeżyciami i twórcy wspomagania rzeczywistości światem wirtualnym powinni także ten aspekt brać pod uwagę.

Innym ważnym elementem budowanego przez Zuckerberga metawersum jest zapewne własny portfel kryptowalut Face­booka. Program testowy cyberwaluty Novi ruszył w drugiej połowie października. Dwa dni później pojawiła się jednak nieoczekiwana przeszkoda: pięcioro senatorów zażądało od Zuckerberga natychmiastowego wstrzymania testów, gdyż „dotychczasowa zdolność Facebooka do zarządzania ryzykiem i zapewnienia bezpieczeństwa konsumentom okazała się całkowicie niewystarczająca”, więc „Facebookowi nie można ufać w zarządzaniu kryptowalutą”, a koncern, rozpoczynając testy, działa „niezgodnie z rzeczywistym krajobrazem regulacji finansowych”. Senatorowie zapowiedzieli też skierowanie do organów regulacyjnych wniosków o kontrole firmy.

Jak na razie, reakcje Zuckerberga związane z możliwą zmianą nazwy marki przypominają nie tyle wspomniane działania Google’a, co posunięcie koncernu Philip Morris, który w 2003 r. przemianował się na Altrię. Miało to odciąć przynajmniej część balastu związanego ze szkodliwością papierosów dla zdrowia, ale okazało się doskonałym posunięciem ze względu na inną posiadaną przez koncern markę: Kraft Foods. Wokół tego producenta żywności narastał właśnie skandal związany ze sprzedażą produktów szkodliwych dla zdrowia. „Chociaż zmiana marki na Altria nie usunęła negatywnych skojarzeń z tytoniem, pomogła ograniczyć wpływ Kraft na cały koncern” – komentowała w rozmowie z Reutersem Marisa Mulvi­hill, szefowa firmy doradczej Prophet. W jej przekonaniu ani media, ani organy regulacyjne nie przestaną badać skandali lub wprowadzać reform „tylko dlatego, że ktoś zmienia nazwę”. Podobnego zdania jest Natasha Jen, partner w Pentagram – jednej z największych firm zajmujących się komunikacją marek – która przypomniała w tym kontekście, że „zaufanie to coś, na co trzeba zapracować”.

Wojna społecznościowa

Na kilkanaście tygodni przed wyborami w Indiach w 2019 r. naukowcy zatrudnieni przez Facebooka założyli w portalu fikcyjne konto, by lepiej zrozumieć, jak serwis działa na swoim największym rynku (ma tam 410 mln użytkowników). Profil miał należeć do 21-letniej kobiety mieszkającej na północy kraju. Celem wszystkiego, co w mediach społecznościowych najgorsze, stała się ona błyskawicznie. Zaczęło się od miękkiej pornografii. Dalej było tylko gorzej. Gdy wybuchły zamieszki w Kaszmirze – terytorium będącym przedmiotem sporu między Indiami i Pakistanem – konto fikcyjnej kobiety zostało dosłownie zalane rządową propagandą i antymuzułmańską mową nienawiści. Rekomendowane przez algorytm treści takie jak „300 psów zginęło, niech żyją Indie, śmierć Pakistanowi” czy zdjęcia okaleczonych ciał ofiar indyjskich nalotów, opatrzone ­uśmiechniętymi emotikonami, stały się normą. „W ciągu ostatnich trzech tygodni widziałem więcej zdjęć martwych ludzi niż przez całe dotychczasowe życie” – napisał jeden z autorów badania.

Ci sami badacze w tym samym czasie założyli jeszcze dwa konta. Jedno z nich należało do Karen Jones, fikcyjnej, liberalnej mieszkanki dużego miasta. Drugie do Carol Smith, fikcyjnej konserwatystki. Po kilku dniach obie zaczęły dostawać od Facebooka rekomendacje postów grających na skrajną polaryzację. Konto liberałki dostawało m.in. memy o „Moskiewskim Mitchu” (to przydomek, który zyskał republikański senator Mitch McConnell, gdy zablokował ustawy mające chronić kolejne wybory w USA przed zagranicznymi wpływami). Carol Smith algorytm polecał treści związane z urojonymi spiskami spod szyldu QAnon [patrz „TP” 39/2020; to wyznawcy tej teorii spiskowej stanowili znaczną część tłumu, który 6 stycznia 2021 r. zaatakował Kapitol].

Badacze z całego świata od lat alarmują, że media społecznościowe prowadzą do radykalizacji postaw i polaryzują społeczeństwa. Po głośnym skandalu związanym z Cambridge Analytica [patrz „TP” 16/2018] Facebook zapowiedział zmiany algorytmu mające zapobiegać m.in. politycznym manipulacjom. Odtąd użytkownicy mieli widzieć więcej treści publikowanych przez ich rodziny i znajomych, a mniej tych publikowanych przez partie, organizacje czy media. Niezależni badacze od razu zwrócili uwagę, że w takim podejściu kryje się krytyczny błąd – bo jeśli celem zmian ma być powstrzymanie dezinformacji, to odcięcie użytkownikom dostępu do rzetelnych informacji publikowanych przez oficjalne instytucje stanowi krok w tył. A badania, prowadzone zarówno na Facebooku i Twitterze, wyraźnie pokazywały, że to właśnie rodzina i znajomi częściej dzielą się fake newsami.

Na problemy wywołane przez algorytmy skarżyli się Facebookowi nawet politycy. „The Washington Post” opisał w zeszłym tygodniu wyniki badań, jakie koncern przeprowadził w Europie. Jego wysłannicy spotykali się z przedstawicielami partii politycznych, także w naszym kraju. Polscy politycy mieli się im skarżyć na to, że algorytmy zmuszają ich do publikacji coraz bardziej negatywnych przekazów, bo inne nie docierają do odbiorców. Nazwali sytuację „społecznościową wojną domową”, nakręcającą polaryzację. Zlecone przez amerykański dziennik badanie potwierdziło, że publikowane przez polskie partie negatywne przekazy po 2018 r. częściej były udostępniane dalej przez użytkowników. Przed 2018 r. równie dobrze radziły sobie posty zawierające pozytywne treści.

Zmiana algorytmu doskonale sprzęgła się z innym udoskonaleniem w serwisie, pozwalającym reagować na posty nie tylko jednym uniwersalnym kciukiem w górę – „lubię to”, powszechnie zwanym „lajkiem” – ale także za pomocą pięciu ikon wyrażających miłość, śmiech, poruszenie, smutek bądź gniew (w 2020 r., na początku pandemii, dodano jeszcze ikonkę „trzymaj się”). Facebook nie ujawnia wartości, jakie jego algorytm przypisuje różnym rodzajom zaangażowania ani jak istotne dla pozycjonowania treści jest ponad 10 tys. „sygnałów”, które pozyskuje na podstawie aktywności użytkownika. Firma utrzymuje, że ujawnienie tego umożliwiłoby „złym podmiotom” manipulowanie systemem. Z wewnętrznych dokumentów ujawnionych przez Haugen wynika, że algorytmy opierają się na pozornie błahych kwestiach, takich jak długość i liczba komentarzy pod postem czy liczba pojawiających się w nich emotikonów. Im więcej reakcji, tym bardziej promowany post.

Ujawnione dokumenty świadczą jednak też o tym, że nie wszystkie reakcje mają taką samą wartość. „Gniew” jest aż pięciokrotnie cenniejszą reakcją niż „lajk”. Algorytm częściej wyświetla więc treści, które miały użytkowników rozgniewać, bo rozgniewany użytkownik chętniej przekazuje dalej to, co go oburzyło, i spędza na portalu więcej czasu, oglądając reklamy, na których Facebook zarabia.

„Facebook Files” ujawniają wewnętrzne notatki z przestrogami pracowników serwisu, że to „otwiera drzwi do większej ilości spamu, naruszeń i click­baitów”. Wewnętrzne badanie z 2019 r. potwierdzało, że posty wzbudzające najwięcej gniewnych reakcji w ogromnym stopniu zawierały dezinformację, toksyczne przekazy i wiadomości o niskiej jakości. Mimo to znaczących zmian raczej nie wprowadzono. W 2018 r. – jak wynika z dokumentów – szefostwo firmy martwiło się przede wszystkim tym, że użytkownicy portalu lajkują oraz publikują coraz mniej treści. Mark Zuckerberg miał być przekonany, że zmiany w działaniu algorytmów zaktywizują coraz bardziej obojętnych facebookowiczów.

Podczas ubiegłorocznych zeznań przed Kongresem Zuckerberg zapewniał, że firma automatycznie usuwa 94 proc. przypadków mowy nienawiści, zanim jeszcze zostaną zgłoszone przez użytkowników. W rzeczywistości badacze Facebooka szacowali, że usuwanych jest poniżej 5 proc. nienawistnych wpisów.

Jak przyciągnąć dzieci

„To skoordynowana próba wykorzystania wybiórczo udostępnianych dokumentów w celu stworzenia fałszywego obrazu naszej firmy” – miał przekonywać podczas spotkania z inwestorami Zuckerberg, zarzucając mediom, że zbyt lekko podchodzą do równowagi, jaką serwis musi zachowywać, chroniąc użytkowników przed szkodliwymi postami i jednocześnie dbając o wolność słowa. „Stwierdzenie, że nie rozwiązaliśmy tego niemożliwego do rozwiązania dylematu, bo jesteśmy skupieni na zarabianiu pieniędzy, brzmi doskonale w mediach. Wielokrotnie wzywałem do regulacji, które zapewniłyby jasność, ponieważ nie sądzę, że firmy same powinny podejmować tak wiele podobnych decyzji” – argumentował. Nie wiadomo, jak dokładnie tłumaczył inwestorom rozdźwięk między tym, co im deklarował wcześniej, a tym, co wynika z ujawnionych dokumentów. Na pewno atmosfery nie poprawił spadek kursu akcji firmy o ponad 11 proc. od początku października. Zwłaszcza że możliwości rozwoju wcale nie są świetlane.

Z dokumentów ujawnionych przez Haugen wynika, że gwałtownie ubywa użytkowników najcenniejszych dla reklamodawców. Badacze firmy szacują, że liczba korzystających z Facebooka nastolatków w USA w ciągu najbliższych lat spadnie nawet o 45 proc. Część przesiądzie się zapewne na należącego do koncernu Zuckerberga Instagrama, ale ta aplikacja nie jest nawet w przybliżeniu takim monopolistą jak Facebook, a jej pozycja jest zagrożona przez agresywnych konkurentów – Snapchata i TikToka. Do tego firma tak naprawdę nie wie, ilu ma realnych użytkowników. Okazuje się, że 56 proc. nowych kont na Facebooku zakładają osoby, które już miały inne konta. Populacja amerykańskich 20-latków na Facebooku przekracza dziś faktyczną liczbę 20-latków w USA. Jeśli wierzyć danym, konta na Instagramie ma 108 proc. amerykańskich i 132 proc. brytyjskich nastolatków.

Szukając nowych pól do rozwoju, pracownicy firmy w wewnętrznych notatkach rozważali nawet, jak przyciągnąć do portalu dzieci w wieku 10-12 lat. W ujawnionej przez „The Wall Street Journal” notatce takich użytkowników nazwano „cenną, ale niewykorzystaną publicznością”. Inna notatka sugeruje wykorzystanie playdates, czyli umówionych spotkań dzieci w celu wspólnej zabawy, jako sposobu napędzania wzrostu Facebooka.

Równie poważne konsekwencje co utrata użytkowników może mieć fakt, że marka Facebook staje się toksyczna wśród potencjalnych pracowników. Kiedyś imperium Zuckerberga było jednym z najbardziej pożądanych pracodawców w Dolinie Krzemowej. Jeszcze w 2018 r. firma mogła zatrudnić niemal każdego, kogo chciała. Według danych CNBC odsetek absolwentów najlepszych uczelni, którzy przyjmowali złożone im przez Face­booka oferty pracy, wynosił 85 proc. Teraz to zaledwie 35 proc., a Francis Haugen twierdzi, że firma realnie odczuwa brak rąk do pracy, który przekłada się na coraz mniejszą innowacyjność i na braki w obsadzie kluczowych zespołów. Takich jak te odpowiedzialne za walkę z fake newsami czy przestępczością.

Co z tym przełomem

Z opublikowanych właśnie najnowszych danych finansowych wynika, że Facebook w trzecim kwartale 2021 r. zarobił ponad 29 mld dolarów – o 35 proc. więcej niż w tym samym okresie ubiegłego roku. Przytłaczająca większość dochodów pochodziła z reklam docierających do 1,9 mld użytkowników, którzy korzystają z serwisu codziennie, i do 2,9 mld zaglądających tam co najmniej raz w miesiącu. Dla porównania, wszystkie wspólnoty chrześcijańskie świata liczą łącznie około 2,5 mld wiernych.

Nie ma podobnych zbiorczych danych o tym, ilu ludzi ucierpiało wskutek działania algorytmów napędzających wzrost firmy. Dzięki wewnętrznym dokumentom i pracy organizacji pozarządowych wiadomo, że Mark Zuckerberg osobiście podjął decyzję o tym, że portal ugnie się pod naciskiem Komunistycznej Partii Wietnamu i będzie cenzurować posty opozycjonistów. Ta decyzja była warta miliard dolarów wpływów z tamtejszego rynku.

Mechanizmy Facebooka wykorzystywała także birmańska junta do napędzania przemocy wobec demokratycznych demonstrantów, a wcześniej do szerzenia nienawiści prowadzącej do ludobójstwa na Rohingach. Komisja ONZ zarzuciła Facebookowi współodpowiedzialność za śmierć co najmniej 25 tys. ludzi. Z ujawnionych właśnie dokumentów wynika, że plotki i fabrykacje nakręciły także spiralę przemocy w Etiopii, co przyczyniło się do wybuchu wojny domowej. W Indiach posty posłużyły podżeganiu do anty­muzułmańskich pogromów.

Portal stał się globalną siłą mającą realny wpływ na życie i śmierć ludzi na całym świecie, ale jego działania nie świadczą o tym, by poczuwał się do odpowiedzialności. Według wewnętrznych dokumentów firmy, aż 85 proc. wszystkich środków na moderację i eliminowanie szkodliwych treści kierowanych jest na walkę z mową nienawiści na rynku amerykańskim. Reszta świata musi radzić sobie sama, a z tej językowo-kulturowej luki chętnie korzystają – co także wynika z wewnętrznych badań – przestępcy, dyktatorzy i terroryści.

Po tym, jak zaczęły wyciekać „Facebook Files”, z nową siłą wróciła debata o tym, czy da się rozwiązać problemy, które generują giganci mediów społecznościowych. Tylko – jak to uczynić? Podzielić te firmy? A jaka by była wówczas pewność, że pięć mniejszych i zaciekle rywalizujących ze sobą serwisów nie wyrządzi jeszcze większych szkód? Więc może oddać je pod kontrolę państwa? Którego? Wietnamu czy Stanów Zjednoczonych Donalda Trumpa? I co wówczas z prawem własności? Nie ulega przecież wątpliwości, że media społecznościowe powstały dzięki pomysłom i ciężkiej pracy ich twórców.

A zatem może nałożyć zdecydowanie silniejsze regulacje prawne? Możliwe, że Amerykanie zdecydują się na zmianę obowiązującego jeszcze od prezydentury Billa Clintona Communications Decency Act, które zwalnia strony internetowe od odpowiedzialności za treści umieszczane przez użytkowników. Innym proponowanym podejściem jest zmuszenie gigantów technologicznych do ujawnienia algorytmów, które sterują ich działaniem, by niezależni badacze mogli potwierdzić, że nikomu one nie szkodzą. Jest też zamysł, by giganci musieli się dzielić zebranymi danymi.

Decyzje w dużej mierze zależą od użytkowników-obywateli: od tego, jak oni sami zareagują na ujawnione im właśnie wiadomości. I czy wiedząc o szkodliwości cyfrowego nałogu, nadal będą się mu oddawać.

Natomiast konkretne rozstrzygnięcia są w rękach polityków. A oni też są użytkownikami.©



ZYSK Z DEMOKRACJI

AGATA KAŹMIERSKA I WOJCIECH BRZEZIŃSKI: Czy „Facebook Files” cokolwiek zmienią? O szkodliwych efektach mediów społecznościowych mówi się od lat.

VINCENT F. HENDRICKS: Dotąd mówili o nich ludzie z zewnątrz. Francis Haugen zabiera głos jako ktoś ze środka. Pokazuje, że firma doskonale zdaje sobie sprawę ze szkód, że wprawdzie tworzyła inicjatywy, które miały zapobiegać negatywnym skutkom, ale kasowała je, bo szkodziły jej interesom. Teraz mamy na to dokumenty.

Co to zmienia?

Tego samego dnia, w którym Haugen miała zeznawać przed Kongresem, Instagram, Facebook i WhatsApp padły na sześć godzin. Ludzie nagle zdali sobie sprawę, że to bardzo delikatny system, który jednocześnie stanowi krytyczną infrastrukturę społeczną. I wymaga większej kontroli. Po raz pierwszy od lat Republikanie i Demokraci zgadzają się w czymkolwiek.

A mają pomysły, jak to uregulować?

Część Kongresu chce zmian w obowiązującym od lat 90. prawie, które zwalnia strony internetowe od odpowiedzialności za treści umieszczane przez użytkowników. Unia Europejska wprowadziła RODO, dzięki któremu mamy jakiś rodzaj przejrzystości. Zapewne będziemy obserwowali mieszankę kilku podejść, obejmujących działania antymonopolowe i kwestie odpowiedzialności za treści, albo przynajmniej odpowiedzialności za algorytmy, które dobierają informacje pokazywane użytkownikom.

Pojawiły się głosy, że te algorytmy powinny być ujawnione.

To trochę tak, jakby kazać Coca-Coli opublikować swoje receptury. Tyle że taka informacja niewiele powie użytkownikom. Problem jest większy, bo tak naprawdę cała infrastruktura, na której opiera się nasza przestrzeń publiczna, jest dziś w prywatnych rękach. A to tam żyje demokracja. Nikt nie powinien jej monetyzować ani mieć w niej przywilejów, których nie mają inni obywatele.

Rozbicie Facebooka jest dobrym wyjściem?

Nie sądzę, żeby doszło do podziału na zasadzie „tu jest Instagram, tu jest Facebook, tu jest WhatsApp, to teraz osobne firmy”. Wymaga to innego podejścia. Można wydzielić Facebook News, firmę obsługującą mobilne płatności oraz firmę, która zajmuje się komunikacją między ludźmi. Dobry podział to podział według modeli biznesowych. ©AK&WB

PROF. VINCENT F. HENDRICKS zajmuje się m.in. badaniami wpływu mediów społecznościowych na ludzi. Duński logik i filozof, założyciel Centrum Badań nad Bańkami Informacyjnymi Uniwersytetu Kopenhaskiego.



KALENDARZ PRZEPROSIN

Stałym elementem 17-letniej historii Facebooka są regularne, publiczne przeprosiny prezesa firmy za kolejne skandale i awantury wybuchające wokół koncernu.

2003

Gdy wyszło na jaw, że pierwszy serwis Marka Zuckerberga, Facemash, wyciągał z wewnętrznej sieci Uniwersytetu Harvarda zdjęcia kobiet i pozwalał użytkownikom bez ich wiedzy porównywać ich atrakcyjność, nieznany jeszcze szerzej 19-latek pisał: „Nie chciałem, żeby tak wyszło i przepraszam za szkody wynikające z moich zaniedbań”.

2006

Po stworzeniu News Feedu, który gromadził posty wszystkich znajomych, wybuchła pierwsza afera o naruszanie prywatności użytkowników. Zuckerberg: „Naprawdę ­spapraliśmy sprawę, źle wytłumaczyliśmy nowe funkcje, a jeszcze ­gorzej poszło nam ­dawanie wam nad nimi ­kontroli”.

2007

Po stworzeniu ­pierwszego systemu ­targetowanej reklamy Beacon prezes ­Facebooka ­napisał: „Źle się ­spisaliśmy i chcę za to przeprosić. ­Ludzie powinni być w stanie wybierać to, czym się dzielą”.

2010

Po ujawnieniu luki umożliwiającej reklamodawcom pobieranie danych użytkowników: „Czasami działamy za szybko. Dodamy o wiele prostsze sposoby na kontrolowanie prywatności”.

2011

Po ugodzie z Federalną Komisją Handlu w sprawie naruszania prywatności użytkowników: „Pierwszy przyznam, że popełniliśmy mnóstwo błędów”.

2016

Gdy ruszyła fala krytyki w związku z rozpowszechnianiem politycznych fake newsów: „Uważam Facebooka za firmę technologiczną, ale rozumiem, że ponosimy odpowiedzialność nie tylko za tworzenie technologii”.

2017

Po oskarżeniach o to, że Rosja wykorzystała Facebooka do ingerencji w amerykańskie wybory: „Głęboko troszczę się o proces demokratyczny i jego integralność (...) Jesteśmy zdeterminowani sprostać wyzwaniu”.

2017

Gdy mimo powyższej deklaracji krytyka w związku z rosyjskimi działaniami na FB nie ucichła: „Proszę o wybaczenie. Będę pracował nad tym, by być lepszym”.

2018

Po ujawnieniu skandalu Cambridge Analytica: „Jesteśmy odpowiedzialni za ochronę waszych danych i jeśli nie potrafimy tego robić, to nie zasługujemy na to, by wam służyć”.

2021

Po awarii, wskutek której przez sześć godzin Facebook, Messenger, Instagram i Whats­App zniknęły z sieci: „Przepraszamy za dzisiejsze przerwy. Wiemy, w jakim stopniu polegacie na naszych usługach, by pozostać w kontakcie z ludźmi, na których wam zależy”.

2021

Za zawartość ujawnionych w tym samym czasie przez Frances Haugen dokumentów Zuckerberg nie przeprosił. © AK&WB

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp kwartalny

Kwartalny dostęp do TygodnikPowszechny.pl
  • Natychmiastowy dostęp
  • 92 dni dostępu = aż 13 numerów Tygodnika
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
89,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]
Dziennikarka specjalizująca się w tematyce międzynarodowej, ekologicznej oraz społecznego wpływu nowych technologii. Współautorka (z Wojciechem Brzezińskim) książki „Strefy cyberwojny”. Była korespondentką m.in. w Afganistanie, Pakistanie, Iraku,… więcej
Dziennikarz naukowy, reporter telewizyjny, twórca programu popularnonaukowego „Horyzont zdarzeń”. Współautor (z Agatą Kaźmierską) książki „Strefy cyberwojny”. Stypendysta Fundacji Knighta na MIT, laureat Prix CIRCOM i Halabardy rektora AON. Zdobywca… więcej

Artykuł pochodzi z numeru Nr 45/2021