Imperium kontratakuje

Gdyby Facebook był państwem, bylibyśmy w nim półobywatelami uzależnionymi od niekontrolowalnych i abstrakcyjnych sił. W takich warunkach moglibyśmy się upominać co najwyżej o „oświecony despotyzm”, a nie o żadną demokrację.

19.03.2017

Czyta się kilka minut

Mark Zuckerberg podczas Mobile World Congress w Barcelonie. Goście obserwują go przez wirtualne okulary, 22 lutego 2016 r. / Fot. Mark Zuckerberg / facebook.com
Mark Zuckerberg podczas Mobile World Congress w Barcelonie. Goście obserwują go przez wirtualne okulary, 22 lutego 2016 r. / Fot. Mark Zuckerberg / facebook.com

W 2013 r. Dave Eggers, aktywista i pisarz, opublikował powieść „Krąg” o totalitarnych ambicjach monopoli internetowych.

Pomysły godne najgorszych reżimów przeszłości mogą one sprzedać publiczności i decydentom jako innowacje, technologiczne przełomy czy wręcz filantropię. Wymyślony przez pisarza Krąg jest czymś w rodzaju połączenia Facebooka, Google’a i Apple’a w jedno: dostawcą technologii i siecią społecznościową, ośrodkiem naukowym, utopijnym kampusem korporacyjnym i wielkim przemysłowym molochem, który twardo lobbuje za swoim interesem. Eggers zachęca, byśmy spojrzeli za fasadę „innowacyjnych” projektów i zastanowili się, czym są naprawdę ambicje współcześnie istniejących wielkich korporacji technologicznych.

Powieściowy Krąg dopisuje do repertuaru swoich zadań „prodemokratyczny” projekt – twórcy sieci chcą, aby każdy, kto ma konto w Kręgu (czyli każdy obywatel i każda obywatelka USA), został automatycznie zarejestrowany do wyborów, które staną się obowiązkowe pod karą „zamrożenia” profilu. Szefowie firmy dążą do tego, aby w końcu „domknął się krąg”.

Wtedy wszystkie nasze osobiste, zawodowe i polityczne wybory będą zapośredniczone przez media społecznościowe. Czyli przez jedno wszechmedium, ich monopolistyczną korporację. Na podstawie ujawnionych własnie planów Facebooka można by z łatwością napisać podobne science fiction. I to dziejące się we wcale nieodległej przyszłości.

Zarządzanie prawdą

Niedawno Mark Zuckerberg, szef Facebooka i fundacji własnego imienia, podzielił się ze światem wielkim planem-manifestem – „Building Global Community”. Dokument jest pomieszaniem patetycznego projektu politycznego z autoreklamą korporacji internetowej, w którym język wielkich światowych wyzwań, żywcem wyjęty z posiedzenia Organizacji Narodów Zjednoczonych, miesza się z serwowaną bez zażenowania nowomową z Doliny Krzemowej. Data publikacji tekstu nie była przypadkowa. W powszechnej opinii to właśnie media społecznościowe, w tym Facebook, rozpowszechniały tak zwane „fake newsy” (fałszywe wiadomości), które przyczyniły się do sukcesu Donalda Trumpa. I to one zostały obwinione o wszelkie patologie debaty publicznej.

Co na tę krytykę odpowiada sam Zuckerberg? Odpowiada bardzo prosto: „Będzie lepiej”. Albo przynajmniej: „Może być lepiej”. Tekst-manifest nie tylko definiuje ambitny cel – „budowę globalnej społeczności” – ale też określa parametry tego zadania niczym dobry korporacyjny biznesplan. „Facebook może dołożyć swoją cegiełkę, odpowiadając na pięć ważnych pytań”.

Pytania te dotyczą jednocześnie konkretnych, zdefiniowanych problemów, i zarazem nieokreślonych ideałów – „społeczności wspierających”, „społeczności bezpiecznych”, „społeczności poinformowanych”, „społeczności obywatelsko zaangażowanych” i „społeczności inkluzywnych”. Jak je budować i jak stworzyć im najlepsze warunki do działania? – pyta Zuckerberg. Warto się przede wszystkim przyjrzeć kwestii informacji i komunikacji – to one są przecież podstawową „walutą” Facebooka. I one dziś grają niesłychanie ważną rolę w projektowaniu wizji ustroju przyszłości – w dyskusjach, czy czeka nas dobrowolna i racjonalna republikańska wspólnota, czy nowy feudalizm oddzielnych domen zarządzanych przez absolutnych władców?

Facebook już na początku marca wprowadził nową funkcję – oznaczenie „fałszywych wiadomości”. Jak przystało na sieć społecznościową, narzędzie to oddano w ręce samych użytkowniczek i użytkowników, którzy swoimi opiniami i reakcjami mają wspierać działanie algorytmów filtrujących, które z kolei mają dzięki temu lepiej zarządzać tym, co jest widoczne dla innych.

Jeśli to brzmi zawile, można wytłumaczyć tę mechanikę w prostszy sposób: ktoś widzi budzący wątpliwości nagłówek prasowy albo newsa, którego ktoś udostępnił na Facebooku, klika na przycisk zawiadamiający administrację „fejsa”, że coś jest nie tak, a im więcej zgłoszeń, tym większe prawdopodobieństwo, że ludzki (albo cyfrowy) czynnik zajmie się jego weryfikacją, ewentualnie wymierzając „karę” w postaci mniejszej widoczności albo zupełnego usunięcia z przestrzeni portalu. W teorii więc najbardziej skandalizujące czy mylące tytuły będą – dzięki reakcjom użytkowników – otrzymywały swego rodzaju karę czy podatek od wątpliwości (nie finansowy, rzecz jasna). Mniej kontrowersyjne media i kanały zyskają na tym wyrównaniu szans, bo je owa kara dotknie w nieprzewidywalnie mniejszym stopniu. W ten sposób naturalnie i w drodze konkurencji (ach, ta przemożna siła myślenia o wszystkim za pomocą metafory wolnego rynku) wyłonią się najbardziej i najmniej godni zaufania.

W machinie medialnej

I co tu może pójść nie tak? Wszystko! Nie ma bowiem jednej definicji „wiarygodności”. Reakcje grup czytelników i konsumentów mogą być zatem skrajnie różne i wcale nie tak łatwe do przewidzenia, jak chciałby tego Facebook.

W dodatku tak pomyślany pomysł na „społeczność lepiej poinformowaną” może wypalić w twarz na dziesięć różnych sposobów. Wyobraźmy sobie choć jeden scenariusz: niezależny tytuł informuje o nowo odkrytych działaniach „zielonych ludzików” we wschodniej Ukrainie albo kolejnych ustaleniach w sprawie katastrofy malezyjskiego samolotu. Na to natychmiast zdyscyplinowana armia opłacanych w tym celu trolli (albo nawet łatwiej: napisany w tym celu program zarządzający fałszywymi kontami w mediach społecznościowych, które tylko udają czytelników) natychmiast zaczyna zgłaszać, że to „fałszywa wiadomość”.

Algorytm albo administratorzy Facebooka sprawdzają wiarygodność medium – ale skoro jest to niezależny tytuł ukraiński, a nie wielka agencja prasowa czy „New York Times” – oceniają wiarygodność jako wątpliwą. Traktują ją jako „fake news”. Dopiero gdy wielkie tytuły podchwycą wiadomość, a ona sama zostanie potwierdzona w kolejnych źródłach, Facebook zaczyna traktować doniesienia jako wiarygodne. Czy wówczas oryginalne źródło zyska, czy straci? Dostanie premię czy karę? Kto o tym zdecyduje? I czym w ogóle różni się ta sytuacja od dotychczasowej – kiedy i tak te same wielkie tytuły i agencje prasowe były gwarantem wiarygodności, a mniejsze tytuły, niezależne media i wolni strzelcy byli co najwyżej trybikami w wielkiej machinie medialnej, która produkowała „prawdę”?

Jedno jest pewne: dzięki milionom (dziesiątkom, setkom milionów?) reakcji dziennie Facebook zbuduje gigantyczną machinę badającą interakcje ludzi z newsami. A zatem: analizując i prześwietlając tak gigantyczny korpus wiedzy, będzie można stwierdzić, jak stworzyć informacyjną brudną bombę – idealną fałszywą informację albo wzór na propagandę doskonałą. Aż trudno pomyśleć, że reżimy nie chciałyby posiąść tej wiedzy – jak tworzyć fałszywki i nie zostać wykrytym; jak wpuścić do obiegu oszczerstwa, aby podłapały je wielkie media; gdzie są ślepe plamki gigantów medialnych, jak oszukać „algorytm prawdy”? I jeszcze: czy tak skonstruowany system będzie łatwiejszy, czy trudniejszy do zhakowania?

Klikokracja

W trzecim sezonie kultowego serialu „Black Mirror” pojawia się arcyinteresujący wątek hakera-informacyjnego terrorysty, który wykorzystując przyzwyczajenia ludzi w mediach społecznościowych – a konkretnie fascynację oszczerstwami tabloidów, które generują kliknięcia – wywołuje ogólnonarodowy skandal i zmusza rząd do reakcji. To jednak okazuje się tylko wstępem do dużo poważniejszego zamachu. Gdy państwo próbuje manipulować siecią, otwiera drogę do katastrofy – myśląc, że walczy wyłącznie z trollami i hejtem, faktycznie odsłania swój słaby punkt i umożliwia bezprecedensowy atak na krytyczną infrastrukturę. W serialu tę intrygę wykorzystuje pojedynczy superzłoczyńca, w rzeczywistości jednak trudno wykluczyć, że po zasoby Facebooka zechce w przyszłości sięgnąć (po dobroci lub siłą) jakiś rząd albo partia. Tak wygląda przyszłość „klikokracji”.

Już dzisiaj grupy wspierające prezydenta Asada zwalczają w Syrii kampanie informacyjne opozycji w ten właśnie sposób: masowo skarżą się na nie Facebookowi, który w odpowiedzi część z nich usuwa. Rządy państw bliskowschodnich w trakcie Arabskiej Wiosny tworzyły fałszywych „opozycjonistów” w internecie, aby inwigilować prawdziwą opozycję.

Użytkownicy prowadzą w sieci swoje walki, rządy swoje, a sędzią pozostaje sieciowy gigant i to on kształtuje obraz sfery publicznej dla miliardów użytkowników. W podobnie arbitralny sposób Facebook najpierw usunął, a potem przeprosił i przywrócił w 2016 r. plakat reklamujący Marsz Niepodległości w Warszawie. Najpierw na podstawie zgłoszeń użytkowników i swoich własnych standardów Facebook zablokował możliwość promowania symbolu falangi – podkreślając jego związki z przed- wojennym skrajnym nacjonalizmem czy faszyzmem – by potem, na podstawie tych samych zgłoszeń i tych samych standardów, odwrócić swoją decyzję i, powołując się na wolność słowa i przekonań politycznych, falangę przywrócić. Nawet to, że regulamin usługi Facebook nazywa „standardami społeczności”, jest mylący – o warunkach debaty na Facebooku decyduje wiele różnych czynników (akcjonariusze firmy, algorytmy i filtry, ślepe szczęście, pracownicy i zarząd firmy, prawo lokalne i wyroki sądowe), ale akurat zdanie „społeczności” nie jest ani pierwszą, ani najważniejszą instancją.

Można naiwnie uznać te zjawiska (od Egiptu przez USA po Polskę) za „wypadki przy pracy”, ale fakt pozostaje faktem: bez odgórnej ingerencji Facebooka, a zatem nieustannej i uporczywej obserwacji wszystkiego, co publikujemy, nie da się ich uniknąć. Wbrew utopijnemu marzeniu Zuckerberga o „globalnej społeczności”, która sama pomoże się urządzić, faktem jest, że bez odgórnej i wielopoziomowej kontroli żadne zarządzanie Face- bookiem nie będzie w przyszłości możliwe.

Na dobre i na złe – na Facebooku zawsze to Facebook będzie wyrocznią. O ile nie wydarzy się rewolucyjna zmiana działania tego medium, nie może być inaczej. Zaś mityczna „społeczność” ma głos co najwyżej taki, jak obywatele w niewiążącym referendum doradczym – mogą się skrzyknąć i własnym wysiłkiem zakomunikować władzy, czego chcą. Władza może ich, ale nie musi, posłuchać. Kontrakt (bo to właściwsza nazwa niż „standardy społeczności”) wiąże bowiem przede wszystkim użytkowników, nie dając im zbyt wielu gwarancji czy praw. Mydleniem oczu jest więc w „Building Global Community” metaforyka demokratyczna – a więc i demokratyczny słownik, do którego odwołuje się Zuckerberg.

Gdyby Facebook naprawdę był państwem, bylibyśmy w nim co najwyżej półobywatelami – uzależnionymi od niekontrolowalnych i abstrakcyjnych sił. W takich warunkach można się upominać co najwyżej o „oświecony despotyzm”, a nie żadną demokrację.

Internet przeciw demokracji

Facebook może promować poglądy bardziej liberalne i prodemokratyczne – prawa człowieka, szacunek dla mniejszości, wolność wyznania, orientacji i poglądów – ale ich gwarancje zależą wyłącznie od jego dobrej woli. Facebook bynajmniej nie chce się „zdemokratyzować”, choć może, mniej lub bardziej udolnie, promować demokrację. Dzieje się tak jednak tylko dzięki zrządzeniu losu, który sprawił, że państwo Zuckerberg-Chan (czyli szef Facebooka z małżonką, z którą prowadzi również działalność filantropijną) cenią sobie liberalną demokrację i wolny rynek.

Jak dalece je cenią? Prasa spekulowała niedawno, że Facebook rozważa – w kontekście planowanej ekspansji – przyznanie chińskiemu rządowi prawa do cenzurowania czy wykluczania z debaty konkretnych treści. W zamian za to Chińczycy mieliby wreszcie otworzyć przed amerykańską korporacją swój rynek. Czyli: rząd będzie mówił, „jak jest”, a ekran zadba o to, by tylko tę wersję „jak jest” było na nim widać. Alternatywy będą niewidzialne. Powitajcie Ministerstwo Prawdy?

Właśnie historia podejścia korporacji do fałszywych wiadomości dobrze pokazuje brutalny rozdźwięk między językiem demokracji a tym, jak demokracja na sterydach z Doliny Krzemowej miałaby wyglądać: trochę technokracji, inwigilacji, wiedzy eksperckiej i dyskretnych manipulacji na poddanych. Może właśnie tak dla wielu ludzi wygląda dzisiejsza demokracja na Zachodzie – i właśnie dlatego uważają ją za zdegenerowaną i dążą do jej odrzucenia?

Nie można też zapomnieć, że choć Zu- ckerberg wyraża swoje niesłabnące przywiązanie do liberalnych ideałów, to wcale nie jest reprezentantem postawy powszechnej: w Dolinie Krzemowej karierę robią też idee „neoreakcji”, poglądu mówiącego, że w świecie internetu liberalna demokracja się nie sprawdza, a dużo lepsze wzory zarządzania społeczeństwem podpowiada konstrukcja internetowych platform, gdzie korporacyjni geniusze za pomocą sztywnych, zapisanych w kodzie reguł prowadzą rzesze użytkowników ku wymiernym rezultatom. Czytaj: cenom akcji i milionowym zyskom.

Zdaniem zwolenników „neoreakcji” internet ujawnia naturalne hierarchie, tworzy naturalne elity i produkuje naturalną harmonię – bez zbędnych ingerencji w postaci praw, demokratycznych bezpieczników czy wymuszonej „politycznej poprawności” debaty publicznej.

Metody takiego technokratycznego, rzekomo czysto „efektywnego” i apolitycznego zarządzania Facebook stosował już w przeszłości. Od 2008 r. zachęcał do głosowania w wyborach – umożliwiając natychmiastowe pochwalenie się tym faktem znajomym przy użyciu okolicznościowego przycisku i wiadomości. W 2010 r. Facebook wraz z badaczami społecznymi przeprowadził eksperyment, w którym „udział” wzięło 61 milionów użytkowników. Trafiły do nich wiadomości zachęcające do głosowania i wykorzystujące domniemaną moc „bliskich interakcji”, to znaczy fakt, że jesteśmy bardziej skłonni podjąć jakąś decyzję, gdy podobnie postępuje nasze środowisko społeczne. Facebook zadziałał wtedy jako narzędzie dostarczające informacji o tym, że nasi bliscy i znajomi głosowali. Bo miał ich zdjęcia, informacje o znajomości i wiedzę o tym, że poszli na wybory. I z niej skorzystał, choć nikt go o to nie prosił.

Wedle ustaleń badaczy – opublikowanych w 2012 r. w magazynie „Nature” – rezultaty były wymierne: udało się przekonać około 400 tys. osób. „Wiadomości nie tylko wpłynęły na użytkowników, którzy je otrzymali, ale również na ich przyjaciół oraz przyjaciół przyjaciół. Efekt »społecznego przekazywania« był nawet większy niż efekt samych wiadomości, a niemalże wszystkie »przekazy« [zachęty do głosowania] miały miejsce między bliskimi przyjaciółmi”.

W ten sposób – nie pierwszy i nie ostatni raz – Facebook znalazł sposób na „zakodowanie” mechanizmów oczywistych w świecie offline i wprowadzenie ich na poziom online. Tu pojawiają się jednak pytania: choć Facebook niesłychanie skutecznie robił to w przeszłości, to czy zawsze będzie zdolny do skutecznego „kodowania” zachowań i czy nie ujawnią się efekty uboczne? Oraz czy w ogóle możemy zakładać, że owych efektów ubocznych nie ma lub da się nimi sterować?

Z równą łatwością – o czym doskonale wiemy – zaszczepiają się w sieci nawyki szkodliwe, a im większy stopień skomplikowania sieci, tym więcej inwazyjnych działań trzeba wykonywać, aby zachować nad nią kontrolę.

Co zrobić?

Wiadomo aż za dobrze, że kampanie negatywne są częścią repertuaru współczesnej polityki. Wiele badań potwierdza następującą intuicję: Donald Trump mógł wygrać, bo wyborcy Demokratów byli zdemobilizowani i „nie dostarczyli” kluczowych głosów w decydujących dla rozgrywki stanach. Sztabowi Trumpa zależało na osłabieniu morale poszczególnych grup – a w ich zidentyfikowaniu pomogła mu analiza... ich profili na Facebooku.

Czy wiedząc to, należy utrzymywać, że facebookowa kampania na rzecz frekwencji była neutralna? W ujawnionej przez media w 2016 r. wewnętrznej ankiecie firmy pracownicy pytali Zuckerberga, „co Facebook może zrobić, aby zapobiec wyborowi Trumpa?”. Firma zaprzecza, jakoby wpływała na decyzje swoich użytkowników – i choć prawdopodobnie nie robi tego w żaden skoordynowany sposób, nie da się ukryć, że nawet niebezpośrednio już ma wpływ na decyzje polityczne. A Trump przecież wystartuje w wyścigu o kolejną kadencję i pytanie „co zrobić?” powróci.

Możliwe, że Zuckerberg już wie, co zrobić. W swoim manifeście wspomina, że sieć być może będzie analizować „niebezpieczne” zachowania, zanim do nich dojdzie. To też nienowy pomysł, pisał o tym Philip K. Dick w „Raporcie mniejszości”.

Globalna sieć, która wpływa na decyzje ludzi, jest arbitrem debaty publicznej, zarządcą tożsamości obywateli, ich pośrednikiem w politycznych wyborach i przewodnikiem po tym, co prawdziwe i nie – literatura dystopijna starzeje się dziś szybciej niż kiedykolwiek. ©

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp kwartalny

Kwartalny dostęp do TygodnikPowszechny.pl
  • Natychmiastowy dostęp
  • 92 dni dostępu = aż 13 numerów Tygodnika
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
89,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]

Artykuł pochodzi z numeru TP 13/2017