Tę wojnę już przegraliśmy

Michał Kosiński, psycholog: Wykorzystanie informacji o ludziach, utrata prywatności, manipulowanie zachowaniami – to wszystko było z nami przed Facebookiem. Zagrożenia ze strony nowych technologii nie powinny nam przysłaniać ich zalet.

27.01.2020

Czyta się kilka minut

 / GORM K. GAARE
/ GORM K. GAARE

DARIUSZ ROSIAK: Nie jestem na ­­Facebooku ani Twitterze, zamykam automatycznie każdą reklamę, która do mnie trafia. Nadawałbym się na uczestnika Pańskich badań?

MICHAŁ KOSIŃSKI: Korzysta pan z komórki? Używa pan karty płatniczej? Ma pan samochód? W nim jest zapewne komputer, który rejestruje zachowanie kierowcy. Ma pan nowoczesny telewizor? On rejestruje i zachowuje wszystkie pana wybory. Ma pan domofon? Zapewne operuje pan kartą elektroniczną, żeby otworzyć bramę domu czy parkingu. Nie da się uniknąć zostawienia po sobie śladów w świecie cyfrowym.

Kilka lat temu pytano mnie bez przerwy, ile lajków wystarczy, by określić osobowość człowieka. I bardzo się ekscytowaliśmy, bo nasze badania wskazywały, że wystarczy kilkanaście. 100-150 lajków wystarczy, żeby poznać pana tak jak rodzina i najbliżsi przyjaciele. Ale lajki nie są jedynymi ani najlepszymi śladami do badań. Historia stron, które pan odwiedza w sieci, pańskich połączeń w telefonie komórkowym, transakcji dokonanych kartą, książka adresów mailowych i treść maili pisanych przez pana – to jest znacznie bardziej precyzyjna dokumentacja pańskiej osobowości niż lajki. Chyba że jest pan milionerem i ma pan asystenta, który wszystko robi za pana...

Wtedy wie Pan wszystko o moim asystencie...

Dokładnie. Ale większość zapracowanych, zabieganych ludzi musi korzystać z technologii ułatwiających życie. Bo są one dla nas pożyteczne. Dzięki nim możemy połączyć się z ludźmi na całym świecie, korzystać z wiedzy czy rozrywki w stopniu wcześniej nieosiągalnym, bo nie stać nas było na codzienny telefon do rodziny w Australii czy obejrzenie koncertu ulubionego zespołu, którego wcześniej telewizja i radio nie transmitowały. I to wszystko mamy praktycznie za darmo. Dlaczego nie mielibyśmy z tej skarbnicy wiedzy i rozrywki korzystać?

Czuje się Pan winny?

Muszę sprecyzować, że nie jestem autorem żadnego algorytmu. Jestem psychologiem i zajmuję się wykorzystaniem istniejących algorytmów w celu poprawy jakości naszego życia. Badam również sposoby, w jakie owe algorytmy mogą być wykorzystane przeciwko nam. Tak, czuję się odpowiedzialny, ale nie za to, jak wykorzystano moje badania, lecz za to, że ostrzegałem świat przed potencjalnym ryzykiem na wiele lat przed pojawieniem się firmy Cambridge Analytica. Niestety nikt mnie nie słuchał.

Niech Pan przypomni, jak nas ostrzegał.

W 2012 r. Facebook opatentował technologię zbierania danych, którą kilka lat później wykorzystała Cambridge Analytica. Kilka miesięcy po uzyskaniu przez Facebooka patentu opublikowałem artykuł naukowy w znanym międzynarodowym czasopiśmie [„Proceedings of the National Academy of Sciences” – red.], w którym ostrzegałem, że lajki notowane na Facebooku mogą być wykorzystywane do tego, by określić z wielką dokładnością poglądy polityczne ludzi, ich osobowość, inteligencję, orientację seksualną, wyznanie religijne i wiele innych intymnych cech. To z kolei może być podstawą różnych nadużyć stosowanych przez polityków czy firmy. Proszę pamiętać, że w tamtym okresie dostępność lajków była niczym nieograniczona, każdy mógł zobaczyć, co lajkuje każdy inny użytkownik Facebooka. Nasze badania okazały się bardzo popularne, media je rozpowszechniały, ale zwykle w tonie rozrywkowym. Nikt poważnie nie traktował zagrożenia płynącego z ewentualnego wykorzystania tych wyników.

Jak precyzyjne są Pańskie badania? Po ilu konkretnych czyichś zachowaniach w sieci jest Pan w stanie określić jego cechy osobowości, takie jak preferencje seksualne, albo stwierdzić, czy badana osoba ma rozwiedzionych rodziców?

Okazuje się, że wystarczy kilka śladów cyfrowych, a trzeba pamiętać, że zostawiamy tysiące, jeśli nie dziesiątki tysięcy śladów każdego dnia.

Na czym polegało nowatorstwo Pańskich badań? Co było w nich nowego, lepszego od tych wcześniejszych?

Nie wiem, czy moje badania były lepsze, były na pewno inne. Po pierwsze, były przeprowadzone na dużo większej próbie badawczej niż badania tradycyjne, ankietowe. Po drugie, skupiałem się na cechach psychologicznych badanych. Większość poprzednich badań skupiała się na określeniu płci albo wieku danej osoby, w moich badaniach pokazałem, że możliwe jest wykorzystanie algorytmów do określania bardzo intymnych, indywidualnych cech charakterystycznych dla konkretnego użytkownika sieci. Po trzecie, badałem realne zachowania, a nie deklaracje ludzi.

To powiedziawszy, myślę, że nie należy przesadzać. Ludzie przypisują mi czasem cechy niemalże demiurga, a ja po prostu przyjrzałem się temu, co robią w sieci, a potem to opisałem.

Niech Pan nie umniejsza swoich zasług. Wcześniej badania były jednak oparte na deklaracjach. Ludzie mogli kłamać, opowiadać, co chcieli... Jakie zadanie postawił Pan sobie na początku?

Jestem klasycznie wykształconym psychologiem i przez wiele lat prowadziłem badania przy użyciu kwestionariuszy. Na przykład pytałem ludzi, czy lubią poezję albo przebywanie w towarzystwie innych.

Na co wszyscy odpowiadali, że lubią poezję, uwielbiają innych ludzi, ich ulubionym programem jest „Pegaz” i bardzo chcieliby więcej kultury w telewizji...

Skąd pan wiedział? Co więcej, takie dane zbiera się trudno, bo ludzie nie lubią, jak im się zawraca głowę, nie mają czasu, mówią coś na odczepnego. Takie badania są też drogie. I po wielu miesiącach pracy mamy dane od stu czy dwustu osób. Pomyślałem więc: poproszę ludzi, by podzielili się ze mną danymi ze swojego konta facebookowego. Zamiast pytać kogoś, czy lubi poezję i muzykę, zobaczę, co czyta i czego słucha. Zamiast pytać, jaki sport lubi, mogę znaleźć informacje, które dokładnie mi to powiedzą. Okazało się, że ludzie są bardzo chętni, by dzielić się takimi danymi z naukowcem. Udało nam się zebrać dane od ponad 6 milionów ludzi.

To był 2013 rok. Pojawiło się duże zainteresowanie Pana pracą. Kilka lat później usłyszeliśmy, że Cambridge Analytica wykorzystuje dane użytkowników Facebooka do manipulowania ludźmi głosującymi w wyborach amerykańskich i referendum brexitowym. I Pańskie badania łączono z działaniem firmy CA.

Jedna ważna rzecz. Cambridge Analytica nigdy nie wykorzystywała naszych danych, a ja nie mam nic wspólnego z tą firmą. My je zbieraliśmy od naszych woluntariuszy na cele naukowe. One były bezpieczne w naszej bazie i do dziś nikt niepowołany nie ma do nich dostępu.

To skąd CA i inne tego typu firmy wzięły dane?

Bezpośrednio od użytkowników, którym zapłacili. Nieetyczne w tej transakcji było moim zdaniem to, że CA wzięła nie tylko dane ludzi, którym zapłacili i którzy się na to godzili, ale także dane ich znajomych. Być może i pan, i ja jesteśmy w bazie danych CA, nawet jeśli nigdy z tą firmą nie mieliśmy nic do czynienia. Wystarczy, że któryś z naszych facebookowych znajomych pobrał od nich dolara czy dwa, czyli tyle, ile płacili za dostęp do danych – i wszystkie dane trafiły do bazy CA. Oczywiście było to zrobione za zgodą Facebooka. Od tego czasu Facebook zmienił zasady i to także dzięki naszym badaniom. To się stało zaledwie dwa tygodnie po publikacji naszego artykułu w 2013 r. – od tego czasu lajki przestały być dostępne dla każdego użytkownika, bo Facebook zmienił ustawienia prywatności. To dowodzi dwóch rzeczy: po pierwsze, jak ważne są badania nad prywatnością. Po drugie, że Facebookowi wcale nie zależy na sprzedaży danych swoich klientów innym firmom.

Nie wierzę własnym uszom. Facebook żyje ze sprzedawania naszych danych! Ta firma po to istnieje. Przecież nie po to, byśmy wymieniali się opiniami na temat obejrzanych filmów i zdjęciami z wakacji.

Facebook istnieje po to, żeby zarobić jak najwięcej pieniędzy na danych, które użytkownicy zostawiają w serwisie. Ale niekoniecznie na sprzedaży tych danych. Proszę zauważyć: wartość danych dramatycznie spada w momencie sprzedaży, bo Facebook przestaje być ich jedynym właścicielem. A zatem z punktu widzenia Facebooka, Google’a czy LinkedIn lepiej jest trzymać dane użytkowników na wyłączność, bo to daje im wielką przewagę i buduje pozycję na rynku.

Ale zarabiają tylko wtedy, kiedy monetyzują te dane.

Mogą monetyzować sami. Na przykład: jeśli jest pan reklamodawcą, może pan uzyskać dane bezpośrednio od użytkowników albo zapłacić Facebookowi, żeby zrobił tę robotę za pana. Oczywiście Facebook woli to drugie rozwiązanie, bo ma pieniądze i nie musi dzielić się danymi. I wiele firm na to się godzi, co nie jest złym rozwiązaniem, bo dane nie są rozprzestrzeniane.

Broni Pan Facebooka – firmę uznawaną za samo zło, lewiatana współczesności. Rzadko kto go dziś broni. Wciąż widzi Pan w mediach społecznościowych więcej dobrego niż złego?

Bez wątpienia. Oczywiście najłatwiej zdobyć popularność, strasząc sztuczną inteligencją i sprzedając historie o niechybnym końcu świata. Facebook ma być tym wrzodem, który nam zepsuł demokrację i społeczeństwo. Prawda jest dużo bardziej skomplikowana. Proszę pamiętać, że wykorzystanie informacji o ludziach, utrata prywatności, manipulowanie ludźmi – to rzeczywistość, która była z nami przed CA i będzie z nami bardzo długo.


Czytaj także: Michał Kuźmiński: To nie Facebook, to my


Musimy się nauczyć w niej żyć – nie mówię tego z satysfakcją, większość czasu spędzam badając zagadnienia prywatności właśnie dlatego, że prywatność tracimy i będzie jej coraz mniej. Zostawiamy w świecie cyfrowym coraz więcej śladów, a algorytmy, które je wykorzystują, stają się coraz lepsze i potrafią przekształcić nasze ślady cyfrowe w bardzo dokładne profile psychologiczne człowieka. Zamiast starać się wygrać wojnę o prywatność – wojnę, którą niestety już przegraliśmy – powinniśmy zastanowić się, jak wykorzystać przemiany, w których uczestniczymy, dla naszej korzyści i minimalizować ryzyko, jakim jest manipulacja polityczna czy zbyt inwazyjny marketing.

No dobrze, ale co ma zrobić zwykły człowiek, który zewsząd słyszy, że wolna wola jest złudzeniem? Że wszyscy jesteśmy manipulowani? Ingerencje technologiczne w wybory 2016 r. w USA, wcześniej w referendum brexitowe, farmy trolli działające na zlecenie Rosjan czy Chińczyków – to są najbardziej nośne i spektakularne przejawy tego, że kruszeje nam demokracja. Do tego dodajmy niezwykle agresywne działania firm i korporacji, profilowanie przekazu, tak byśmy posłusznie wykonywali działania zgodne z interesem jakichś znanych albo nieznanych sił. Nawet jeżeli czujemy się wolni, to nasza wolność będzie wykorzystana albo przez polityków, albo przez biznes. Myśli Pan, że to przesada?

Nie tylko jest to przesada, ale nie ma na to żadnego dowodu. Przede wszystkim pamiętajmy, że ludzie poddają się manipulacji nie od dzisiaj i nie od czasów Facebooka. Byliśmy manipulowani i urabiani propagandowo od początku polityki i życia społecznego. Hitler i Stalin nie potrzebowali Facebooka, żeby wysłać miliony ludzi na śmierć.

Oczywiście nowe media to są nowe miejsca, gdzie gromadzą się ludzie. Za nimi idą firmy sprzedające produkty i usługi oraz politycy szukający poparcia, bo ono daje im władzę. To są znane wcześniej zagrożenia, które w nowym środowisku nabierają innej, czasem bardzo agresywnej formy. Jednak jeśli spojrzymy na współczesność, widzimy najlepiej poinformowane, najbardziej progresywne społeczeństwo od początku rodzaju ludzkiego. Wiem, że trudno w to uwierzyć, ale okazuje się także, że jesteśmy społeczeństwami najmniej spolaryzowanymi w historii. Nigdy wcześniej ludzie nie nienawidzili się mniej niż dzisiaj. Co więcej, te wszystkie pozytywne procesy najlepiej zachodzą w przedziale wiekowym osób, które mają największy dostęp do nowoczesnych technologii internetowych.

Przemawia przez Pana Steven Pinker. Żyjemy na najlepszym ze światów. Ale zna Pan na pewno angielskie powiedzenie: są kłamstwa, cholerne kłamstwa i statystyki.

Pinker pokazuje zniuansowany obraz rzeczywistości, w którym nie wszystko jest złe, a w istocie żyjemy w świecie wspaniałym – oczywiście wiele jest w nim jeszcze do poprawienia, ale to naprawdę najlepszy świat, jaki dotąd mieliśmy. Pewnie dlatego jego książki nie sprzedają się tak dobrze jak książki handlarzy strachu. Problem jest następujący: jeśli uwierzy pan, że ma raka, choć w istocie jest pan zdrowy, i zaaplikuje sobie chemioterapię, to ona nie tylko panu nie ­pomoże, ale i wręcz zaszkodzi. Panika wokół Facebooka, Google’a i innych technologii oraz ignorowanie korzyści, które niosą, może nas prowadzić do tej niepotrzebnej chemioterapii.

Do czego konkretnie?

Facebook został niedawno zmuszony w USA do zatrudnienia 15 tysięcy cenzorów, którzy sprawdzają nie tylko to, co firmy i politycy umieszczają w swoich postach, ale też treści zamieszczane przez indywidualnych użytkowników. Dosięga nas chichot historii. Pokolenia ludzi walczyły o wolność i likwidację cenzury, a teraz ich dzieci i wnuki domagają się powrotu cenzury, i to nie cenzury regulowanej przez władzę publiczną czy przez społeczność, która uznaje jakieś treści za szkodliwe dla siebie, ale takiej, która jest regulowana przez komercyjną firmę, nastawioną na zysk finansowy, i niekontrolowaną przez społeczeństwo.

A kto powinien kontrolować i regulować zawartość mediów społecznościowych, reklam w sieci, proces zbierania danych o użytkownikach? Czy w ogóle powinniśmy to robić?

Oczywiście, że tak. Jednak nie można pozwolić, by to same korporacje medialne wprowadzały regulacje i kontrolowały ich stosowanie. To tak, jakbyśmy zlecili firmom tytoniowym regulację rynku sprzedaży papierosów, a korporacjom naftowym rynku paliw. Nie może być tak, że to kierownictwo Facebooka decyduje, co kto może powiedzieć i zamieścić w tym serwisie.

Kto powinien wprowadzać takie regulacje?

Instytucje dobra publicznego, demokratycznie wybierane, a przynajmniej podlegające demokratycznej kontroli i weryfikacji. Dokładnie tak samo jak dzieje się to w przypadku radia i telewizji. Podstawowym kryterium powinno być jednak zachowanie wolności słowa. Płacimy za nią wysoką cenę, bo każdy – pan, ja, partia polityczna czy rząd – mogą jej nadużyć, mogą szerzyć kłamstwa, nienawiść, rozpowszechniać brednie. Jednak cena za ograniczanie wolności byłaby jeszcze wyższa – bo to samo narzędzie technologiczne, które zaknebluje dziś polityka, z którym pan się nie zgadza, jutro zostanie wykorzystane do zakneblowania polityka, z którym pan się zgadza, albo do zakneblowania pana.

Tylko że żyjemy w czasach, w których ludzie chętniej rezygnują z wolności – w zamian za większe poczucie bezpieczeństwa – niż poszerzają jej zakres. Wszyscy wszystkiego się boją, nawet opinii, które mogą zagrozić ich komfortowi psychicznemu.

Zapomnieliśmy o czasach, kiedy tej wolności nie było. Pamiętajmy, że gotowość do rezygnacji z wolności słowa nie jest odizolowanym fenomenem. Szerzą się postawy oparte na strachu i przesądach. Popatrzmy na ruch antyszczepionkowy. Ludzie zapomnieli, jak to jest, kiedy dzieci umierają na odrę i inne choroby.

Jest nam za dobrze?

Jest nam za dobrze i zorientujemy się, że tak jest, dopiero kiedy antyszczepionkowcy na ołtarzu swoich teorii spiskowych złożą życie wielu dzieci.

Wiele jest takich teorii, homeopatia na przykład.

Brexit...

No nie. Tu Pana mam. Już miałem się z Panem zgodzić, że przesadzamy z tą katastroficzną wizją świata, w której wszyscy jesteśmy zmanipulowanymi ofiarami. Jednak brexit w ogóle do tego nie pasuje. Brytyjczycy przed świętami zafundowali sobie wybory, w których po raz kolejny zagłosowali za brexitem, i to w formie najbardziej twardej z możliwych – bo to właśnie oznaczało oddanie głosu na Borisa Johnsona. Już nie wolno nam utrzymywać, że nie wiedzą, co robią, że doznali masowego zaćmienia umysłu.

Ależ ja się z panem całkowicie zgadzam. To nie brexit jest wynikiem teorii spiskowej, tylko twierdzenie, że stoją za nim jakieś mroczne siły. Podobnie rzecz ma się z Donaldem Trumpem. Jeżeli Cambridge Analytica umiałaby tak świetnie zmanipulować amerykańskich wyborców, to wygrałby Ted Cruz, bo on korzystał z usług tej firmy na długo przed Trumpem. Hillary Clinton wydała trzy razy więcej pieniędzy niż Trump na usługi takich samych firm jak CA. Pamiętajmy też, że to Barack Obama był pionierem wykorzystywania takich technologii w zdobywaniu głosów. Tylko że wtedy mówiono, że Obama jest wizjonerem, nawet jeśli wiele osób, które potem pracowały w CA, zdobywało szlify zawodowe w kampaniach Obamy. To jak to jest? Obama był wizjonerem, a Trump manipulatorem, mimo że obaj robili dokładnie to samo?

W tej dziedzinie również obowiązuje moralność Kalego: jeśli coś służy mojej korzyści, to jest dobre, a jeśli służy korzyści mojego przeciwnika, to jest złe.

Jeżeli jest pan Demokratą w USA albo zwolennikiem Unii Europejskiej w Anglii, to najłatwiej zrzucić winę za własne błędy na algorytm, zapominając o tym, że obydwie strony wyścigu politycznego korzystają z tych samych narzędzi. Ale wynik wyborów to nie skutek działań algorytmów, tylko polityków. Demokraci uznali, że nie ma sensu rozmawiać z dużą częścią społeczeństwa – akurat tą, do której przemawiały argumenty Trumpa.

Populista Donald Trump nie wybierał – rozmawiał z każdym, kto chciał z nim rozmawiać, i używał do tego wszelkich dostępnych narzędzi, zwłaszcza w takich miejscach, gdzie spędzają najwięcej czasu, na przykład na Facebooku. Co więcej, mówił do nich językiem dla wyborców zrozumiałym i potrafił sformułować przekaz, który trafiał w ich oczekiwania. Dlatego wygrał wybory, a nie dlatego, że pomagała mu Cambridge Analytica. Dzisiaj wszyscy już wiedzą, jak skomplikowany jest brexit i jakie wiążą się z nim zagrożenia, wszyscy wiedzą, kim jest Donald Trump, jakie ma wady i zalety. A mimo to poparcie dla brexitu i Trumpa utrzymuje się na wysokim poziomie. To nie algorytmy ich popierają, tylko ludzie. ©

MICHAŁ KOSIŃSKI jest psychologiem społecznym, pracuje na Uniwersytecie Stanforda. Doktoryzował się na Uniwersytecie Cambridge, studiował w SWPS w Warszawie. Specjalista w dziedzinie psychometrii, w latach 2007-12 prowadził w Cambridge badania na temat określania osobowości na podstawie śladów cyfrowych. W 2013 r. opublikował wyniki tych badań, wskazując na zagrożenia płynące z wykorzystania algorytmów używanych przez Facebooka do zbierania danych użytkowników. W 2017 r. okazało się, że takie algorytmy zostały zastosowane przez firmę Cambridge Analytica, zaangażowaną w kampanię wyborczą Donalda Trumpa i zwolenników brexitu do profilowania przekazu w sieci dla indywidualnych użytkowników.

 

KRÓTKA HISTORIA AFERY

W marcu 2018 r. były pracownik firmy Cambridge Analytica ujawnił brytyjskiemu „Guardianowi” działalność swojego pracodawcy. Korzystając z aplikacji stworzonej przez naukowca z Cambridge University Aleksandra Kogana, firma nakłoniła 320 tys. użytkowników Facebooka do wypełnienia testu psychologicznego. Aplikacja stworzyła psychologiczne profile tych osób, dodatkowo zebrała dane osób, które z uczestnikiem testu były „zaprzyjaźnione” na Facebooku. Łącznie zebrano dane 87 mln użytkowników Facebooka. Wówczas było to jeszcze zgodne z zasadami portalu, choć użytkownicy aplikacji sądzili, że ich dane wykorzystane zostaną do celów naukowych.

Już w 2015 r. Facebook wiedział, że CA działała niezgodnie z zasadami, ale zawiesił firmę w swojej platformie dopiero dwa lata później (cztery dni po tym, jak „Guardian” wysłał Facebookowi pytania związane z publikacją o aferze). Brytyjski odpowiednik GIODO nałożył na Facebooka najwyższą możliwą wtedy karę pół miliona funtów grzywny za niedostateczną ochronę danych użytkowników. Od tamtego czasu wysokość kary związanej z takim przewinieniem wzrosła kilkunastokrotnie.

W wewnętrznej notatce do pracowników z 30 grudnia 2019 r., którą 7 stycznia 2020 r. opublikował „The New York Times”, Andrew Bosworth, jeden z dyrektorów wykonawczych Facebooka i bliski współpracownik Marka Zuckerberga, twierdzi, że reklamy CA nie miały lepszych wyników niż reklamy innych reklamodawców, a czasem nawet gorsze. Według badania Veroniki Marotty, Vibhanshu Abhisheka i Alessandra Acquistiego z maja 2019 r. reklamy targetowane dają jedynie o 4 proc. wyższy przychód od reklam nietargetowanych.

Kiedy Cambridge Analytica przypisała sobie zwycięstwo Donalda Trumpa w wyborach, zaprotestował Brad Parscale, szef kampanii Trumpa w internecie. Twierdzi on, że o zwycięstwie w wyborach zadecydowały nie usługi oferowane przez CA, tylko skala środków przeznaczonych przez sztab Trumpa na reklamy w mediach społecznościowych w ogóle. Co więcej, zanim CA wsparło Trumpa w wyborach prezydenckich, w prawyborczym wyścigu o nominację Partii Republikańskiej jej analitycy pracowali dla głównego rywala Trumpa. Trump wygrał, zdobywając blisko dwa razy więcej głosów od wspieranego przez Cambridge Analytica Teda Cruza.

Andrew Bosworth w swojej notatce zgodził się z Parscale’em w ocenie faktycznego wpływu CA na wybory prezydenckie, przy okazji jednak twierdząc, że Trump wygrał dzięki Face- bookowi, bo najlepiej wykorzystał narzędzia reklamowe tej platformy. Jaki był faktyczny wpływ kampanii Trumpa na użytkowników Facebooka czy Google’a? Ponieważ nikt nie ma możliwości skontrolowania danych tak dużych sieci, nie można znaleźć ostatecznej odpowiedzi na to pytanie. ©(P) Patryk Stanik

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp kwartalny

Kwartalny dostęp do TygodnikPowszechny.pl
  • Natychmiastowy dostęp
  • 92 dni dostępu = aż 13 numerów Tygodnika
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
89,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]
Dariusz Rosiak (ur. 1962) jest dziennikarzem, twórcą i prowadzącym „Raport o stanie świata” – najpopularniejszy polski podkast o wydarzeniach zagranicznych (do stycznia 2020 r. audycja radiowej „Trójki”). Autor książek – reportaży i biografii (m.in. „Bauman… więcej

Artykuł pochodzi z numeru Nr 5/2020