W sierpniu ubiegłego roku w budynku Naczelnego Sądu Administracyjnego w Warszawie znaleziono ukryte w kanale wentylacyjnym podejrzane urządzenia elektroniczne. Szybko okazało się, że nie była to żadna aparatura szpiegowska, ale dość zwyczajny komputer podłączony do sieci elektrycznej budynku. Zainstalowano go tam, by kradł prąd.
Wszyscy płacimy za bitcoiny
Kiedy w 2008 r. Satoshi Nakamoto opublikował kilkustronicowy dokument opisujący zasady działania bitcoina, zapowiadało się na rewolucję w finansach czy wręcz całej światowej ekonomii. Zamiast pieniędzy emitowanych i kontrolowanych przez narodowe banki centralne, mieliśmy mieć bezpieczną gotówkę elektroniczną, za którą nie będzie musiała ręczyć żadna instytucja państwowa. Każda transakcja związana z taką kryptowalutą odbywa się bowiem wirtualnie, eliminując całkowicie dodatkowe koszty generowane przez produkcję, przechowywanie i transport tradycyjnych pieniędzy. Oczywiście, żeby ktokolwiek zechciał użyć bitcoina, musi wiedzieć, że przeprowadzona transakcja jest bezpieczna, a więc w szczególności, że nie można jej potem unieważnić.
Genialnym pomysłem twórców bitcoina (bo nie wiadomo, czy ów Nakamoto naprawdę istnieje) było oddanie procesu elektronicznego weryfikowania transakcji w ręce zupełnie przypadkowych osób, nazywanych „górnikami” (ang. miners). Ich zadaniem jest „wykopanie” rozwiązania pewnego kryptograficznego problemu, które weryfikuje każdą transakcję, a następnie dołącza ją do transakcji już wcześniej zweryfikowanych. Wszystko to odbywa się publicznie i każdy może natychmiast sprawdzić, czy transakcja została uwiarygodniona. Za rozwiązanie zadania „górnik” jest wynagradzany bitcoinami, więc chętnych jest bardzo wielu. Rzecz w tym, że wymaga to ogromnej mocy obliczeniowej komputera i czasu, a w konsekwencji zużycia dużej ilości energii elektrycznej. Komputer-górnik został zainstalowany w NSA właśnie po to, by pobierać ją bezpłatnie.
Kradzież energii elektrycznej czy wręcz wykorzystywanie cudzych komputerów dla zarabiania bitcoinów nie jest oczywiście pomysłem nowym. W 2018 r. policja rosyjska aresztowała kilku naukowców pracujących w tajnym centrum badań jądrowych w Sarowie, którzy próbowali wykorzystać znajdujący się tam superkomputer. Wpadli, bo musieli podłączyć go do internetu – co w instalacjach wojskowych jest niedopuszczalne – a to wywołało alarm systemu bezpieczeństwa. Ci, którzy kopią bitcoiny legalnie, używają w tym celu coraz bardziej wyrafinowanych metod. Budują wielkie klastry komputerów zasilanych specjalistycznymi procesorami i lokują je w krajach z tanią energią elektryczną. Szacuje się bowiem, że zweryfikowanie pojedynczej transakcji w sieci bitcoina wymaga takiej ilości energii elektrycznej, jaką zużywa przeciętna amerykańska rodzina przez cały miesiąc. A pamiętać trzeba, że choć tylko zwycięzca wyścigu do weryfikacji jest wynagradzany, to każdą transakcję usiłuje zweryfikować wielu „górników” jednocześnie.
Jest ich taka rzesza, że według szacunków profesora informatyki z Princeton, Arvinda Narayanana, zużycie energii elektrycznej przez całą sieć bitcoina stanowiło 0,6 proc. światowego zużycia energii w 2016 r. i aż 1 proc. w 2018 r. (choć szacunki Międzynarodowej Agencji Energii są tu o połowę niższe). Tylko 40 krajów na świecie ma większe zapotrzebowanie na energię. Dodajmy do tego zużyty sprzęt komputerowy i roczny rachunek bitcoina sięgnie 4 mld dolarów. Te koszty będą niestety rosły, bo co jakiś czas – ściśle zdefiniowany przez algorytm – każdy bitcoin dzielony jest na dwa aż do czasu, kiedy będzie ich 21 milionów. Szacuje się, że nastąpi to dopiero w 2140 r. i aż do tego czasu wraz ze wzrostem ilości bitcoinów przybywać będzie transakcji wymagających zweryfikowania, a więc energii do tego potrzebnej. A pamiętać trzeba, że poza bitcoinem jest jeszcze ponad 20 tys. innych kryptowalut, z których wiele używa podobnych algorytmów do weryfikacji transakcji.
Ciemne chmury danych
Ci z nas, których zarabianie kryptowalut nie interesuje, mają zapewne czyste sumienie, bo nie przychodzi im do głowy, że używanie domowych komputerów szkodzi środowisku. Nie emitują one przecież dwutlenku węgla, są coraz bardziej oszczędne w zużyciu energii elektrycznej, a po swej śmierci poddawane są recyklingowi. Rzecz w tym jednak, że 90 proc. interakcji z tym, co stoi na naszym biurku, angażuje komputery, o których istnieniu nie pamiętamy, albo nawet nie wiemy. A ich wpływ na środowisko nie jest już taki neutralny.
Według International Data Corporation, w 2023 r. wygenerowano na świecie 123 zetabajty danych. Żeby unaocznić skalę tej wielkości, wyobraźmy sobie, że przechowujemy te dane na starodawnych płytach DVD. Jeśli układać je jedna na drugiej, to ich stos rósłby kilometr na sekundę, aż sięgnąłby po roku połowy drogi na Marsa. Te dane muszą być nie tylko bezpiecznie przechowane, ale także łatwo dostępne. Rolę tę spełniają coraz powszechniej centra danych, zwane popularnie chmurą. Niemal wszyscy korzystamy z tego rozwiązania, przechowując zdjęcia w iCloud czy dokumenty w OneDrive. Co ważniejsze, korzysta z niego biznes, oddając w ręce profesjonalnych firm pełną obsługę swoich danych; nie tylko ich przechowywanie, ale także niezawodny i szybki dostęp, trwałość i ochronę. Część czytelników tego artykułu ściągnęła go z serwera, na którym miejsce na swoje teksty wykupił „Tygodnik Powszechny”. Światowe zasoby centrów danych to dziś dziesiątki, jeśli nie setki milionów komputerów rozrzuconych po wszystkich krajach świata.
Aż do niedawna centra danych budowano w oparciu o proste i tanie komputery, połączone w szybką lokalną sieć. Już w 2011 r. oceniano, że centrum obliczeniowe Google, napędzające jego wyszukiwarkę internetową, składało się z około miliona takich komputerów. Przy tak wielkiej liczbie maszyn prawdopodobieństwo wystąpienia usterki w jednej z nich jest ogromne. Jeśli przeciętny komputer psuje się po trzech latach, to spośród miliona codziennie będzie się psuło aż tysiąc. Współczesne centra danych nie mogą sobie pozwolić na utratę jakichkolwiek danych swoich klientów i dlatego każdy przechowywany bit kopiowany jest dla bezpieczeństwa na różnych dyskach co najmniej trzykrotnie. Innymi słowy, jeśli przełożymy 1GB zdjęć z iPhone’a do iCloud, to zajmą one – jeśli nie stosować kompresji – 3GB pamięci w chmurze. Na trzech różnych komputerach. Na wszelki wypadek.
Paradoksalnie, globalny koszt przechowywania danych jest bardzo wysoki, bo jednostkowy koszt jest tak niski. Kiedy w 1956 r. IBM wyprodukował pierwszy komputer z magnetycznym dyskiem o średnicy 60 cm i pojemności 4,4 MB, dzierżawił go firmom za 3200 dolarów miesięcznie, co odpowiadałoby dziś cenie 100 milionów dolarów za przechowanie 1GB przez rok. Współcześnie ten sam 1 GB dostajemy od Apple bezpłatnie, wrzucamy więc do iCloud wszystkie zdjęcia hurtem.

Inteligencja opalana węglem
Jaki zatem jest globalny koszt – często beztroskiego przecież – zbierania danych na świecie? Szacunki Międzynarodowej Agencji Energii są szokujące. W 2022 r. zużycie energii elektrycznej przez wszystkie centra danych na świecie wyniosło ok. 300 TWh (czyli 300 terawatogodzin; niektóre niezależne kalkulacje mówią nawet o 500TWh). Dla porównania, w tym samym roku wyprodukowano w całej Polsce 172 TWh energii. W Irlandii centra danych zużywają już 18 proc. całej energii kraju i tamtejszy urząd regulacji energetyki zawiesił wydawanie kolejnych pozwoleń na ich podłączenia do sieci energetycznej aż do 2028 r. Singapur podjął podobną decyzję już w 2019 r. W jednym tylko hrabstwie północnej Virginii centra danych zajmują aż trzy kilometry kwadratowe powierzchni, co wymagało budowy specjalnej infrastruktury dla ich zasilania.
Nie dalej jak 2 maja szef Dominion, jednej z największych grup energetycznych w USA, przyznał, że właściciele nowo budowanych centrów często żądają przyłączenia ich do sieci energetycznej o mocy kilku gigawatów (GW). Dla porównania: maksymalna moc elektrowni w Bełchatowie – największej w Polsce – to nieco ponad 5 GW.
Niestety, będzie jeszcze gorzej. Amazon i Google planują wydać w przyszłym roku 100 mld dolarów na sprzęt komputerowy, co stanowi niemal jedną czwartą wartości ogromnego przecież rynku amerykańskiego. Te wszystkie maszyny muszą być zasilone, nic więc dziwnego, że w 2030 r. centra danych zużywać będą już 7,5 proc. energii elektrycznej w USA. Choć w rzeczywistości nie będą to już tylko typowe centra danych, ale także specjalistyczne serwery do obsługi aplikacji sztucznej inteligencji. Boom, jaki trwa w tej dziedzinie od dwóch lat, napędza inwestycje w infrastrukturę, bo budowa modeli AI wymaga coraz większej mocy komputerowej, a to oznacza coraz większe koszty, także energii.
Wytrenowanie systemu Gemini Ultra kosztowało 190 mln dolarów, ale Google nie ujawnia, ile energii przy tym zużyto. Gwałtowny przyrost popytu na energię ze strony IT zaognia problem emisji gazów cieplarnianych – zgodnie z nowym raportem Google ślad węglowy firmy wzrósł w ciągu ostatnich pięciu lat o prawie 50 proc. Wiele wskazuje na to, że dostawcy energii zmuszeni będą ponownie uruchamiać zamykane w ostatnich latach elektrownie opalane węglem i gazem, bo jak trzeźwo zauważył były sekretarz energii USA, czyli odpowiednik naszego ministra energii, Ernest Moniz, „Nie zbudujemy 100 GW odnawialnych źródeł energii w kilka lat”.
Spragnione systemy
Energia elektryczna to niestety nie jedyny środowiskowy koszt obsługi centrów danych. Woda niezbędna jest do chłodzenia procesorów, by zapobiec ich przegrzaniu. Standardowo używa się w tym celu tzw. wież chłodzących, gdzie woda znajduje się prawie w obiegu zamkniętym i tylko częściowo jest odparowywana. Efektywność tej metody zależy oczywiście od temperatury otoczenia, a więc w dużej mierze od położenia geograficznego. To z kolei determinowane jest przez lokalizację obsługiwanych klientów, bo ich bliskość minimalizuje czas transmisji danych.
Według profesora Shaoleia Rena z Uniwersytetu Kalifornijskiego w Berkeley, który prowadzi badania w tej dziedzinie, w 2022 r. Google zużył do chłodzenia swych centrów danych tyle wody, ile rocznie zużywa jej 2,5 mln ludzi. I znowu, infrastruktura nowych systemów sztucznej inteligencji jest jeszcze bardziej spragniona. W 2027 r. systemy te będą pobierać 6,6 mld ton wody – trzy razy tyle, co zużywa Dania. Profesor Ren szacuje, że samo wytrenowanie GPT-3 wymagało 5,4 mln litrów wody, a każde 10-50 pytań zadanych do ChatGPT wymaga kolejnego pół litra.
Biorąc pod uwagę lawinowy przyrost aplikacji korzystających z GPT, globalne zużycie wody przez te systemy może być dużo większe niż szacunki podane powyżej. Nawet jeśli cała woda wracałaby do środowiska, to pobór takiej ilości będzie stanowił poważną konkurencję dla jej innych lokalnych konsumentów. Największy światowy producent półprzewodników – tajwański TSMC – zużywa rocznie 63 mln ton wody. W czasie wielkiej suszy na Tajwanie w 2021 r. nie było dość wody, by starczyło jej i dla rolnictwa, i dla TSMC. Rząd tajwański wprowadził więc zakaz nawadniania 20 proc. powierzchni uprawnych kraju.
Manifest zielonej informatyki
Opinia publiczna jest w większości zupełnie nieświadoma środowiskowych kosztów przemysłu informatycznego. Ale prawdę mówiąc, nieświadomi są ich często sami pracownicy tego przemysłu. Dlatego ważnym wydarzeniem było wystąpienie kilka miesięcy temu, na jednej z flagowych konferencji na temat przetwarzania danych, profesora Gustavo Alonso z ETH w Zurychu, który przedstawił swego rodzaju manifest „zielonej informatyki”.
W budowie systemów komputerowych od lat obowiązywała zasada „nie ma takiego problemu wydajności systemu, którego nie można rozwiązać przez dodawanie nowych maszyn”. Komputery są tanie, więc jeśli dodanie kolejnego nawet minimalnie poprawi skuteczność, to warto to zrobić. W istocie, cała idea centrum danych z tysiącami komputerów połączonych w jeden system to wzorcowe urzeczywistnienie tego hasła. Przypomina to przyłączanie kolejnych lokomotyw do coraz cięższego pociągu towarowego. Każda kolejna przynosi coraz mniejszy efekt, ale liczy się przecież wydajność całego systemu, a nie jego indywidualnych elementów. Czas odwrócić to rozumowanie, apeluje Alonso, i zastanowić się, jak zwiększyć produktywność każdego komputera z osobna po to właśnie, by móc używać ich mniej.
Jest to szczególnie ważne w informatyce, bo ta zdaje się ignorować to, co ekonomiści nazywają efektami zewnętrznymi działalności gospodarczej. Są to skutki uboczne, których konsekwencje ponosi szersze grono odbiorców niezależnie od swojej woli i bez odpowiedniej rekompensaty. Typowymi efektami zewnętrznymi są zanieczyszczenie środowiska, hałas czy emisja gazów cieplarnianych. Jest rzeczą zdumiewającą, że wszyscy uważamy za rzecz oczywistą to, iż warto ocieplać domy dla zmniejszenia zużycia energii czy eliminować plastikowe butelki, by nie trzeba ich było potem utylizować, a jesteśmy ślepi na analogiczne argumenty, kiedy przychodzi do budowania systemów komputerowych. Przemysł IT jest takim samym przemysłem jak każdy inny i powinniśmy oczekiwać od niego podobnej dbałości o środowisko.
Na szczęście Alonso nie wszystkich musi nawracać. Świadomość, że komputery nie są „czystą” technologią, dociera już do wielu użytkowników i konstruktorów systemów komputerowych. W samym Toronto, gdzie znajduje się moja macierzysta uczelnia, działają co najmniej dwa start-upy, Radium i CentML, które oferują usługi optymalizujące działanie centrów danych. Współzałożyciel pierwszego z nich, Vijay Gadepally z MIT, oferuje proste rozwiązanie ograniczające w kontrolowany sposób natężenie prądu dostarczanego do procesorów. Zapobiega to przegrzewaniu się urządzenia i oszczędza energię kosztem znikomej utraty wydajności. CentML optymalizuje zbudowane już przez klientów modele sztucznej inteligencji dla oszczędności zużywanej przez nich energii.
Presja gigantów
Takim oddolnym inicjatywom towarzyszą też działania na wielką skalę podejmowane przez technologicznych gigantów. Dla dalszego rozwoju potrzebują dużo więcej energii, której pozyskiwanie z paliw kopalnych jest społecznie coraz mniej akceptowalne. Dlatego postanowili oni samodzielnie inwestować w produkcję alternatywnych źródeł energii. Microsoft zamierza do 2030 r. zbudować w USA i Europie elektrownie wiatrowe i solarne o mocy 10,5 GW. Google podpisał umowę z firmą Fervo, która w Newadzie pozyskuje już komercyjnie energię geotermiczną. W maju tego roku Amazon uzyskał zgodę rady miejskiej w Susquehanna w Pensylwanii na budowę centrów danych na powierzchni 800 hektarów. Zaletą tej lokalizacji jest istniejąca tam elektrownia atomowa o mocy 2,5 GW, z którą już wcześniej ten gigant technologiczny zawarł umowę na bezpośredni zakup energii. Jak na absolutnego lidera technologicznego przystało, OpenAI wspólnie z Microsoft zainwestował w niewielki start-up Helion, który obiecuje od 2028 r. dostarczać energię wytworzoną z syntezy jądrowej (jak dotąd nie ma żadnego komercyjnego reaktora termojądrowego).
Na efekty tych działań przyjdzie nam poczekać, ale liderzy firm technologicznych są pełni optymizmu. Microsoft, Apple, Google i Meta obiecują, że do 2030 r. cała ich działalność komercyjna będzie odpowiedzialna za zero emisji dwutlenku węgla (Amazon obiecuje dokonać tego do 2040 r.). Niestety, sama instalacja nowych odnawialnych źródeł energii nie wystarczy. Międzynarodowa Agencja Energii ocenia, że do 2026 r. zapotrzebowanie na energię ze strony centrów danych, aplikacji sztucznej inteligencji i kryptowalut wzrośnie o 400 TWh. Wymaga to zainstalowania co najmniej 45GW mocy elektrowni (dla porównania, moc wszystkich elektrowni w Polsce to 50 GW). Nawet gdyby to się udało – co się wydaje nieprawdopodobne – to nie rozwiąże to problemu, bo centra danych muszą pracować także wtedy, gdy nie świeci słońce i nie wieje wiatr. Bez węgla i gazu chyba się nie obejdzie.

Projekt dofinansowany ze środków budżetu państwa, przyznanych przez Ministra Nauki i Szkolnictwa Wyższego w ramach Programu „Społeczna Odpowiedzialność Nauki II”.
„Tygodnik Powszechny” – jedyny polski tygodnik społeczno-kulturalny.
30 tys. Czytelniczek i Czytelników. Najlepsze Autorki i najlepsi Autorzy.
Wspólnota, która myśli samodzielnie.




















