Cel: eliminacja

Oddaliśmy już maszynom kontrolę nad dziesiątkami aspektów naszego życia. Powoli, nieubłaganie, przekazujemy im też panowanie nad śmiercią.

19.11.2013

Czyta się kilka minut

 / Rys. Marek Adamik
/ Rys. Marek Adamik

Nigdy nie śpią. Nigdy nie schodzą ze stanowiska. Nigdy nie przestają szukać wroga. Człowieka są w stanie dostrzec z odległości 4 km. I zabić bez mrugnięcia elektronicznym okiem.

To rzeczywistość A.D. 2013. Zautomatyzowani wartownicy pilnują strefy zdemilitaryzowanej między obiema Koreami. Wyprodukowane przez Samsunga wieżyczki są wyposażone w karabiny maszynowe, granatniki i skomplikowany pakiet czujników. Gdy wypatrzą intruza, mają go ostrzec przez wbudowane głośniki – ale jeśli zagrożenie nie zniknie, mają wszelkie możliwości, żeby „usunąć” je samodzielnie.

Podobne urządzenia pilnują już granic Izraela. Kolejne państwa – Singapur, USA, Wielka Brytania czy Chiny – są nimi żywo zainteresowane. Uzbrojone roboty są stałym widokiem na polach bitwy od Afganistanu po Afrykę – i ponad nimi.

Na razie zawsze ostateczną decyzję o użyciu broni podejmuje człowiek. Zmęczony, przesiąknięty kofeiną, wpatrzony w ekran pełen niewyraźnych obrazów, ale jednak – człowiek. Jednak maszyna, która sama zdecyduje, kogo i kiedy zaatakować i zabić, nie jest już rojeniem pisarzy science fiction.

CEL OSTATECZNY: NIEZALEŻNOŚĆ

Roboty na wojnie nie są niczym nowym. Wynalazcy Elmer Sperry i Peter Hewitt już w 1917 r. zbudowali na zamówienie amerykańskiej marynarki bezzałogowy samolot sterowany radiem, który miał atakować wrogie okręty. Podczas drugiej wojny bezzałogowymi maszynami posługiwały się wszystkie walczące mocarstwa – od niemieckich miniczołgów Goliat, przez radzieckie, sterowane zdalnie „teletanki”, po amerykańskie bombowce B-17 przerabiane na kontrolowane radiowo, latające bomby. Ale dopiero rewolucja cyfrowa sprawiła, że te maszyny przestały być czymś więcej niż przerośniętymi, uzbrojonymi kuzynami zdalnie sterowanych modeli.

Drugi kraniec świata względem Korei: amerykański poligon w Fort Benning w Georgii. Pojazd wielkości meleksa przedziera się przez krzewy. Zatrzymuje się. Skanuje teren. Po drugiej stronie polany wypatruje hełmy wystające ponad krawędź okopu. Namierza cel, wprowadza poprawkę na wiatr – i otwiera ogień z karabinu maszynowego. Towarzysząca mu grupka ludzi wygląda na bardzo zadowolonych. Mają kamizelki kuloodporne, hełmy – ale nie mundury. Na co dzień zajmują się produkowaniem zrobotyzowanych odkurzaczy. Ale wojskowe kontrakty to pokusa nie do odparcia. Pentagon na roboty bojowe wydaje już 6 mld dolarów rocznie – i ta kwota stale rośnie.

Do 2015 r. jedna trzecia amerykańskich pojazdów wojskowych ma być zrobotyzowana. Jak można przeczytać w oficjalnych źródłach, „trwa proces zwiększania autonomii tych pojazdów. Aktualnym celem jest »autonomia nadzorowana«, ale celem ostatecznym jest pełna niezależność”. Co oznacza, że człowiek będzie jedynie pilnował, czy robot trzyma się rozkazów. Wszystkie bieżące decyzje, w tym te dotyczące użycia broni, mają być docelowo podejmowane przez maszynę.

Broń całkowicie autonomiczna kusi wojskowych z wielu powodów. Jest tańsza: robota nie trzeba karmić, a jeden żołnierz może nadzorować całą flotyllę robotów. Taka broń jest też politycznie wygodna: gdy Iran pokazał światu strąconego przez siebie amerykańskiego bezpilotowca, reakcją było zaciekawienie. Gdyby w telewizji pokazano schwytanego lub zabitego pilota, wywołałoby to polityczne i dyplomatyczne trzęsienie ziemi.

Wreszcie, maszyna jest skuteczniejsza: widzi więcej, reaguje szybciej, zniesie niewygody. A to przekłada się na ogromną przewagę w walce.

Tyle że szybka reakcja i właściwa reakcja – to dwie zupełnie różne sprawy.

RUCH OPORU

11 października 1989 r. okręt USS „El Paso” bierze udział w ćwiczeniach u wybrzeży USA. Elementem manewrów jest atak wrogich samolotów na amerykańską flotę. Bezpilotowy samolot-cel zbliża się do zgrupowania okrętów. Na „El Paso” ożywa system Phalanx, który ma bronić floty przed atakami z powietrza. Radary namierzają intruza i przekazują informację do wieżyczek wyposażonych w dwa działka Vulcan, zdolnych do wystrzeliwania 75 pocisków na sekundę. Działka otwierają ogień. Dron-cel rozpada się w powietrzu, ale jego szczątki wciąż lecą w stronę okrętu. Komputer nie odróżnia ich od prawdziwego zagrożenia i posyła drugą salwę. Ta mija rozszarpany już cel i trafia w drugi okręt: USS „Iwo Jima”. Na jego mostku ginie oficer. Bo komputer zbyt dokładnie wykonał polecenia.

To był tylko wypadek. Ale na tym polega problem z automatycznymi wojownikami: słuchają programu, wykonują co do joty polecenia, nie rozumiejąc, co się wokół nich dzieje.

„Od dziesięcioleci pracuję nad stworzeniem sztucznej inteligencji – pisał już w 2007 r. w felietonie na łamach dziennika „Guardian” prof. Noel Sharkey z University of Sheffield. – To, że robot może kiedyś podjąć decyzję o ludzkim życiu albo śmierci, jest dla mnie absolutnie przerażające. (...) Wyobrażam sobie, jak maszyna strzela do małej dziewczynki, bo ta wyciągnęła w jej stronę loda, chcąc się z nią podzielić smakołykiem”.

Sharkey jest jednym z przywódców swoistego ruchu oporu – bo kampanię przeciw zautomatyzowaniu wojny prowadzi ponad 40 stowarzyszeń, od kilkuosobowych po światowe sieci, jak Human Rights Watch. Od niedawna mają wspólny szyld: „Kampania na rzecz powstrzymania robotów-zabójców”.

Chcą zapisanych w prawie międzynarodowym zakazów budowy autonomicznej broni. I zobowiązań, że żaden kraj nie wyposaży swoich wojsk w maszyny, które same będą podejmować decyzje o ludzkim życiu i śmierci.

Ostrzegają, że to ostatnia chwila: kiedy pierwsze państwo wprowadzi do swojego uzbrojenia autonomiczne roboty-zabójców, kolejne zrobią to samo.

„Lunatykujemy w stronę nowego świata, w którym to roboty podejmują decyzję, kogo i kiedy zabić” – pisze Sharkey. Szacuje on, że pierwsze w stu procentach autonomiczne roboty bojowe mogą się pojawić w ciągu 20-30 lat.

Ale nie wszyscy uważają, że zastąpienie ludzkich żołnierzy maszynami byłoby złe. Robert Arkin, robotyk z Georgia Institute of Technology, proponuje wyposażać maszyny w oprogramowanie, które będzie stale analizowało sytuację pod kątem zgodności otrzymanych rozkazów z prawem międzynarodowym. Twierdzi, że tak zaprogramowana maszyna byłaby w stanie lepiej się stosować do reguł wojny niż ludzki żołnierz. Nie działałaby ze strachu czy w gniewie, nie obawiałaby się też o konsekwencje niewykonania rozkazu.

Tyle tylko, że nawet wyposażony w sztuczną inteligencję dorównującą ludzkiej – a takiej dziś nie potrafimy jeszcze skonstruować – robot zawsze pozostanie maszyną bez emocji i może opacznie interpretować pewne sytuacje. Czy biegnący w jego stronę człowiek to przerażony cywil, czy napastnik?

Poza tym: kto właściwie odpowiada za działania maszyny? Czy przed sądem w Hadze ma stanąć dowódca? Przecież nie pociągał za spust. Programista? Nie mógł przewidzieć wszystkich sytuacji, w których znajdzie się jego robot. Producent?

OSTATNIE PYTANIE

W lutym republikański senator Lindsey Graham przyznał, że od rozpoczęcia „tajnej wojny” prowadzonej przez USA przy użyciu dronów, w ich atakach zginęło już 4,7 tys. osób. „Czasami giną niewinni, i jest mi z tego powodu przykro. Ale jesteśmy na wojnie i wyeliminowaliśmy w ten sposób wysokich rangą dowódców Al--Kaidy” – dodał.

4,7 tys. ofiar kampanii prowadzonej i tak na bardzo ograniczoną skalę – ten wynik zmusza do zadania ostatniego pytania: czy dowódcy, którzy wiedzą, że wysyłając maszynę nie narażają życia żołnierzy, podejmują decyzje – o ataku, o zabiciu celu – łatwiej? Czy politycy, nie obawiając się, że śmierć żołnierza wysłanego przez nich do akcji wpłynie na ich notowania, będą mieli mniejsze opory przed stosowaniem siły?

Międzynarodowy Komitet Czerwonego Krzyża pisał w swoim raporcie: „wykorzystywanie broni sterowanej zdalnie z dużych odległości prowadzi do sytuacji, w której żołnierz odgrywa coraz mniejszą rolę. Jeśli człowiek nie stanie się panem technologii, a pozwoli sam się jej opanować, zostanie przez nią zniszczony”. Raport pochodził z 1987 r. 26 lat później ta przestroga jest coraz bardziej aktualna. 


WOJCIECH BRZEZIŃSKI jest dziennikarzem Polsat News, gdzie prowadzi autorski program popularnonaukowy „Horyzont zdarzeń”. Stale współpracuje z „TP”.

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp kwartalny

Kwartalny dostęp do TygodnikPowszechny.pl
  • Natychmiastowy dostęp
  • 92 dni dostępu = aż 13 numerów Tygodnika
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
89,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]
Dziennikarz naukowy, reporter telewizyjny, twórca programu popularnonaukowego „Horyzont zdarzeń”. Współautor (z Agatą Kaźmierską) książki „Strefy cyberwojny”. Stypendysta Fundacji Knighta na MIT, laureat Prix CIRCOM i Halabardy rektora AON. Zdobywca… więcej

Artykuł pochodzi z numeru TP 47/2013