Kiedy maszynie wolno zabić

Śmiercionośne roboty? To nie science-fiction, lecz przedmiot troski międzynarodowej konferencji. Która właśnie pokazała, jak marne są szanse na porozumienie.

04.05.2016

Czyta się kilka minut

Amerykański dron Predator / / East News
Amerykański dron Predator / / East News

Był środek nocy, jadąca polną drogą ciężarówka miała wyłączone światłą. Ale nie mogła się ukryć. Pięć kilometrów dalej skupiły się na niej cyfrowe oczy. Termowizyjne czujniki namierzyły cel. W stronę pojazdu skierowała się lufa wielkokalibrowego karabinu maszynowego.

Gdy samochód zbliżył się na odległość trzech kilometrów, potężny głośnik ryknął po koreańsku: „Zawróć natychmiast, albo otworzymy ogień!”.

To kurtuazja na czas zimnego pokoju. W czasie wojny nikt nie zawracałby sobie zapewne głowy ostrzeżeniami, bez względu na to, co mówi prawo międzynarodowe.

Na ekranie komputera w pobliskim namiocie pojawiła się prośba do operatora. Broń pytała o zgodę na otwarcie ognia. To też swoista kurtuazja. Albo raczej obroża nałożona maszynie, która i bez niej byłaby zdolna zidentyfikować, namierzyć i wyeliminować cel. Na razie koreańskie, autonomiczne wieżyczki strzeleckie Super Aegis 2 pytają o zgodę na użycie broni człowieka, bo o takie zabezpieczenie prosili klienci. Ale prawda jest taka, że era robotów-zabójców – maszyn, których algorytmy sterujące będą decydowały o życiu i śmierci – już nadeszła.

I nikt nie wie, co z tym faktem zrobić.

Regulacji jeszcze długo nie będzie

„Kiedy zaczynaliśmy budować tę firmę, dostrzegliśmy szansę” – mówi w rozmowie z BBC Yangchan Song, dyrektor planowania strategicznego DoDAAM, firmy stojącej za wieżyczkami. „Automatyczna broń to przyszłość. Postęp jest błyskawiczny. Przeszliśmy już etap urządzeń zdalnie sterowanych; teraz opracowujemy inteligentne urządzenia, które mogą same podejmować decyzje”.

Isaac Asimov, arcymistrz science fiction, opracował kiedyś słynne „trzy prawa robotyki”. Pierwsze, najważniejsze z nich brzmiało: „robot nie może skrzywdzić człowieka, ani przez swoją bezczynność dopuścić do tego, aby człowiekowi stała się krzywda”. Ale w czasach, w których ważniejsze od etyki są „efektywność fiskalna” i „względy bezpieczeństwa”, taki idealizm nie wystarczy.

W ubiegłym tygodniu w Genewie spotkali się dyplomaci z całego świata. Obiektem ich troski były właśnie roboty-zabójcy. Albo, w terminologii prawniczej, śmiercionośne, autonomiczne systemy uzbrojenia występujące pod skrótem LAWS. Genewska konferencja miała być szansą na ustalenie wspólnego stanowiska rządów w kwestii uregulowania rozwoju i wykorzystywania podobnej broni. Zamiast tego pokazała, że zapewne długo żadnych regulacji się nie doczekamy.

Jest jeden wspólny wniosek. Większość uczestników zgadza się, że LAWS powinny podlegać międzynarodowym konwencjom tak, jak żywi żołnierze. Muszą rozróżniać bojowników od cywilów, muszą stosować zasadę proporcjonalnej odpowiedzi. Wreszcie, to ich dowódcy będą ponosić odpowiedzialność za czyny podejmowane przez maszyny. Żaden robot nie trafi do Hagi jako oskarżony o zbrodnie wojenne.

Ale poza tym polem porozumienia dyskusja wciąż trwa. Pakistan i Palestyna chcą zakazu stosowania nawet broni zdalnie sterowanej, takiej jak używane już powszechnie uzbrojone drony. Wielka Brytania chce wyposażania maszyn w „kalkulator etyczny” – oprogramowanie, które będzie sprawdzało, czy planowany atak jest legalny z punktu widzenia prawa międzynarodowego. Francuzi dopuszczają wprowadzenie do użycia autonomicznej broni, której człowiek nie musi za każdym razem wydawać zgody na atak, a która, zamiast tego, stosuje się do ustalonych wcześniej reguł wybierając i autonomicznie atakując cele. Zdaniem zwolenników takich systemów, są one bezpieczniejsze i bardziej etyczne od żywych żołnierzy: robot nie podlega emocjom, nie działa w strachu, nie mści się ani nie jest zmęczony. Jakkolwiek odpychająco by to nie brzmiało, podejmuje decyzje o zabiciu człowieka na zimno. Logicznie i zgodnie z zaprogramowanymi kryteriami.

Spóźnione na wstępie

Ale to z kolei budzi poważne obawy grupy kilkunastu krajów z Watykanem na czele, które uważają, że decyzję o wykorzystaniu śmiercionośnej siły zawsze musi podejmować człowiek. Bo autonomiczne systemy, pozbawione sumienia, zawsze będą zbyt nieprzewidywalne. Nie rozumieją ludzkich zachowań i mogą błędnie interpretować niegroźne sytuacje. A w chaotycznych, nielogicznych sytuacjach, które w strefach wojny są raczej normą niż wyjątkiem, mogą podejmować błędne decyzje z tragicznymi skutkami.

Szczególne lęki budzi – na razie potencjalne – opracowanie broni sterowanej przez algorytmy myślenia maszynowego: programy, które – podobnie jak AlphaGo, który niedawno pokonał ludzkiego arcymistrza gry go – same uczą się wyciągać wnioski i podejmować decyzje. Takie systemy mogą być szybkie, precyzyjne, logiczne, ale czy na pewno chcemy, żeby sztuczna inteligencja, której sposobów myślenia do końca nie rozumiemy odpowiadała za odpalenie międzykontynentalnych rakiet?

Genewskie spotkanie nie miało doprowadzić do spisania konkretnych przepisów. Jeszcze nie. Było raczej sposobem na określenie stanowisk i wyjaśnienie linii podziału między poszczególnymi szkołami postrzegania problemu. Ale widać już, że uregulowanie problemu nie będzie łatwe. A biorąc pod uwagę tempo, w jakim rozwijają się sztuczne inteligencje, jakiekolwiek międzynarodowe decyzje mogą okazać się po prostu spóźnione.

Roboty już działają

Tymczasem DoDAAM, koncern który stworzył wieżyczki Super Aegis chwali się, że sprzedał już ponad 30 sztuk wartych 40 milionów dolarów systemów uzbrojenia. Swoim niestrudzonym i nieludzkim wzrokiem przeczesują przedpola baz sił powietrznych w Zjednoczonych Emiratach Arabskich, pałacu królewskiego w Abu Zabi, zbrojowni w Katarze czy innych strategicznych obiektów w kilku punktach na całym świecie. Na razie cierpliwie czekają na polecenia swoich ludzkich nadzorców. Ale co się stanie, kiedy ktoś zwolni je ze smyczy?

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp kwartalny

Kwartalny dostęp do TygodnikPowszechny.pl
  • Natychmiastowy dostęp
  • 92 dni dostępu = aż 13 numerów Tygodnika
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
89,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]
Dziennikarz naukowy, reporter telewizyjny, twórca programu popularnonaukowego „Horyzont zdarzeń”. Współautor (z Agatą Kaźmierską) książki „Strefy cyberwojny”. Stypendysta Fundacji Knighta na MIT, laureat Prix CIRCOM i Halabardy rektora AON. Zdobywca… więcej