Szanowny Użytkowniku,

25 maja 2018 roku zaczyna obowiązywać Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (określane jako „RODO”, „ORODO”, „GDPR” lub „Ogólne Rozporządzenie o Ochronie Danych”). W związku z tym informujemy, że wprowadziliśmy zmiany w Regulaminie Serwisu i Polityce Prywatności. Prosimy o poświęcenie kilku minut, aby się z nimi zapoznać. Możliwe jest to tutaj.

Rozumiem

Reklama

Kiedy maszynie wolno zabić

Kiedy maszynie wolno zabić

04.05.2016
Czyta się kilka minut
Śmiercionośne roboty? To nie science-fiction, lecz przedmiot troski międzynarodowej konferencji. Która właśnie pokazała, jak marne są szanse na porozumienie.
Amerykański dron Predator / fot. East News
Amerykański dron Predator / East News
B

Był środek nocy, jadąca polną drogą ciężarówka miała wyłączone światłą. Ale nie mogła się ukryć. Pięć kilometrów dalej skupiły się na niej cyfrowe oczy. Termowizyjne czujniki namierzyły cel. W stronę pojazdu skierowała się lufa wielkokalibrowego karabinu maszynowego.

Gdy samochód zbliżył się na odległość trzech kilometrów, potężny głośnik ryknął po koreańsku: „Zawróć natychmiast, albo otworzymy ogień!”.

To kurtuazja na czas zimnego pokoju. W czasie wojny nikt nie zawracałby sobie zapewne głowy ostrzeżeniami, bez względu na to, co mówi prawo międzynarodowe.

Na ekranie komputera w pobliskim namiocie pojawiła się prośba do operatora. Broń pytała o zgodę na otwarcie ognia. To też swoista kurtuazja. Albo raczej obroża nałożona maszynie, która i bez niej byłaby zdolna zidentyfikować, namierzyć i wyeliminować cel. Na razie koreańskie, autonomiczne wieżyczki strzeleckie Super Aegis 2 pytają o zgodę na użycie broni człowieka, bo o takie zabezpieczenie prosili klienci. Ale prawda jest taka, że era robotów-zabójców – maszyn, których algorytmy sterujące będą decydowały o życiu i śmierci – już nadeszła.

I nikt nie wie, co z tym faktem zrobić.

Regulacji jeszcze długo nie będzie

„Kiedy zaczynaliśmy budować tę firmę, dostrzegliśmy szansę” – mówi w rozmowie z BBC Yangchan Song, dyrektor planowania strategicznego DoDAAM, firmy stojącej za wieżyczkami. „Automatyczna broń to przyszłość. Postęp jest błyskawiczny. Przeszliśmy już etap urządzeń zdalnie sterowanych; teraz opracowujemy inteligentne urządzenia, które mogą same podejmować decyzje”.

Isaac Asimov, arcymistrz science fiction, opracował kiedyś słynne „trzy prawa robotyki”. Pierwsze, najważniejsze z nich brzmiało: „robot nie może skrzywdzić człowieka, ani przez swoją bezczynność dopuścić do tego, aby człowiekowi stała się krzywda”. Ale w czasach, w których ważniejsze od etyki są „efektywność fiskalna” i „względy bezpieczeństwa”, taki idealizm nie wystarczy.

W ubiegłym tygodniu w Genewie spotkali się dyplomaci z całego świata. Obiektem ich troski były właśnie roboty-zabójcy. Albo, w terminologii prawniczej, śmiercionośne, autonomiczne systemy uzbrojenia występujące pod skrótem LAWS. Genewska konferencja miała być szansą na ustalenie wspólnego stanowiska rządów w kwestii uregulowania rozwoju i wykorzystywania podobnej broni. Zamiast tego pokazała, że zapewne długo żadnych regulacji się nie doczekamy.

Jest jeden wspólny wniosek. Większość uczestników zgadza się, że LAWS powinny podlegać międzynarodowym konwencjom tak, jak żywi żołnierze. Muszą rozróżniać bojowników od cywilów, muszą stosować zasadę proporcjonalnej odpowiedzi. Wreszcie, to ich dowódcy będą ponosić odpowiedzialność za czyny podejmowane przez maszyny. Żaden robot nie trafi do Hagi jako oskarżony o zbrodnie wojenne.

Ale poza tym polem porozumienia dyskusja wciąż trwa. Pakistan i Palestyna chcą zakazu stosowania nawet broni zdalnie sterowanej, takiej jak używane już powszechnie uzbrojone drony. Wielka Brytania chce wyposażania maszyn w „kalkulator etyczny” – oprogramowanie, które będzie sprawdzało, czy planowany atak jest legalny z punktu widzenia prawa międzynarodowego. Francuzi dopuszczają wprowadzenie do użycia autonomicznej broni, której człowiek nie musi za każdym razem wydawać zgody na atak, a która, zamiast tego, stosuje się do ustalonych wcześniej reguł wybierając i autonomicznie atakując cele. Zdaniem zwolenników takich systemów, są one bezpieczniejsze i bardziej etyczne od żywych żołnierzy: robot nie podlega emocjom, nie działa w strachu, nie mści się ani nie jest zmęczony. Jakkolwiek odpychająco by to nie brzmiało, podejmuje decyzje o zabiciu człowieka na zimno. Logicznie i zgodnie z zaprogramowanymi kryteriami.

Spóźnione na wstępie

Ale to z kolei budzi poważne obawy grupy kilkunastu krajów z Watykanem na czele, które uważają, że decyzję o wykorzystaniu śmiercionośnej siły zawsze musi podejmować człowiek. Bo autonomiczne systemy, pozbawione sumienia, zawsze będą zbyt nieprzewidywalne. Nie rozumieją ludzkich zachowań i mogą błędnie interpretować niegroźne sytuacje. A w chaotycznych, nielogicznych sytuacjach, które w strefach wojny są raczej normą niż wyjątkiem, mogą podejmować błędne decyzje z tragicznymi skutkami.

Szczególne lęki budzi – na razie potencjalne – opracowanie broni sterowanej przez algorytmy myślenia maszynowego: programy, które – podobnie jak AlphaGo, który niedawno pokonał ludzkiego arcymistrza gry go – same uczą się wyciągać wnioski i podejmować decyzje. Takie systemy mogą być szybkie, precyzyjne, logiczne, ale czy na pewno chcemy, żeby sztuczna inteligencja, której sposobów myślenia do końca nie rozumiemy odpowiadała za odpalenie międzykontynentalnych rakiet?

Genewskie spotkanie nie miało doprowadzić do spisania konkretnych przepisów. Jeszcze nie. Było raczej sposobem na określenie stanowisk i wyjaśnienie linii podziału między poszczególnymi szkołami postrzegania problemu. Ale widać już, że uregulowanie problemu nie będzie łatwe. A biorąc pod uwagę tempo, w jakim rozwijają się sztuczne inteligencje, jakiekolwiek międzynarodowe decyzje mogą okazać się po prostu spóźnione.

Roboty już działają

Tymczasem DoDAAM, koncern który stworzył wieżyczki Super Aegis chwali się, że sprzedał już ponad 30 sztuk wartych 40 milionów dolarów systemów uzbrojenia. Swoim niestrudzonym i nieludzkim wzrokiem przeczesują przedpola baz sił powietrznych w Zjednoczonych Emiratach Arabskich, pałacu królewskiego w Abu Zabi, zbrojowni w Katarze czy innych strategicznych obiektów w kilku punktach na całym świecie. Na razie cierpliwie czekają na polecenia swoich ludzkich nadzorców. Ale co się stanie, kiedy ktoś zwolni je ze smyczy?

Autor artykułu

Dziennikarz naukowy, reporter Polsat News, gdzie prowadzi autorski program popularnonaukowy „Horyzont zdarzeń”. Stale współpracuje z „Tygodnikiem Powszechnym”. Pasjonat wszystkiego, co lata...

Dodaj komentarz

Usługodawca nie ponosi odpowiedzialności za treści zamieszczane przez Użytkowników w ramach komentarzy do Materiałów udostępnianych przez Usługodawcę.

Zapoznaj się z Regułami forum
Jeśli widzisz komentarz naruszający prawo lub dobre obyczaje, zgłoś go klikając w link "Zgłoś naruszenie" pod komentarzem.

Mam pomysł na scenariusz SF: Obca cywilizacja chce opanować ziemię, tanio, elegancko, bez większych zniszczeń, przede wszystkim tanio przy jak najmniejszym własnym zaangażowaniu. Podrzucają ziemianom elementy własnych technologii, jednocześnie pozostają w ukryciu i sami siebie firmują jako bogowie wszelkich maści. Ludzie tworzą technologie które są w stanie nadzorować całą ziemię i która skutecznie ich sama utrzyma w określonych "kurnikach". Religijni wszelkiej maści skutecznie dobiją wszelkie najdrobniejsze próby rebelii jako wystąpienia przeciw "cudownym bogom". Technologie kiedy będzie jej wystarczająco dużo Obcy po prostu przejmą i będzie pozamiatane. Piękny wspaniały "kurnik" który zrobił się sam.
Zaloguj się albo zarejestruj aby dodać komentarz

© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]