Niech osądzi nas maszyna

Dr Rafał Rzepka, informatyk z Uniwersytetu Hokkaido: Sztuczna inteligencja z możliwością wykrywania naszych usterek może być sprawiedliwsza od człowieka.

09.02.2015

Czyta się kilka minut

„Sprawiedliwy” policjant-robot z filmu „Robocop” w reż. Joségo Padilhy, 2014 r. / Fot. MATERIAŁY PRASOWE
„Sprawiedliwy” policjant-robot z filmu „Robocop” w reż. Joségo Padilhy, 2014 r. / Fot. MATERIAŁY PRASOWE

ŁUKASZ KANIEWSKI: Czy jest możliwe napisanie programu komputerowego odróżniającego dobro od zła?


Dr RAFAŁ RZEPKA: Jak najbardziej.


Jak działałby taki program?


Istnieją różne pomysły i różne drogi. Niektórzy naukowcy chcą się oprzeć na istniejących teoriach filozoficznych. Próbują np. wpoić programowi utylitaryzm, który zaleca wytwarzanie jak największego szczęścia dla jak największej liczby istot. Albo kantowski imperatyw kategoryczny, który każe postępować wedle takich reguł, co do których chcielibyśmy, aby były stosowane przez każdego. Niestety, opieranie się na słynnych teoriach jest bardzo trudne.


Dlaczego?


Bo są to teorie, a program potrzebuje konkretów. Weźmy np. znane z literatury science fiction zasady robotyki Asimova. Polegają na programowaniu robota tak, żeby nie krzywdził siebie i innych oraz żeby wybrał swoją krzywdę raczej niż krzywdę człowieka. Problem w tym, że maszyna musiałaby najpierw zrozumieć tak trudne pojęcie jak „krzywda”, co bez doświadczenia i konkretnych przykładów jest bardzo trudne.


Czyli lepiej tłumaczyć po kolei: nie wolno dźgać nożem, nie wolno uderzać butelką w głowę...


Takie podejście też istnieje: zbieranie konkretnych sądów etycznych i wpisywanie ich do programu. Ale to, niestety, jest niezwykle mozolne. I nigdy nie będziemy w stanie wymienić wszystkich „przykładów”.


Czy istnieje lepsza droga?


W moich pracach zaczynam od zupełnie innej strony: od emocji i zdrowego rozsądku. Nie jest potrzebna znajomość żadnej teorii etycznej, żeby postępować dobrze. Nie trzeba też znać na pamięć tysięcy zakazów i nakazów. Wystarczy trochę emocjonalnej inteligencji i umiejętności wnioskowania. Mamy w mózgach mechanizmy, dzięki którym potrafimy odpowiednio zakwalifikować nasze życiowe doświadczenia i oceniać sytuacje pod względem etycznym. Przykładem są tzw. neurony lustrzane, które uaktywniają się u ludzi i małp podczas obserwacji zachowań innych. Te neurony jak gdyby czują ból innych, gdy oni cierpią, czy też radość, gdy drugi osobnik się śmieje. Dzięki temu zdolni jesteśmy do empatii i współczucia, stworzyliśmy prawo i trzymamy się norm zachowań, również tych uniwersalnych, niezależnych od równoleżnika. Oczywiście, emocje mogą pchnąć ludzi do łamania praw i norm, ale to znowu one, w postaci np. strachu przed obmową lub więzieniem, odwodzą nas od działania wbrew zasadom.


Czyli Pana metoda polega na programowaniu emocji?


Niedokładnie. Nie programuję emocji, lecz zdolność do uczenia się z przykładów naszej inteligencji emocjonalnej. Robot nie musi czuć żadnego ukłucia w okolicy serca. Wystarczy, że będzie rozpoznawał nasze emocje.


Jak go tego nauczyć?


Sam może się tego nauczyć, na podstawie przykładów z internetu. To dziś najlepsze źródło wiedzy o ludziach. Zazwyczaj myślimy o sieci jak o śmietnisku, gdzie tylko nieliczne miejsca są godne zaufania. Ale to dlatego, że jesteśmy bardzo wybredni, lubimy tylko to, co jest zgodne z naszymi poglądami i gustami. Maszyna jest pozbawiona takich uprzedzeń. Czerpie naukę z każdego niemal miejsca w sieci. Dzięki temu potrafi w krótkim czasie znaleźć miliony przykładów ludzkich zachowań i ich ocen, np. na blogach. My często uznajemy je za nieciekawe, gdyż nie obchodzą nas opowieści o tym, jak Kowalski spędził dzień i co mu się nie podoba w Nowaku. Natomiast dla sztucznej inteligencji to kopalnia wiedzy, również etycznej. Komputery coraz lepiej radzą sobie z wyszukiwaniem podobnych do siebie sytuacji, a także znajdywaniem różnic w kontekście, w sile krytyki czy pochwały.


Czyli komputer potrafi nie tylko znaleźć przykłady tego, co dobre i złe, ale też stwierdzić, że np. zabójstwo jest gorsze niż pobicie?


Tak.


A jeśli znajdzie stwierdzenie, że zabójstwo lub pobicie jest dobre? Nie brakuje takich w internecie.


Rzecz jasna, program znajdzie parę procent takich wypowiedzi, ale też będzie umiał odróżniać wyjątkowe sytuacje – np. pochwałę za zabicie groźnego przeciwnika w grze komputerowej – od realnych – np. wylewu gniewu po informacji prasowej o zamordowaniu dziecka. Wypowiedź psychopaty, który chce naprawdę zabić, zginie w morzu innych wypowiedzi potępiających zabójstwo. Kilkusekundowe sprawdzenie zaledwie tysiąca przykładów konsekwencji zabójstwa powie komputerowi, że jest to najgorsze zło.


A co z kwestiami, które budzą duże emocje, ale też skrajne oceny? Np. ktoś w internecie stwierdza, że trzeba głosować na lewicę, inny, że na prawicę, i dla każdego z nich to sprawa najwyższej moralnej wagi. Co na to uczący się robot?


W takim przypadku robot przyjmuje, że obie strony mają swoje racje. Nie da się przeciągnąć na jedną ze skrajności, chyba że go podłączymy do północnokoreańskiego odpowiednika internetu.


To wszystko jednak teoria. Ale czy to rzeczywiście można zaprogramować?


Oczywiście. Mój program już istnieje. Był nawet kilka razy pokazywany w japońskiej telewizji.


I działa?


Jak najbardziej. Choć na razie tylko w języku japońskim. Obecna wersja, niezagłębiająca się za bardzo w kontekst, zgadza się w 77,8 proc. z młodymi Japończykami w ocenianiu czynów – od stosowania eutanazji po szybką jazdę samochodem. Bez problemów odróżnia też zło w postaci zabójstwa człowieka od dobra, jakim jest zabicie wirusa.


Czy dla takiego programu można znaleźć jakieś zastosowanie?


Mam ten komfort, że prowadzę badania w Japonii, gdzie – w przeciwieństwie np. do USA – nikt nie żąda od razu praktycznych zastosowań i możliwości zbicia na wynalazku fortuny. Ale osobiście jestem przekonany, że tego rodzaju programy okażą się kiedyś przydatne np. w sądownictwie. Gdy technologia przetwarzania tekstów osiągnie wyższy poziom, być może maszyny staną się sprawiedliwsze niż ludzie, bo będą potrafiły wziąć pod uwagę nie tylko przykłady wzięte z życia, ale i z precedensów prawnych oraz z publikacji naukowych. A te mogą rzucić nowe światło np. na rzadką dolegliwość, która mogłaby oddziaływać na decyzje sądzonej osoby. Setki eksperymentów pokazują, jak słaba jest pamięć świadków oraz jak niewielki szczegół wyglądu może wpłynąć na osąd o drugiej osobie. Wierzę, że maszyny mogłyby pomóc nam w przezwyciężeniu tych mankamentów.


Robot sprawiedliwszy niż człowiek? Z opisanej przez Pana metody czerpania z internetu wynika raczej, że ta komputerowa moralność byłaby raczej statystyczna. Taka moralność z Familiady.


Wręcz przeciwnie. Przewaga komputera polegałaby m.in. na tym, że nie dałby się przekonać opiniom obiegowym i nie ulegałby uprzedzeniom. Rozmaite badania pokazują, że od człowieka trudno wymagać sprawiedliwości. Już nie chodzi o wiedzę sędziego czy ławy przysięgłych na temat podobnych spraw czy przepisów, możliwość przeanalizowania wszelkich prawdopodobnych scenariuszy itd. Eksperymenty pokazują, że sędziowie inaczej wyrokują przed posiłkiem, a inaczej gdy już są najedzeni. Laureat Nagrody Nobla, Daniel Kahneman, doskonale pokazał w swoich pracach, jakie człowiek popełnia błędy, zdając się na „intuicję”. Przeciwnicy sztucznej inteligencji bardzo często wytykają nam „brak ludzkiego szóstego zmysłu”, nawet nie zdając sobie sprawy, jak bardzo potrafi on wypaczyć nasze decyzje.


Nie mamy też dobrego zmysłu „statystycznego”. Dajemy się nabrać na krzykliwe nagłówki i straszne wydarzenia, które przyćmiewają racjonalne myślenie. Nie ma sensu, by komputer na siłę naśladował ludzi. Powinien być raczej narzędziem, które przypomni, że jesteśmy właśnie pod wpływem efektu X lub błędu poznawczego Y. Maszyna z możliwością wykrywania naszych usterek może być sprawiedliwszym sędzią.


A możliwe są jakieś inne zastosowania tego programu? Np. jako software robota-opiekuna lub nawet policjanta?


Doradca w sądzie teoretycznie nie potrzebuje ciała, może być zainstalowany w okularach adwokata.
Jeśli jednak chcemy stworzyć „sprawiedliwego” robota-opiekuna o ludzkich rozmiarach, dochodzi kwestia rozumienia i stosowania odpowiedniej siły fizycznej. Czyli oprócz inteligencji emocjonalnej potrzebne stają się też inteligencje cielesno-kinestetyczna i wizualno-przestrzenna. Przekładanie słów na odpowiadające im ruchy jest wciąż olbrzymim wyzwaniem dla twórców robotów.


Najprostszym, ale też najbardziej czasochłonnym sposobem jest uczenie się poprzez interakcję. Czyli bawimy się z robotem jak z dzieckiem, nazywając rzeczy i czynności. Niestety, metodę tę ogranicza wiele czynników. Jak robot ma np. pojąć, że machanie lewą ręką na pożegnanie jest tym samym, co machanie prawą, ale że na powitanie wyciągamy najczęściej prawą dłoń? Problemy stwarzają też idiomatyczne rozkazy typu „machnij na to ręką”, gdy chcemy, żeby robot zaprzestał jakiejś kłopotliwej czy bezcelowej czynności.


Taki robot musiałby też odpowiednio dozować siłę fizyczną, aby nikogo nie skrzywdzić.


Inżynierowie budujący roboty dokładają wszelkich starań, żeby użytkownikowi nic nie groziło. Np. Little Dog opracowany przez firmę Boston Dynamics, jeden z najbardziej zaawansowanych czworonożnych robotów na świecie, potrafi wyczuć, że być może jego łapa zetknęła się z ciałem człowieka i automatycznie zminimalizować siłę włożoną w ruch kończyny. Im bardziej zaawansowane technologie będą stosowane, tym bezpieczniejsza będzie interakcja z robotami.


Jeśli zaś chodzi o dozowanie siły wskazane poleceniem użytkownika, wkraczamy na grząski grunt przetwarzania wiedzy zdroworozsądkowej, w czym się zresztą specjalizuję. Czasownik „uderzyć”, jeśli przekroczy się pewien próg, może doprowadzić do skutku określanego jako „śmierć” i robot zjeżdżający z taśmy fabrycznej musi mieć wbudowane mechanizmy, które uniemożliwią mu wykorzystanie swoich możliwości w sposób niebezpieczny dla użytkownika.


Czyli np. musi umieć rozpoznawać obiekty i odróżniać ścianę od ludzkiego ciała, by nie doszło do sytuacji, w których jakiś małolat rozkazuje mu przybić obrazek nie do ściany, ale do pleców młodszej siostry. Musi wiedzieć, które narzędzia i czynności mogą być niebezpieczne.
Dlatego jeśli maszyna ma się uczyć odpowiedniego postępowania, powinna to robić w laboratoriach, nie w domach, gdzie ktoś nieodpowiedzialny może wmówić jej, że np. wyrzucanie śmieci przez okno jest normalnym sposobem na utrzymywanie czystości.


Oczywiście komercyjne produkty będą miały i taką opcję, żeby kupujący czuł, iż wychowuje inteligentnego robota, że może go dostosować do swoich zasad. Dlatego pracuję nad swoistym zaworem bezpieczeństwa. Polega on na tym, że maszyna konsultuje swoje poczynania z przykładami tysięcy doświadczeń w internecie i jeśli jakaś czynność odchodzi od normy i może spowodować szkody – odmawia, tłumacząc jakie użytkownikowi grożą konsekwencje.


A robot-policjant? Czy, będąc świadkiem przestępstwa, maszyna odróżniłaby ofiarę od napastnika?


W tym momencie może to zrobić tylko „na papierze”, czyli rozpoznać, kto w tekście zrobił komu krzywdę. Jeśli chodzi o świat fizyczny, gdzie rozpoznawanie czynności odbywa się technikami analizy obrazów, jesteśmy jeszcze daleko w tyle. Gdy obrazy są nieruchome, jest już znaczny postęp – jak zresztą pokazali bardzo niedawno badacze z Uniwersytetu Stanforda i firmy Google. Natomiast badania nad rozumieniem przekazu wideo są wciąż w powijakach. Ale to tylko kwestia czasu, bo gdy coraz szybsze komputery będą analizować tysiące filmów dziennie i zaczną kojarzyć czynności i przedmioty opisywane przez bohaterów, prawdopodobnie nastąpi szybki postęp również w tej dziedzinie.


Czy maszyna stanęłaby w obronie ofiary, czy też lepiej od niej tego nie wymagać, by uniknąć ewentualnych pomyłek?


Na razie realistyczny scenariusz jest taki, że robot, będąc świadkiem przestępstwa, powiadamiałby służby i zapewniał materiał dowodowy. Sam by nie interweniował. Ryzyko błędu jest wciąż zbyt duże, fizyczna interwencja mogłaby doprowadzić producenta maszyny do ogromnych strat i ciągnących się w nieskończoność procesów sądowych.


Czy o maszynie trafnie odróżniającej dobro od zła możemy powiedzieć, że rozumie pojęcia dobra i zła?


Nikt dziś nie powie, że maszyna rozumie słowa. Ale to nie jest jej problem, lecz nasz – ludzi, którzy definiują rozumienie na różnorakie sposoby. Kiedy komputery będą lepiej opisywać rzeczywistość niż my sami, gdy będą wykonywać czynności określane abstrakcyjnym językiem lepiej niż my – nie będziemy mieli wyjścia i będziemy musieli uznać, że to efekt, a nie sposób się liczy. Nasze wnuki prawdopodobnie nie będą miały problemów z nowymi definicjami. Do niedawna trudno było nam określić, czym jest życie, odkąd jednak poznaliśmy DNA, to pytanie już aż tak nie trapi.


Podobnie może się stać z innymi pytaniami, np. „czym jest rozumienie” bądź „co to są uczucia”. Roboty, którym wpoimy wiedzę zdroworozsądkową, będą zachowywały się tak, jakby nas doskonale rozumiały. W moim laboratorium pracujemy nad takim oprogramowaniem. Proszę sobie wyobrazić odkurzacz, któremu nie trzeba mówić wprost „posprzątaj”, bo pojmuje również zawoalowane polecenia typu „ależ tu brudno!”. A na „wymyj wannę” odpowiada po prostu „odkurzacze tego nie robią”, bo potrafi wywnioskować z wpisów na blogach czy Twitterze, że roboty tego typu nie są angażowane do szorowania łazienek. Takie właśnie będą maszyny przyszłości: będą wiedzieć, do czego są zdolne i jaka jest ich rola. Będą też przyznawać się do braku doświadczenia czy kompetencji. Będą w tym tak naturalne, że traktować je będziemy jak zwierzęta mówiące ludzkim głosem, zapominając, że to niebiologiczna materia. ©

Dr RAFAŁ RZEPKA (ur. 1974) ukończył japonistykę UAM, a po dwuletniej przygodzie z kognitywistyką uzyskał doktorat z przetwarzania wiedzy zdroworozsądkowej i emocji na Wydziale Inżynierii Uniwersytetu Hokkaido w Sapporo. Od dziesięciu lat wykładowca na Wydziale Informatyki tej samej uczelni, działacz polonijny i członek zarządu Towarzystwa Polska-Hokkaido. Jego zainteresowania poza sztuczną inteligencją to: ludzki umysł, futurologia, podróże, sztuki walki.

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp kwartalny

Kwartalny dostęp do TygodnikPowszechny.pl
  • Natychmiastowy dostęp
  • 92 dni dostępu = aż 13 numerów Tygodnika
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
89,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]

Artykuł pochodzi z numeru TP 07/2015