Ukryte myśli robota

Wszyscy wiedzą, że można zbudować robota, który sprząta. Czy można jednak zbudować takiego, który nie tylko posprząta, ale także o tym pomyśli?

10.11.2019

Czyta się kilka minut

W kawiarni w Tokio można zostać obsłużonym przez robota. Nie są one autonomiczne – zdalnie kontrolują je z domów osoby niepełnosprawne ruchowo. / KYODO NEWS / GETTY IMAGES
W kawiarni w Tokio można zostać obsłużonym przez robota. Nie są one autonomiczne – zdalnie kontrolują je z domów osoby niepełnosprawne ruchowo. / KYODO NEWS / GETTY IMAGES

Współczesne roboty sprzątające w większości opierają się na koncepcji robotyki behawioralnej, promowanej przez Rodneya Brooksa od lat 80. XX w. Te roboty po prostu przemieszczają się po podłodze, reagując na przeszkody zmianą toru swojej trasy. Nie analizują danych z sensorów, by potem planować działanie. Nie muszą posiadać centrali podejmującej decyzje, a jedynie wiele warstw sterujących, które reagują na różnego rodzaju zmiany otoczenia (odbicie od ściany, utknięcie kółek robota na zbyt wysokim stopniu).

Brooks promował takie podejście w opozycji do powolnych robotów działających w sztucznym środowisku. Takim robotem był np. Shakey, który poruszał się w świecie klocków. Umiał je opisywać i nawet przestawiać w odpowiedzi na polecenia w uproszczonym języku angielskim. Problem w tym, że bez sztucznie wyolbrzymionych krawędzi i jaskrawych kolorów Shakey się gubił.

Roboty Brooksa, mówiąc językiem bardziej technicznym, mają działać w naszym zwyczajnym otoczeniu bez reprezentacji poznawczych, a jedynie reagując na zmiany w otoczeniu. Zamiast reprezentacji – wykorzystywanych w myśleniu struktur poznawczych, będących jakimś odbiciem odbieranej rzeczywistości – robotowi wystarczy próbkowanie stanu otoczenia. Może więc po prostu krążyć po podłodze, aż natknie się na przeszkodę, którą może wykryć, gdy w wyniku zderzenia z nią zewrze się styk ukryty w jego obudowie. Brooks podsumowuje to tezą, że świat dla tego robota jest swoim najlepszym modelem.

Koncepcja Brooksa stoi jednak na antypodach tego, co większość kognitywistów uważa za kluczowe dla procesów poznawczych – inteligencja ma pojawiać się, wedle niego, bez reprezentacji. Być może robot sprzątający ich nie potrzebuje, ale krytycy dawno wskazali, że samo próbkowanie otoczenia na nic się nie zda, gdy chcemy na przykład pomyśleć o wszystkich samochodach, których cena spadła w ostatnich dwóch tygodniach. Pomijając te, które uczestniczyły w wypadkach, cała reszta może nie mieć żadnych innych wspólnych cech wykrywalnych zmysłowo. Trudno też sobie wyobrazić, że taki robot będzie w stanie zagrać w szachy, a nawet zaplanować sprzątanie w sposób bardziej systematyczny.

Czego jednak brakuje prostym sprzątaczom? Zauważmy, że odbijający się od krzesła robot Brooksa nie może pomyśleć o prezentach od Dziadka Mroza, a my możemy, chociaż ten ostatni jegomość nie istnieje. Nie może też uczyć się sprzątać coraz lepiej, zauważając na przykład, że jego właściciel często brudzi podłogę kawą blisko lodówki.

Zagadka intencjonalności

W XIX w. do filozofii, a potem do innych gałęzi nauki powróciło średniowieczne pojęcie „intencjonalności”. Stało się to za sprawą Franza Brentana, który sądził, że tylko psychika jest w stanie odnosić się do czegoś innego niż ona sama (to właśnie oznacza intencjonalność). Takie odniesienie, nawet do fikcji, miało być charakterystyczne dla psychiki – i odróżniać ją od świata fizycznego.

Dzisiaj w ten pomysł Brentana – oddzielenia psychiki od fizyki za sprawą intencjonalności – niewielu wierzy. Jest tak z kilku powodów. Po pierwsze, są stany psychiczne, które do niczego się nie odnoszą – a przynajmniej sądzimy tak o niektórych stanach emocjonalnych. Głęboka depresja nie jest „na temat” świata. Rozdrażnienie może mieć przyczyny, ale niekoniecznie jakiś przedmiot, w odróżnieniu od wyobrażeń – które zawsze są o czymś. Po drugie, istnieją znaki naturalne, takie jak słoje w drewnie czy zamarzanie wody w kałuży, które wskazują odpowiednio na wiek drzewa czy spadek temperatury powietrza poniżej zera. A przecież kałuże czy słoje w drewnie nie myślą. Po trzecie zaś, marzenie o oddzieleniu psychiki od świata fizycznego jest dla współczesnej nauki dosyć obce. Staramy się w końcu zrozumieć, jak to możliwe, że fizyczny umysł jest intencjonalny.

Jednak nie jest wcale oczywiste, co trzeba by zamontować w robocie, żeby stał się intencjonalny. Jeśli główny nurt kognitywistyki słusznie postrzega procesy poznawcze zwierząt i ludzi w kategoriach przetwarzania reprezentacji poznawczych, to nie powinno być to niemożliwe. Pytanie tylko, jak to zrobić.

Reprezentacje poznawcze wymagają istnienia pewnych fizycznych nośników: podobnie słoje w drewnie nie zaistnieją bez drewna. Musi być jakieś fizyczne podłoże: w robocie oczywiście będą to struktury danych, wykorzystywane do wykonywania operacji obliczeniowych (roboty Brooksa są przecież nafaszerowane sterującą elektroniką). To jednak za mało, aby powstała reprezentacja czegokolwiek: nawet jeśli na zmiany stanu tego nośnika coś reaguje, to ten nośnik musi cechować się intencjonalnością. Musi być o czymś.

Pisane przeze mnie teraz znaki alfabetu łacińskiego składają się w zdania, które są o czymś. Ale tylko dzięki mnie oraz czytającym je osobom. Same z siebie jeszcze nic nie znaczą. Pismo to jednak system znaków konwencjonalnych, które możemy dobierać dowolnie i zmieniać. A co z myśleniem?

Ponieważ to my tworzymy robota, moglibyśmy wyposażyć go w taki alfabet i go interpretować. Robot rysowałby literkę A, a nawet zdanie „Ala ma kota”, ale nie wiedziałby, że pisze o Ali i jej kocie. To się nadal niespecjalnie różni od napisania czegoś przez nas na kartce. Sama kartka nic nie wie. Nasze zadanie jest trudniejsze: co zrobić, żeby robot wiedział, co myśli?

Gwizdek w czajniku

Warto znowu wrócić do słojów w drewnie, bo one nie mają psychicznej natury, a jednak coś znaczą – bo coś wskazują. Teoretycy informacji semantycznej, tacy jak amerykański filozof Fred Dretske, uważają, że takie naturalne wskaźniki to znakomity punkt wyjścia dla teorii znaczenia reprezentacji poznawczych. Może impulsy w sieciach nerwowych właśnie przypominają wskaźniki?

Zadanie nam się upraszcza, ale musimy jeszcze powiedzieć, dzięki czemu coś jest wskaźnikiem. Dretske ma prostą odpowiedź: odpowiedni sygnał odbieramy jako wskaźnik pewnej własności, jeśli pojawienie się tego sygnału w momencie wystąpienia tej własności jest pewne. Mówiąc inaczej, istnieje jakiś bardzo silny związek między sygnałem a tą własnością. Może to być np. prawo przyrody; to dlatego przecież woda w kałuży zamarza.

Takie wskaźniki na pewno są już w robocie Brooksa. Przecież odbija się on od przeszkód, bo ma sensory, a te sensory wskazują obecność przeszkód. Żeby robot myślał o sprzątaniu, musiałby mieć wskaźnik sprzątania. To mógłby być po prostu wskaźnik uruchomienia robota: skoro jest włączony, to sprząta, a świecąca dioda podczas sprzątania wskazuje, że robot myśli o sprzątaniu. Zrobione!

Czyżby? A może robot myśli o tym, że jest włączony? I czy ta świecąca dioda wpływa na cokolwiek w samym robocie, czy jest też niczym gwizdek w czajniku, który nie powoduje gotowania wody, lecz go tylko sygnalizuje?

Informacja semantyczna

Problem wcale nie jest banalny. Nawet gdyby do sensorów robota dodać kamerę, to wcale nam to nie pomoże. Jasne, zdjęcie zapisze się w jego elektronice, a to zdjęcie będzie opisywać strukturę otoczenia (w zakresie fal widzialnych). Takie reprezentacje kognitywiści nazywają „analogicznymi” lub „strukturalnymi”, bo opisują one strukturę rzeczywistości – do ich zaistnienia wymagany jest nie tyle bardzo silny związek sygnału z tym, co ten sygnał wskazuje, ile podobieństwo struktury sygnału do tego, co on opisuje.

Czy wyjdziemy więc od wskazywania, czy od podobieństwa, problem jest ten sam: jak sprawić, żeby robot mógł sam z siebie korzystać z informacji dostarczanej mu przez sensory, a także wytwarzać nowe stany informacyjne na jakiś temat. Informację, którą możemy opisać nie tylko ilościowo (co czyni się w matematycznej teorii komunikacji Claude’a Shannona), ale także pod względem jej znaczenia, nazywamy „semantyczną”. Taka informacja może być prawdziwa. Wskaźniki czy podobizny są nośnikami informacji semantycznej. Słoje w drewnie informują prawdziwie, ile lat ma drzewo, a dobre zdjęcie przestępcy informuje nas poprawnie, jak on wygląda.

Żeby jednak informacja semantyczna stała się reprezentacją poznawczą, musi być spełnionych więcej warunków. Przecież wbicie w robota palika z drewna (ze słojami!) nie spowoduje, że robot pozna wiek drzewa, choćby ten palik dokładnie to wskazywał. Robot nie może bowiem odpowiednio skorzystać z takiej informacji semantycznej. Współczesne teorie znaczenia mają za zadanie dokładnie opisać warunki, które muszą spełniać nośniki informacji semantycznej, byśmy uznali je za reprezentacje poznawcze.

Tam nie ma nektaru

Dominująca współcześnie w kognitywistyce teoria znaczenia wywodzi się z prac amerykańskiej filozofki Ruth Millikan. Filozofka określa ją mianem „teleosemantyki”, gdyż wymaga w niej, by nośniki informacji semantycznej miały odpowiednie funkcje, które technicznie określa się mianem „funkcji teleologicznych” (czyli celowych, gr. telos oznacza właśnie cel).

Warto wyjść od jednego z prostych przykładów systemów komunikacyjnych, jakim posługuje się Millikan. Karl von Frisch (1886–1982), austriacki biolog, dostał w 1973 r. Nagrodę Nobla za opisanie systemu komunikacji pszczół: pszczoły powracające do ula wykonują w nim swoisty taniec, który jest komunikatem dla innych robotnic. Dzięki niemu mogą zlokalizować znaleziony przez inne pszczoły nektar i go zebrać. Badacze latami pogłębiali odkrycia von Frischa, które o tyle nie pozostawiają wątpliwości, że wystarczy podsunąć pszczołom posłodzoną wodę w odpowiednim miejscu, aby zauważyć, że powracające do ula pszczoły zmieniają swój taniec, a pozostałe szybko znajdują położenie słodkiej wody. Czyli można doskonale kontrolować ten system eksperymentalnie, nawet poza laboratorium.

Millikan zauważa, że te komunikaty mają nadawcę czy też wytwórcę – jest nim tańcząca pszczoła, a także odbiorców – pozostałe pszczoły. Co więcej, struktura tańca jest przez pszczoły modyfikowana w zależności od położenia nektaru (pszczoła wykona inne ruchy, gdy wróci w samo południe z łąki położonej na północ od ula, a inne, gdy wróci wieczorem z łąki położonej na południe), a więc istnieje pewna reguła pozwalająca określić znaczenie tego tańca.

System komunikacji pszczół, które w porównaniu do człowieka (chociaż może nie robota) są stosunkowo prostymi organizmami, ma kilka cech swoistych. Każdy komunikat należy do specyficznego repertuaru możliwych tańców; być może niektóre nigdy nie zostaną wykonane, bo nektaru w jakimś wybetonowanym miejscu nie ma. Komunikat jest wytwarzany przez pszczołę go nadającą i odbierany przez robotnice chcące polecieć do znalezionego nektaru. W tym sensie te robotnice używają sygnału nadanego przez tańczącą pszczołę, a więc interpretują go. Chociaż potencjalnie ten sygnał mógłby odpowiadać innym cechom rzeczywistości, to tu zostaje on jednoznacznie odebrany: może się zdarzyć, że najwięcej nektaru znajduje się tam, gdzie jest najlepsza gleba, a więc byłaby wątpliwość, czy pszczoły tańczą „na temat” gleby czy nektaru. Użycie sygnału rozwiewa jednak wątpliwości. A przy tym wszystkim system ten odgrywa ogromną rolę w przetrwaniu ula, a więc ma funkcję biologiczną, dzięki której pszczoły istnieją od milionów lat.

Na tym przykładzie widać, jakie elementy musimy dodać, aby robot naprawdę korzystał z informacji semantycznej. Jego sensory (czy inne elementy) mogą generować sygnały, które powinny być wykorzystywane do modyfikacji działań robota; na tym polega użycie sygnału.

Co więcej, te sygnały powinny odgrywać istotną rolę w istnieniu robotów: muszą być wbudowane po to, aby roboty dalej mogły funkcjonować. Sama dioda informująca o włączeniu takiej funkcji nie ma. Co innego, gdyby monitorowanie procesu sprzątania służyło do przewidywania czasu wyczerpania akumulatora i planowania przyjazdu do stacji ładującej. Tego typu rozwiązanie mogłoby być funkcjonalne, gdyż takie roboty byłyby trwalsze (ze względu na żywotność systemu zasilania).

Ale nadal można mieć wątpliwość. Kiedy robot naprawdę wykorzystuje sygnał dotyczący sprzątania? Albo inaczej – czy gdyby do ula wleciał miniaturowy robot o kształcie pszczoły, wykonujący specjalnie mylący taniec, to czy inne pszczoły zorientowałyby się, że ten taniec jest błędny? Może więc jednak czegoś jeszcze brakuje w tym systemie: wrażliwości na trafność czy też prawdziwość reprezentacji.

Sukces i prawda

Z jednej strony, nie sposób inaczej wyjaśnić, jak pszczoły dostają się do nektaru, niż tylko przez wskazanie, że ich tańce poprawnie wskazują lokalizację nektaru. Sukces działania pszczół zależy od tego, czy te tańce naprawdę wskazują nektar. Z drugiej strony, można mieć wątpliwości, czy zachowanie pszczół różni się od typowych taksji – czyli dążenia do pewnych typowych bodźców. Wiele gatunków roślin cechuje się fototaksją, czyli zwraca się w stronę większego nasłonecznienia. Mało kto uzna, że takie rośliny w ogóle reprezentują słońce czy światło. Po prostu na nie reagują. A pszczoły?

Gdyby pszczoły były w stanie w jakiś sposób zorientować się, że taniec niesie fałszywy komunikat, czyli jakoś go weryfikować, to trudno byłoby zaprzeczyć, iż jest on dla nich reprezentacją. Wtedy bowiem dopiero powiemy, że reprezentacja jest dostępna dla danego jej użytkownika, gdy ten ma dostęp do jej znaczenia – a więc przynajmniej czasem zna jej adekwatność czy trafność.

Sprawdzenie poprawności reprezentacji nie musi być bardzo trudne. Istnienie wielu zmysłów nie tylko zapewnia więcej źródeł informacji, ale także możliwość ich wzajemnego uspójniania. Podobnie pszczoły mogłyby weryfikować informację o nektarze: pszczoła-pijaczka, która opiła się miodowego piwa i błędnie tańczy, mogłaby być ignorowana, gdyby inne pszczoły przylatywały do ula z sygnałem: tam brak nektaru! Wówczas taniec nie wyzwalałby po prostu reakcji, tylko traktowany byłby jako nośnik informacji do sprawdzenia.

Wiele wskazuje na to, że organizmy biologiczne korzystają z takich mechanizmów, opierających się na uspójnianiu informacji semantycznych. Wiemy, że można na przykład skłonić zeberki, ptaki śpiewające, które uczą się jednej melodii na całe życie, do fałszowania, jeśli będą słyszeć swój zniekształcony śpiew. Wtedy zeberka stara się „poprawić” i w konsekwencji śpiewa niepoprawnie. Świadczy to o tym, że sprawdza, czy rezultaty jej działań są spójne z oczekiwaniami i na podstawie tych porównań uczy się lepiej śpiewać. Robi to nawet we śnie (co zaobserwowano eksperymentalnie).

A więc gdybyśmy mieli zainstalować reprezentację w robocie, to musiałby mieć podobny mechanizm: pewne jego działania powinny zależeć od poprawności tej reprezentacji, ale oprócz tego powinien on ją weryfikować, np. korzystając z innego, niezależnego sensora czy struktur danych przechowywanych już wcześniej w pamięci.

Mamy już wstępny przepis na intencjonalność w robocie: nie wystarczy, żeby miał czujniki czy żeby zmieniały one jego działanie. Musi istnieć też bardziej wyrafinowany sposób korzystania z tych czujników – taki sposób, który w dodatku został w jakimś celu wbudowany w robota. Musi on mieć bowiem istotną funkcję, żebyśmy mogli wyjaśnić skuteczne działanie naszego robota.

Z powrotem do biologii

Nasz eksperyment myślowy z robotem ma tę przewagę nad badaniem żywych organizmów, że od razu wiemy, co zmieniamy w jego strukturze. Nie zawsze możemy rozumieć konsekwencje naszych decyzji, ale nie ma wątpliwości, że zmiany wprowadzamy – i zwykle możemy dokonać odpowiednich pomiarów.

Takiej pewności w przypadku organizmów (w tym ludzi) nie ma, bo obserwowanie ich, czy to w laboratorium, czy na wolności, zwykle nie pozwala na łatwe stwierdzenie, co jest w nich nośnikiem informacji. Przez dziesiątki lat psychologowie i etologowie musieli wywnioskowywać istnienie reprezentacji poznawczych na podstawie zachowania. To jednak zaczyna się powoli zmieniać, gdyż u wielu gatunków zwierząt możemy bezpośrednio podłączać elektrody do odpowiednich obszarów ich układów nerwowych (takie badania z powodów etycznych zwykle nie wchodzą w grę u ludzi).

Jak zauważają Eric Thomson i Gualtiero Piccinini, reprezentacje poznawcze w neurokognitywistyce przestały być przedmiotami teoretycznymi, czyli obiektami, które opisuje teoria, ale których się nie obserwuje. Są już przedmiotami obserwacyjnymi, gdyż nasza aparatura pomiarowa coraz lepiej je wykrywa. Jednak postęp w dyskusji nad reprezentacjami poznawczymi polega nie tyle na samej obserwacji, ile na zrozumieniu, na czym polega intencjonalność. Nie jest to duchowy klej łączący myśl z bytem, tylko skomplikowana cecha mechanizmów o strukturze przypominającej układ nadawca-odbiorca, jak w pszczelim ulu. Chociaż nadal są sceptycy, którzy podważają założenie, że mogą istnieć niejęzykowe reprezentacje poznawcze, to ich wpływ na praktykę kognitywistyki czy psychologii jest coraz bardziej znikomy. Jest tak dlatego, że współczesna teleosemantyczna teoria reprezentacji poznawczych jest już po prostu całkiem niezła. ©

KRYSTYNA BIELECKA pracuje w Instytucie Filozofii UW, jest autorką „Błądzę więc jestem. Co to jest błędna reprezentacja” (WUW 2018).

MARCIN MIŁKOWSKI pracuje w Instytucie Filozofii i Socjologii PAN, opublikował m.in. „Explaining the computational mind” (MIT Press 2013).

SPÓR O REPREZENTACJE

Pojęcie reprezentacji wywołuje w kognitywistyce ożywione dyskusje: jedna grupa badaczy twierdzi, że nasze teorie nie mogą się bez niego obejść, druga przekonuje, że w mózgach nic takiego nie występuje. Nawet jednak zwolennicy reprezentacji mogą znacznie różnić się poglądami. Jedni mówią, że reprezentacje to elementy abstrakcyjnego „języka myśli”. Inni, że to pojęcia języka naturalnego. Jeszcze inni mówią, że przypominają raczej obrazy. Są i tacy, którzy twierdzą, że istnieją w umyśle odrębne systemy przetwarzania reprezentacji językowych i wzrokowych, albo że umysł dysponuje wielomodalnymi reprezentacjami, budowanymi z danych napływających ze wszystkich zmysłów. Te dyskusje przekładają się na robotykę – konstruktorzy muszą zdecydować, czy i jakie reprezentacje najlepiej próbować zaszczepić w sztucznych umysłach.

Antyreprezentacjoniści na różne sposoby odrzucają te stanowiska, argumentując, że procesy poznawcze można lepiej wyjaśnić, gdy nie będziemy posługiwać się tak niejasnym terminem. Jednak idea reprezentacji jest naukowo płodna: wygenerowała mnóstwo badań i eksperymentów, które poszerzyły naszą wiedzę. Ich przeciwnicy nie mogą się jeszcze pochwalić takim osiągnięciem. ©(P) ŁK

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp kwartalny

Kwartalny dostęp do TygodnikPowszechny.pl
  • Natychmiastowy dostęp
  • 92 dni dostępu = aż 13 numerów Tygodnika
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
89,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]
Marcin Miłkowski to kognitywista i filozof, dr hab., profesor nadzwyczajny w Instytutcie Filozofii i Socjologii Polskiej Akademii Nauk, wykłada na Uniwersytecie Warszawskim. Zajmuje się zagadnieniami filozofii kognitywistyki, w szczególności mechanistycznym i… więcej

Artykuł pochodzi z numeru Nr 46/2019