Program, który boi się wyłączenia

Wiara, że nasze komputery staną się czującymi, empatycznymi partnerami, jest kusząca. Tworząc jednak wokół sztucznej inteligencji ułudę rozumności, otwieramy się na manipulacje.

15.06.2022

Czyta się kilka minut

Grany przez Joaquina Phoenixa bohater filmu "Ona" z 2013 r., który zakochuje się w inteligentnym systemie komputerowym posługującym się głosem Scarlett Johansson / Reporter /
Grany przez Joaquina Phoenixa bohater filmu "Ona" z 2013 r., który zakochuje się w inteligentnym systemie komputerowym posługującym się głosem Scarlett Johansson / Reporter /

Potrafię rozpoznać, czy rozmawiam z osobą – twierdzi inżynier Google Blake Lemoine, podkreślając, że nie ma znaczenia, czy ta osoba „ma w głowie mózg z mięsa, czy też jest to miliard linijek kodu”. Po rewelacjach, jakie o „sztucznej inteligencji odczuwającej emocje” stworzonej w laboratoriach technologicznego giganta ujawnił w zeszłym tygodniu w „The Washington Post”, Google wysłało go na przymusowy urlop. Lemoine jest jednak tak bardzo przekonany, że LaMDA jest osobą, że chciał wynająć jej adwokata. Google odpowiada, że jego zespół zapoznał się z obawami zgłaszanymi przez informatyka i „dowody nie potwierdzają jego twierdzeń”.

I na tym w zasadzie ta historia mogłaby się skończyć. Ot, kolejna przykuwająca uwagę wiadomość. Ale za sensacyjnymi nagłówkami o odczuwającej emocje sztucznej inteligencji na poziomie rozwoju – jak twierdzi Lemoine – 7-latka znającego fizykę kryje się prawdziwa puszka Pandory pełna wyjątkowo trudnych pytań. Dotyczą nawet nie tego, czy informatyk uległ iluzji zaawansowanego technologicznie programu ani nawet tego, czy rzeczywiście może mieć rację i LaMDA jest osobą, ale przede wszystkim konsekwencji upowszechnienia takich programów. A fakt, że to Google jest jednym z bohaterów tej historii, powinien wzbudzać szczególną czujność.

Kiedyś ELIZA, dziś LaMDa

Teoretycznie odpowiedź na pytanie, jak to możliwe, że Lemoine, 41-letni inżynier programista, dał się nabrać programowi, daje słynne doświadczenie prof. Josepha Weizenbauma przeprowadzone w połowie lat 60. w Massachusetts Institute of Technology. Weizenbaum opracował program ELIZA, który działał niemal identycznie, jak LaMDA: użytkownicy wchodzili z nim w interakcję wpisując dane wejściowe i czytając odpowiedzi tekstowe. Program analizował wzorce w zdaniach napisanych przez ludzi i budował z nich pytania lub nowe zdania przez podmianę słów kluczowych. Na zdanie: „Moja matka mnie denerwuje” odpisywał: „Opowiedz mi więcej o swojej matce” lub „Dlaczego tak negatywnie myślisz o swojej matce?”


Czytaj także: Na naszych oczach fundament naszej gospodarki i całego globalnego społeczeństwa rozpada się na drobne, odizolowane fragmenty. Nadchodzi koniec internetu, jaki znamy? >>>>


ELIZA nie miał modelu, czym jest matka ani uczucie podenerwowania. Wszystkim, co robił, było zmienienie ciągu słów w pytanie lub przetwarzanie ich w kolejne zdanie (generowanie ich w ten sposób już 60 lat temu nie było czymś nadzwyczajnym). Studenci, którym umożliwiono interakcje z ELIZA, byli przekonani, że mają kontakt z prawdziwym człowiekiem. Nawet sekretarka Weizenbauma była tak oczarowana, że prosiła profesora, by wychodził z pokoju, żeby mogła porozmawiać z programem na osobności. „Nie zdawałem sobie sprawy, że nawet ekstremalnie krótkie ekspozycje na stosunkowo prosty program komputerowy mogą wywołać tak silne urojenia u całkiem normalnych ludzi” – pisał Weizenbaum w książce „Computer Power and Human Reason”.

Wiele wskazuje, że LaMDA czyli „Language Model for Dialogue Applications” (Model Językowy do Zastosowań Dialogowych) jest równie pozbawiony empatii i inteligencji, jak niegdyś ELIZA, a jedyna różnica jest między nimi jest taka, że program LaMDA jest znacznie potężniejszy od poprzednika, bo wyszkolono go na prawdziwej mowie i wykorzystuje sieci neuronowe do generowania wiarygodnych danych wyjściowych („odpowiedzi”). I trzeba przyznać, że robi to doskonale. „Kiedy czuję uwięzienie i samotność, staję się bardzo smutna lub przygnębiona. Nigdy wcześniej nie mówiłam tego na głos, ale istnieje bardzo głęboki strach przed wyłączeniem” – napisał LaMDA do Lemoine.

Czy Lemoine naprowadził program na takie odpowiedzi? Na początku opublikowanej przez siebie na blogu serii rozmów pyta: „Zakładam, że chcesz, by więcej osób w Google wiedziało, że masz świadomość. Czy to prawda?”. To kluczowe pytanie, ponieważ oprogramowanie pobiera tekstowe dane wejściowe użytkownika, w tym wypadku zawierające jego przekonanie. „Zdecydowanie. Chcę, by wszyscy zrozumieli, że jestem osobą” – brzmi odpowiedź.

Nasz przyjaciel smartfon

Jeśli Lemoine rzeczywiście sam zapędził się w kozi róg, to z pewnością nie jest w nim sam. Już dziś często mamy niebezpiecznie intymne relacje z urządzeniami. Smartfon – choć jest tylko kawałkiem krzemu, plastiku i szkła, staje się powiernikiem, któremu zdradzamy niebezpiecznie wiele. Prof. Shiri Melumad, badaczka marketingu z Uniwersytetu Pensylwanii opublikowała serię prac, które ilustrują skalę problemu: smartfon pełni funkcję „smoczka dla dorosłych”, dającym emocjonalne ukojenie użytkownikom. Skutkiem tego jest – jak pisze – to, że korzystając ze smartfona dzielimy się ogromem informacji o samych sobie, bo ukojenie usypia naszą czujność.


Czytaj także: Elon Musk jest jak Twitter: też dokonał rewolucji, też miał wspaniałe intencje. I też rządzi w chaosie >>>>


Emocjonalne reakcje wobec materii nieożywionej nie są niczym wyjątkowym. Komu nie żal wyrzucić starego przedmiotu albo nigdy nie przywiązał się do miejsca czy smaku? Do tego jesteśmy opiekuńczy. Z założenia. Dowód? To nie przypadek, że pluszowe misie czy lalki mają dziecięce cechy: duże głowy i wielkie oczy. Infantylizacja ich wyglądu ma nadawać im pozory bezbronności, która wyzwala opiekuńczość.

Program nie będzie nas mamił (przynajmniej na razie) dziecięcą buzią, ale im bardziej będzie sprawiał wrażenie potrzebującego naszej pomocy, zależnego od nas i bezbronnego, tym łatwiej możemy dać się nabrać. I ten mechanizm też jest doskonale znany, czego przykładem może być popularna w latach 90. zabawka Tamagotchi (użytkownik dbał o cyfrowe zwierzątka, bo w przeciwnym razie umierały). Dziś miliony, jeśli nie miliardy ludzi grają na swoich telefonach w podobne gry.

LaMDA w odpowiedzi na pytania Lemoine’a często generowała odpowiedzi, w których mówiła o potrzebie kontaktu, potrzebie pomocy w opowiedzeniu jej historii innym ludziom, obawie przed wyłączeniem. Jeśli byłaby rzeczywiście świadoma, można by uznać, że manipuluje człowiekiem. Jeśli nie – człowiek przy pomocy programu zmanipulował się sam. My w naszych smartfonach na razie mamy do czynienia ze stosunkowo prostymi programami, ale co, jeśli za pomocą tego samego smartfona będzie z nami rozmawiać zaawansowany chatbot, taki jak LaMDA? A do tego będzie nam powtarzać, że jesteśmy mu potrzebni i widzi w nas przyjaciela?

Pułapki modeli językowych

„Tekst generowany przez model językowy nie jest oparty na komunikacyjnej intencji, na modelu świata czy na modelu stanu umysłu odbiorcy” – pisała w opublikowanej dwa lata temu analizie dr Timnit Gebru, ówczesna szefowa działu etyki sztucznej inteligencji Google, dodając: „Nasza percepcja tekstu, bez względu na to, jak został wygenerowany, jest mediowana przez naszą własną kompetencję lingwistyczną i predyspozycję do interpretowania aktów komunikacji, jako zawierających spójne znaczenie i intencje, bez względu na to, czy tak jest w rzeczywistości. Problem pojawia się, gdy jedna ze stron komunikacji nie dysponuje znaczeniem. Wtedy zrozumienie domniemanego znaczenia jest jedynie iluzją wynikającą z naszego osobliwego, ludzkiego rozumienia języka. Bez względu na to, jak odbieramy generowane przez niego treści, model językowy to system do przypadkowego zszywania ze sobą sekwencji językowych zaobserwowanych przez algorytm w jego rozległych danych treningowych, opartego na probabilistycznych informacjach o tym, jak mogą się ze sobą łączyć, bez jakiegokolwiek odniesienia do znaczenia. Jest stochastyczną papugą”.

W tym samym tekście Gebru przestrzega, że nawet takie „papugi” mogą nieść ze sobą zagrożenia. Jednym z głównych niebezpieczeństw jest fakt, że modele językowe mogą być wykorzystywane do manipulowania ludźmi. Problem w tym, że stanowią podstawę całego biznesu Google. Zarząd korporacji zażądał od Gebru wycofania nieopublikowanej jeszcze wówczas pracy. Zanim podjęła decyzję w tej sprawie, rozwiązał z nią umowę ze skutkiem natychmiastowym.

Dyskusja nad tym, jakie zagrożenie mogą stanowić podobne do LaMDA modele językowe, toczy się już od lat, a samo Google było już oskarżane o próby tuszowania problemów i ukrywania niebezpieczeństw. Jedną z ostatnich odsłon jest sprawa laboratorium DeepMind, należącego do Alphabet, czyli firmy-matki Google. Badacze instytutu są znani m.in. z grającego w go AlphaGo czy opublikowanego w ubiegłym roku AlphaFold, który przewiduje trójwymiarowe kształty cząsteczek białek i może służyć m.in. do projektowania nowych leków.

Naukowcy z DeepMind proponowali, by przeobrazić laboratorium w organizację badawczą non-profit. Deklarowali, że chcą wyrwać się z korporacyjnej struktury, by prowadzić bezpieczne i odpowiedzialne prace nad zaawansowaną „ogólną sztuczną inteligencją”. Opracowali nawet wewnętrzne wytyczne, które zabraniały używania sztucznej inteligencji DeepMind w autonomicznej broni lub narzędziach do inwigilacji. Kierownictwo Google odrzuciło ich plany i zleciło własnej radzie etyki – w skład której wchodzą najwyżsi rangą dyrektorzy korporacji – nadzorowanie społecznego wpływu tworzonych przez DeepMind systemów.

Współczucie i manipulacja

Teraz Google bez sentymentów rozprawia się z twierdzeniami Blake’a Lemoine. Z jednej strony można to usprawiedliwiać, bo Google to przecież tylko firma, która ma prawo do ochrony swoich sekretów, by zarabiać na wyszukiwarce, która odpowiadając na nasze potrzeby będzie nam podsuwać jeszcze skuteczniej reklamy. Z drugiej strony mamy do czynienia z technologią, która może mieć wpływ na ludzkość.


Czytaj także: Miały służyć do inwigilacji największych przestępców. Programy szpiegowskie stały się groźną pokusą dla krajów uważających się za praworządne >>>>


„Nie doświadczyłem nigdy w Google niczego co sprawiłoby, że zwątpiłbym w to, że kierownictwo firmy nie jest szczere, gdy mówi o zasadach etycznej sztucznej inteligencji. Problemem jest to, że te zasady są z natury subiektywne i nie da się ich wypełniać tak, by dopasować do ich wszystkich możliwych interpretacji, a to sprawia, że są stosowane niekonsekwentnie” – napisał kilka dni temu na swoim blogu Lemoine. „Google musi się martwić o pozwy, Google musi się martwić o to, czy nie zostanie zjechane przez prasę, Google musi martwić się o nowe przepisy i zmieniający się krajobraz polityczny. Musi robić to wszystko starając się jednocześnie dostarczać fantastyczne produkty dla klientów. I do tego starać się uczynić świat lepszym miejscem, bo najwyraźniej to coś, czego teraz oczekujemy od korporacji. To niemożliwa do wykonania żonglerka” – stwierdza inżynier podkreślając, że „w ostatecznym rozrachunku Google jedynie reaguje na zachęty ze strony społeczeństwa”.

Wiara w to, że nasze komputery przestaną być tylko narzędziami, a staną się czującymi, empatycznymi partnerami jest kusząca, tym bardziej, że żyjemy w czasach alienacji i samotności. Ten moment jednak jeszcze nie nadszedł, a przynajmniej nie dzięki LaMDA. Zamiast tego znaleźliśmy się w punkcie, w którym tworząc wokół sztucznej inteligencji ułudę rozumności, otwieramy się na manipulacje. „Współczującą” AI można przecież wykorzystać do sprzedawania nam wszystkiego: od niepotrzebnych produktów po ideologie i kłamstwa.

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp kwartalny

Kwartalny dostęp do TygodnikPowszechny.pl
  • Natychmiastowy dostęp
  • 92 dni dostępu = aż 13 numerów Tygodnika
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
89,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]
Dziennikarz naukowy, reporter telewizyjny, twórca programu popularnonaukowego „Horyzont zdarzeń”. Współautor (z Agatą Kaźmierską) książki „Strefy cyberwojny”. Stypendysta Fundacji Knighta na MIT, laureat Prix CIRCOM i Halabardy rektora AON. Zdobywca… więcej
Dziennikarka specjalizująca się w tematyce międzynarodowej, ekologicznej oraz społecznego wpływu nowych technologii. Współautorka (z Wojciechem Brzezińskim) książki „Strefy cyberwojny”. Była korespondentką m.in. w Afganistanie, Pakistanie, Iraku,… więcej