Szanowny Użytkowniku,

25 maja 2018 roku zaczyna obowiązywać Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (określane jako „RODO”, „ORODO”, „GDPR” lub „Ogólne Rozporządzenie o Ochronie Danych”). W związku z tym informujemy, że wprowadziliśmy zmiany w Regulaminie Serwisu i Polityce Prywatności. Prosimy o poświęcenie kilku minut, aby się z nimi zapoznać. Możliwe jest to tutaj.

Rozumiem

Reklama

Sztuczna przeciętność

Sztuczna przeciętność

03.09.2018
Czyta się kilka minut
W starym science fiction sztuczna inteligencja to cyniczny robotyczny geniusz – pożyteczny, ale niebezpieczny. Dziś algorytmy są tylko tak mądre, jak chce tego klient. Co się stało? I co przyniesie przyszłość?
RJ SANGOSTI / GETTY IMAGES
G

Gdy czyta się i ogląda science ­fiction sprzed 50-100 lat, sztuczna inteligencja (AI) pojawia się głównie w roli potężnej, budzącej respekt siły – czasem nam sprzyjającej, zwykle jednak stanowiącej mniej czy bardziej zawoalowane zagrożenie. Ot, „R.U.R.” Karela Čapka z 1920 r., gdzie roboty buntują się przeciwko swym ludzkim panom, lub „2001. Odyseja kosmiczna” Kubricka z 1968 r., w której HAL 9000 początkowo jest jedynie miłym kompanem do rozmowy, jednak z czasem jego samodzielność intelektualna zaczyna prowadzić do niejakich problemów. Z dzieciństwa pamiętam też książki Broszkiewicza i Lema, w których na pokładzie każdego statku kosmicznego znajdował się przynajmniej jeden robot, będący zwykle po prostu superinteligentną, szybciej myślącą wersją człowieka. Cóż, w „Rozprawie” Lema to właśnie nadspodziewanie szybkie procesy myślowe zdradziły ukrywającego wcześniej swoją tożsamość androida.

To w tych latach powstał też słynny filozoficzny problem „silnej sztucznej inteligencji” – czyli takiej, która jest samodzielnym, wszechstronnie rozwiniętym „umysłem” wyposażonym w „świadomość”, cokolwiek te terminy znaczą – przeciwstawianej „słabej” AI, która miałaby „tylko” wykonywać polecenia, realizując zadany program o ściśle określonej funkcji.

Dziś problemy te, jak i sam język, którym zostały wyrażone, po prostu trącą myszką. Wielu filozofów umysłu i kognitywistów na słowa „świadomość” i „umysł” reaguje alergicznie, ponieważ te abstrakcyjne terminy po prostu niepotrzebnie zatruwają ich konkretne, pożyteczne badania nad przetwarzaniem obrazu w korze wzrokowej, pamięcią przestrzenną albo neurochemią lęku. Również AI przestało być teorią i są na świecie tysiące programistów, dla których tworzenie inteligentnych algorytmów to chleb powszedni. O czym tu filozofować?!

W poszukiwaniu prawdziwej inteligencji

Sztuczna inteligencja to dziś produkt, i to cenny. AI usuwa szum ze zdjęć w twoim smartfonie, dobiera czas prania w twojej pralce i wybiera najszybszą trasę w twoim GPS-ie, a także podpowiada Facebookowi, co wyświetlić na twojej stronie głównej. Rozprawianie o „filozofii AI” brzmi trochę jak XIX-wieczne dysputy o filozofii elektryczności prowadzone w czasach, gdy wiktoriańskie damy mdlały z podekscytowania na widok żaby ożywianej tajemnymi prądami z butelki lejdejskiej.

To właśnie skrajnie abstrakcyjne, roszczeniowe podejście do sztucznej inteligencji odpowiada za tzw. AI effect, który Douglas Hofstadter wyraził w postaci złośliwego powiedzonka: „AI to wszystko, czego jeszcze nie ma”. W praktyce „efekt AI” polega na tym, że każdy kolejny przejaw inteligencji maszynowej jest kwitowany stwierdzeniem: „Phi, to jeszcze nie jest inteligencja”. W rozmowie z poszukiwaczami „prawdziwej AI” możemy też usłyszeć, że „prawdziwa” sztuczna inteligencja powinna nas zaskakiwać – bo przecież co to za inteligencja, która potulnie wykonuje polecenia. Nic więc dziwnego, że rozwiązanie każdego kolejnego zadania dla AI oznacza zawsze tylko podnoszenie poprzeczki – skoro twórca algorytmu rozumie, jak to zadanie rozwiązać, to znika element zaskoczenia z faktu, że algorytm odnalazł owo rozwiązanie. Istny paragraf 22.

Nierealistyczne oczekiwania to jednak tylko jedna strona medalu. Drugim, bliźniaczym aspektem „problemu z AI” są równie nierealistyczne przekonania dotyczące poziomu inteligencji i kreatywności ludzi. Zauważmy, że w starym, dobrym science fiction na polu bitwy między sztuczną i ludzką inteligencją również i my zawsze jesteśmy reprezentowani przez crème de la crème. Ponieważ autorami SF są zwykle jajogłowe naukoluby, bohaterami ich opowieści są też – niespodzianka – jajogłowe naukoluby: genialni inżynierowie, fizycy, doświadczeni nawigatorzy statków kosmicznych z uprawnieniami IV poziomu. W „Odysei kosmicznej” dr Frank Poole gra z HAL-em 9000 – oczywiście – w szachy, a rozmowy między nimi toczą się w kulturalnym języku zblazowanych inteligentów.

Trudno nam więc pogodzić się z faktem, że większość naszych decyzji – o czym pisze choćby ekonomista Daniel Kahneman w „Pułapkach myślenia” – podejmowana jest zbyt szybko i zbyt automatycznie, aby można je było uznać za racjonalne, a nasze interakcje z bliźnimi można w dużym stopniu sprowadzić do scenariusza mieszczącego się na kilku kartkach A4, co pięknie zdemaskował Erving Goffman w „Człowieku w teatrze życia codziennego”. „Ja-kupujący-rano-chleb” i „ja-jadący-metrem” to wcale nie ów wyidealizowany Człowiek, do którego miałaby rzekomo dążyć sztuczna inteligencja – samoświadomy, kreatywny, rozprawiający o Sztuce, Matematyce i Abstrakcji. Dzisiejsza AI jest zaś wynikiem zderzenia wzniosłej teorii z rzeczywistością ludzką – z faktycznym codziennym życiem miliardów homo sapiens. AI naśladuje więc rzeczywistą ludzką inteligencję, a nie tę będącą romantycznym ideałem zrodzonym w głowach filozofów. Sztuczna inteligencja to nie tylko szachy i rozmowy o filozofii.

Jeżeli chcemy zrozumieć AI, musimy po prostu zejść na ziemię. Spójrzmy więc nieco szerzej na przejawy ludzkich mocy poznawczych. Kluczem niech będzie klasyczna lista siedmiu (w późniejszych wersjach – ośmiu) typów inteligencji Howarda Gardnera, który w 1983 r. opisał teorię tzw. „inteligencji wielorakiej”, próbując wyjść poza popularny wówczas – i dziś – mit, że inteligencja ludzka kończy się na zdolności do rozwiązywania testów do Mensy. Choć w badaniach na ten temat sporo się od tego czasu zmieniło, „moduły” Gardnera stanowią doskonały punkt wyjścia do zastanawiania się nad przebiegiem stopniowego zbliżania się maszyn do ludzi... i na odwrót.

Inteligencja na siedem sposobów

Moduł „logiczno-matematyczny” to ten najczęściej kojarzony z inteligencją. Cóż, jest go po prostu najłatwiej zmierzyć. Jeśli zadam pytanie: „Jaka liczba stanowi kontynuację wzoru? 1... 1... 2... 3... 5... 8... 13... 21...”, to albo odgadniesz, albo nie, dzięki czemu moja aktywność jako osoby przeprowadzającej test sprowadza się do sprawdzenia klucza. Paradoksalnie więc ocena tego wymiaru inteligencji – która do dziś dominuje nie tylko w świecie Mensy, ale i akademickiej psychometrii – wymaga szczególnie mało inteligencji. Zdolność do rozumowania logiczno-matematycznego stosunkowo łatwo też sprowadzić do algorytmu, a w zadaniach polegających na zapamiętywaniu cyfr albo odnajdywaniu wzorców w zbiorach abstrakcyjnych obiektów komputery od dawna radzą sobie lepiej od ludzi.

Moduł „językowo-lingwistyczny” jest już nieco bardziej interesujący. Sprawne posługiwanie się językiem nie daje się łatwo sprowadzić do poziomu zero-jedynkowych decyzji. Tym większe było moje zaskoczenie, gdy sprawdziłem, że tłumacz Google potrafi już dziś wychwycić, iż w zdaniach „Ten zamek jest w górach” i „Ten zamek jest w spodniach” chodzi o dwa różne zamki, i w tłumaczeniu pierwszego stosuje słowo „castle”, a drugiego – „zipper”. Dla tych spośród czytelników, którzy reagują na tę wiadomość myślą, że „przecież to żadna filozofia zaprogramować coś takiego”, oferuję dwie odtrutki na ów przejaw „efektu AI”. Po pierwsze, nie zostało to osiągnięte metodą siłowego wklepywania milionów skojarzonych ze sobą par słów (wszystkie projekty AI opierające się na takim ilościowym podejściu, jak choćby „Cyc” Douglasa Lenata, zakończyły się porażką). Algorytmy leżące u podstaw tłumacza Google’a należą raczej do kategorii programów samouczących – co wcale nie jest łatwo zaprogramować. To jednak nieistotne. Kluczowa jest druga informacja: na poziomie rzeczywistości ludzkiej odróżnienie i poprawne przetłumaczenie dwóch rodzajów „zamka” wymaga poziomu kompetencji językowych, których posiadacze słusznie wpisują sobie w CV: „English – communicative”. I potem znajdują pracę. I sobie w niej radzą. Choć więc nieprędko doczekamy się programów dobrze tłumaczących poezję, równie trudno znaleźć człowieka, który by to potrafił. Większość ludzi i większość programów komputerowych potrzebuje tylko tak dobrej znajomości języka, aby mógł on służyć skutecznej komunikacji. Jak niewiele może to oznaczać, wspomnimy jeszcze za chwilę.

Przy omawianiu inteligencji „muzyczno-rytmicznej” Gardner podał, że przejawem szczególnie wysokiego jej rozwoju jest słuch absolutny – zdolność do nazwania pojedynczego dźwięku. Trudno chyba o bardziej jaskrawy przejaw „efektu AI” – bo któż dziś będzie skłonny przyznać, że to trywialne dla komputera zadanie świadczy o wysokim rozwoju „sztucznej inteligencji muzycznej”? Niedowiarków nie przekona też pewnie to, że w 2016 r. AIVA, program komputerowy piszący muzykę filmową, został wpisany na listę francuskiego Stowarzyszenia Autorów, Kompozytorów i Wydawców Muzycznych – odpowiednika ZAIKS-u – ponieważ utwory programu AIVA są już grane przez francuskie orkiestry symfoniczne. Skąd właściwie sceptycyzm? Bo AIVA jest odtwórcza? Bo nie jest genialnym, w pełni oryginalnym twórcą, będącym prekursorem nowego stylu w muzyce filmowej? Cóż – a o ilu muzykach można to właściwie powiedzieć? Hollywood produkuje ok. 800 pełnometrażowych filmów rocznie. Bollywood – 1500. Czy twórcy wszystkich tych ścieżek dźwiękowych są genialnymi, w pełni oryginalnymi twórcami?

Nie będziemy już omawiać kolejno pozostałych czterech modułów inteligencji. Spróbujmy może na bazie tych kilku podanych wyżej przykładów pokusić się o rzut oka na relacje pomiędzy inteligencją ludzką a maszynową.

Widziałem dzisiaj @Marek, był jakby #smutny

Zauważmy najpierw, że zarówno algorytmy komputerowe, jak i ludzie są przez otoczenie rozliczani wyłącznie ze swojej skuteczności – ponieważ nikt nie ma czasu zastanawiać się nad ich stanem wewnętrznym – oczekiwany zaś przez to otoczenie poziom kompetencji rzadko jest wysoki. Maszyny potrafią wykonywać tak wiele funkcji ludzi nie tylko dlatego, że są tak bystre – również dlatego, że my sami dość rzadko mamy okazję wykazać się swoją bystrością.

Ot, współczesne lotnisko. Wiele energii zainwestowano, aby 160 tys. osób codziennie przechodzących przez lotnisko we Frankfurcie – z których nie wszyscy mają inteligencję przestrzenną Michaiła Barysznikowa i talent do dekodowania oznaczeń Alana Turinga – dokonało tego sprawnie. Gdy ja sam wędruję przez lotnisko, postępując po prostu tępo za grubą żółtą linią wymalowaną na podłodze, bo skierował mnie na nią olbrzymi, czytelny symbol graficzny, czuję się traktowany jak idiota. I bardzo dobrze – bo przestrzeń lotniska jest zbyt złożona, żebym ją zrozumiał. Nie mam rozumieć. Mam tuptać po żółtej linii. Porządek terminalu lotniczego wypełza stopniowo do miast, coraz lepiej zorganizowanych, oznaczonych i bezpiecznych. Dziś nie trzeba żadnych niemal kompetencji językowych, przestrzennych i interpersonalnych, aby poradzić sobie w obcej metropolii – czy to Los Angeles, czy Lizbona, czy Kanton: przywita nas ten sam globalny, skrajnie uproszczony język metra, bankomatu i supermarketu samoobsługowego.

Ostatnim bastionem człowieczeństwa była zawsze osławiona inteligencja emocjonalna, u Gardnera ukryta w module „interpersonalnym”. Istnieją dziś oczywiście programy AI, które odczytują stan emocjonalny człowieka poprzez analizę jego mimiki, a następnie na tej podstawie odpowiednio dobierają komunikat. To jednak zbędny wysiłek. Po co bawić się w odczytywanie mimiki, gdy mój rozmówca samodzielnie oznacza swój stan emocjonalny, wybierając jedną spośród sześciu ikon? Po co uczyć tłumacza ­Google’a subtelności polszczyzny, skoro komunikacja międzyludzka staje się w coraz większym stopniu oparta na tagach? Zwróćmy uwagę, że to, co stanowi dziś najszybciej rozwijający się trend w komunikacji międzyludzkiej, jest tak naprawdę najpiękniejszym snem maszyn – oto wypowiedzi ludzkie są przez nich samych oznaczane przy użyciu zamkniętego słownika, w którym każdy wyraz ma swój unikatowy identyfikator cyfrowy.

Nic więc dziwnego, że w wielu sferach internetu komunikaty generowane przez boty zaczynają dominować nad tymi generowanymi przez ludzi. W badaniu Pew Research Center opublikowanym w kwietniu tego roku oszacowano, że ok. 66 proc. wszystkich wpisów na Twitterze zawierających linki jest tworzonych przez boty. I nie mówimy tu tylko o „głupim” spamowaniu linkami do filmów pornograficznych i reklam butów. Współczesne boty dodają do swoich linków jedno czy dwa proste zdania – czyli właśnie tyle, ile mieści w pojedynczym tweecie normalny użytkownik tego serwisu. W innym badaniu wyszło na jaw, że tocząca się na Twitterze „debata” na temat szczepień obowiązkowych jest praktycznie w całości skonstruowana przez wypowiedzi generowane automatycznie lub półautomatycznie.

To nie dlatego, że nad wszystkim czuwa jakaś superinteligencja. To dlatego, że my sami coraz częściej komunikujemy się w postaci zdań pojedynczych, w których co druga fraza to frazes. Do naśladowania nas wystarczy najzupełniej toporna sztuczna inteligencja. Lektura dowolnego forum internetowego, na którym pojawia się choćby temat polityki, nieodmiennie wywołuje we mnie wrażenie déjà vu: te wszystkie docinki i wyzwiska słyszałem już wszak tysiące razy. Z każdym kolejnym rokiem nasze komunikaty w internecie robią się coraz prostsze i coraz bardziej przewidywalne – co jest dość zabawne, ponieważ tym, czego zawsze wymagaliśmy od AI, było zachowywanie się na sposób złożony i nieprzewidywalny.

Gdyby więc chcieć pokusić się o przewidywanie przyszłości sztucznej inteligencji na podstawie opisanych tu trendów, to w pierwszej kolejności należałoby zapytać o to, jak bardzo nieinteligentne, mechaniczne i przewidywalne będą się z czasem stawały przejawy naszej własnej inteligencji. Sztuczna inteligencja bowiem ewoluuje na sposób naturalny, czyli zapełniając nisze w stopniu wynikającym z konkurencji międzygatunkowej. Na razie konkurencja z naszej strony wydaje się słabnąć. ©℗

Autor jest filozofem przyrody i dziennikarzem naukowym, redaktorem „Tygodnika Powszechnego”.


Dodatek specjalny: CYWILIZACJA ALGORYTMÓW

Partner wydania: Centrum Nauki Kopernik

 

Czytasz ten tekst bezpłatnie, bo Fundacja Tygodnika Powszechnego troszczy się o promowanie czytelnictwa i niezależnych mediów. Wspierając ją, pomagasz zapewnić "Tygodnikowi" suwerenność, warunek rzetelnego i niezależnego dziennikarstwa. Przekaż swój datek:

Autor artykułu

Filozof przyrody i dziennikarz naukowy, specjalizuje się w kosmologii, astrofizyce oraz zagadnieniach filozoficznych związanych z tymi naukami. Pracownik naukowy Uniwersytetu Papieskiego...

Dodaj komentarz

Usługodawca nie ponosi odpowiedzialności za treści zamieszczane przez Użytkowników w ramach komentarzy do Materiałów udostępnianych przez Usługodawcę.

Zapoznaj się z Regułami forum
Jeśli widzisz komentarz naruszający prawo lub dobre obyczaje, zgłoś go klikając w link "Zgłoś naruszenie" pod komentarzem.

O ile dzisiejsze komputery przewyższają wszelkie (nie)dawne o nich wyobrażenia, to ambicje stworzenia sztucznej quasi-ludzkiej inteligencji ustąpiły miejsca projektom bardziej pragmatycznym, choć dającym jeszcze bardziej niesamowite rezultaty. Wystarczy porównać wizję roku 2019 w Blade Runnerze z 1983 z rzeczywistością. Androidów podobnych do Rachael wciąż nie ma i się nie zanosi, podczas gdy prawie każdy z nas dysponuje smartfonem - rzeczą zupełnie niewyobrażalną dla ówczesnych scenarzystów. Powoli też chyba rozstajemy się z ideą mózgu jako komputera, realizującego złożony algorytm zwany inteligencją, świadomością itp. oraz myślenia jako łańcucha operacji symbolicznych. Co więcej, nie bardzo sprawdza się Test Turinga, co zresztą podejrzewali już twórcy programu Eliza (żeby się nie powtarzać: https://www.tygodnikpowszechny.pl/comment/26103#comment-26103). Co do Tłumacza Google, to jest coś, co wciąż budzi we mnie podziw dla geniuszy z Mountain View. Przed nimi (umownie mówiąc, bo jacyś prekursorzy pewnie byli) próbowano budować odpowiedniki mechanizmu generatywnego postulowanego przez Chomsky’ego, które z pomocą słowników byłyby w stanie dekodować wypowiedzi w jakimś języku naturalnym i rekonstruować ich ekwiwalenty w języku docelowym. TG natomiast wykorzystuje metodę statystyczną do rekombinowania gotowych fraz, zaczerpniętych z niezmierzonych zasobów tekstów istniejących w sieci. Drobny ale wymowny przykład, który kiedyś udało nam się znaleźć podczas dyskusji na pewnym forum językowym. Tłumacząc na łacinę wyraz „tęcza” w językach włoskim (l’arcobaleno), francuskim (l’arc en ciel) i angielskim (the rainbow), otrzymamy poprawny odpowiednik: „arcus caelestis”. Wystarczy jednak opuścić rodzajnik, żeby dostać absurdalną frazę „Eritque arcus” („i będzie łuk”). Tak samo TG przełoży tęczę z polskiego i rosyjskiego („raduga”), w których rodzajnika nie ma. Jeśli jednak dodamy spójnik „i” („i tęcza”), otrzymamy… „et iris” - poprawne, tyle że bardziej poetyckie tłumaczenie. Skąd zatem to „Eritque arcus”? Otóż z najbardziej oczywistego tekstu łacińskiego, do którego istnieje tekst paralelny niemal w każdym języku. „Eritque arcus in nubibus...” (Gen 9:13). Widocznie Google sparował to z przekładami, w którym pojawia się tęcza, a nie łuk, a przy okazji zdradził, że tak naprawdę nie zna ani łaciny, ani angielskiego. Za to w praktyce daje radę i za to należy go podziwiać. W końcu tłumaczyć z języka, który się zna, każdy głupi potrafi ;)

i wyjątkowości człowieka, jego szczytowego osiągnięcia: "Do naśladowania nas wystarczy najzupełniej toporna sztuczna inteligencja."

równie toporny, jak inteligencja, która do niego doszła ;) Nie zaszkodzi przypomnieć: "Gdyby umysł ludzki był na tyle prosty, żebyśmy..." itd.

ale komentarz do niego już na pewno ㋡ gdyby umysł był tak wyrafinowany, jak by się po dziele Bożym spodziewać można było, dawno by nie takie zagadki ogarnął - a tu nic, prosze Pana, z tych rzeczy - kapucha w temacie, i ledwie pół kroku przed ślimakami się czołgamy przez życie

I nazwano circulus vitiosus.

podwójnych komentarzy. Gdzie indziej sobie poradzili.
Zaloguj się albo zarejestruj aby dodać komentarz

© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]