Zaczęło się

Po cichu i konsekwentnie sztuczna inteligencja wdziera się w kolejne dziedziny naszego życia. Najlepiej sobie radzi, gdy w jej samorozwoju nie przeszkadzają ludzie.

22.12.2017

Czyta się kilka minut

 / CHRIS MCGRATH / GETTY IMAGES
/ CHRIS MCGRATH / GETTY IMAGES

27 maja 2017 r. został zamknięty ważny rozdział w historii sztucznej inteligencji. Program komputerowy AlphaGo­ pokonał Ke Jie, najlepszego dziś zawodnika w chińskiej grze planszowej go. Od 1997 r., kiedy DeepBlue pokonał Garriego Kasparowa w szachy, to właśnie go stanowiło ostatni bastion dominacji człowieka nad maszyną na gruncie klasycznych gier logicznych. W uznaniu swoich zasług AlphaGo otrzymał od koreańskiej federacji Korea Baduk Association honorowe 9 dan – najwyższy stopień, jaki można uzyskać w światowym rankingu tej gry.

Niespełna rok wcześniej, w czerwcu 2016 r., algorytm AIVA został wpisany na listę francuskiego Stowarzyszenia Autorów, Kompozytorów i Wydawców Muzycznych SACEM – tamtejszego odpowiednika ZAiKS-u. Uznano, że utwory AIVY, która specjalizuje się w komponowaniu muzyki filmowej, są na tyle swoiste, że stworzone przez nią kompozycje powinny być podpisywane jej „własnym” imieniem, a nie nazwiskami programistów. W kwietniu 2017 r. utwory AIVY zostały wykonane przez orkiestrę symfoniczną w Awinionie.

Rok 2017 był też interesujący ze względów medycznych. Na początku czerwca na spotkaniu Amerykańskiego Towarzystwa Onkologii Klinicznej (ASCO) ogłoszono postępy IBM w rozwijaniu algorytmu pomagającego lekarzom wybierać optymalną ścieżkę terapeutyczną w leczeniu niektórych nowotworów. W wielu szpitalach na świecie program ten („Watson for Oncology”) jest obecnie badany pod kątem jakości proponowanych przez niego diagnoz i terapii. Amerykański portal medyczny STAT (www.statnews.com) podał jednak, że lekarze w mongolskim szpitalu Songdo w Ułan Bator, w którym nie pracuje ani jeden specjalista onkolog, postępują praktycznie zawsze zgodnie ze wskazówkami Watsona.

Czy mamy się bać? Cieszyć? A może – jak zwykle – nie przejmować się za bardzo? Przecież nic strasznego się nie dzieje... Prawda?

Kartonik średnio tłustego mleka

W powieściach i filmach sztuczna inteligencja (artificial intelligence, AI) to głównie zbuntowane maszyny zapędzające ludzkość do podziemi albo śliczna androidka błagająca o kolejny rok życia. Czy to kwestia tradycji literackiej, czy po prostu naszego naturalnego nawyku wybiegania w przyszłość – AI szczególnie lubi się z science fiction. Stąd poczucie, że sztuczną inteligencję można włożyć sobie do tej samej mentalnej szufladki, w której spoczywają maszyny do teleportacji, latające samochody i nadświetlne statki kosmiczne. Nastawienie to może nas jednak podświadomie znieczulić na obecność AI w życiu codziennym i rzeczach przyziemnych.

A to przecież AI pomogło nam dzisiaj rano znaleźć najbliższe kino, przeprowadziło nas przez proces zakupu biletu, wyznaczyło nam trasę, a następnie kierowało nami w korku. Każdy, komu system kontroli trakcji pomógł kiedykolwiek uniknąć poślizgu, zawdzięcza swoje zdrowie, a może i życie, sztucznej inteligencji.

John McCarthy, zmarły w 2011 r. pionier współczesnej komputerowej sztucznej inteligencji, definiował ją bardzo ostrożnie: jako sztukę i praktykę tworzenia inteligentnych maszyn, a w szczególności inteligentnych programów komputerowych. Inteligencję zaś jako „obliczeniowy aspekt zdolności do osiągania celów w świecie”. To bardzo pojemna definicja, która sprowadza nas przy tym na ziemię. Mamy zwykle tendencję, zwłaszcza gdy przychodzi do porównywania się z komputerami, do utożsamiania inteligencji z najwyższymi, najbardziej zaawansowanymi mocami człowieka: wytwórczością artystyczną, kreatywnością językową czy zdolnością do prowadzenia dysput filozoficznych. A przecież przejawem inteligencji jest też umiejętność zawiązania sznurowadła albo nabycia w sklepie małego kartonika mleka średnio tłustego.

Raymond Kurzweil, informatyk i futurolog, zidentyfikował kiedyś ironicznie „model standardowy” każdego kolejnego kroku w rozwoju AI. Najpierw uznaje się pewne ludzkie osiągnięcie intelektualne za niewykonalne dla maszyny. Następnie pojawia się program dokonujący tego osiągnięcia. Następnego dnia eksperci ogłaszają, że nie świadczy to wcale o inteligencji, a rzeczywistym kamieniem milowym jest coś zupełnie innego. Da capo al fine. Za schematem tym kryje się prosta prawidłowość psychologiczna: gdy już wiemy, w jaki sposób zrekonstruować pewną czynność „w krzemie” (in silico), przestaje być ona dla nas tajemnicza i nawet w naszym własnym wykonaniu jawi się jako „po prostu wykonanie pewnego zestawu kroków” (czyli algorytmu).

Obserwacja ta mówi nam tyleż o rozwoju AI, co o nas samych. Mamy tendencję do mierzenia AI standardami, które są nie tylko z każdym rokiem coraz wyższe, ale także coraz bardziej nierealistyczne nawet w zastosowaniu do ludzi. Ilu z nas, czytając przywołane na wstępie trzy przykłady, nie pomyślało w cichości ducha: „Ten ­AlphaGo, ta AIVA, ten Watson – to po prostu głupie programy, które przetwarzają, może i w bardzo skomplikowany sposób, treści, których same nie wygenerowały”? Z odruchem tym są dwa podstawowe problemy. Po pierwsze, o których ­naszych czynnościach intelektualnych nie można powiedzieć tego samego? Na czym właściwie polega proces uczenia – gracza w go, muzyka, onkologa – jeśli nie na przyswajaniu olbrzymiej ilości konkretnych przypadków, a następnie „przetwarzaniu ich w bardzo skomplikowany sposób”? Po drugie, zjawisko kreatywności – rzeczywistego, zaskakującego ekspertów nowatorstwa – powoli zaczyna występować w AI.

Klęska uniwersalnego geniusza

Zanim przyjrzymy się obszarom, w których AI naprawdę może nas zadziwić w 2018 r., wspomnijmy o dziedzinie, w której AI ponosi, jak na razie, klęskę. Mowa o ideale „uniwersalnego sztucznego umysłu”, czyli czegoś, co realizuje właściwą ludziom ogólność rozwoju: przeciętny człowiek potrafi przynajmniej jako tako poradzić sobie w sklepie i u lekarza oraz owinąć szmatą cieknącą rurę. Naukowcy szybko zidentyfikowali źródło tej uniwersalności: wynika ona z nagromadzonej przez przeciętnego człowieka niewyobrażalnej wręcz objętości wiedzy zdroworozsądkowej. Najsłynniejszym projektem odtworzenia „uniwersalnego umysłu” in silico był projekt o frapującej dla polskiego ucha nazwie „Cyc.

Cyc” (wym. sajk) to środkowy człon słowa „encyclopedia”. Twórca tego projektu, Douglas Lenat, rozpoczął w 1984 r. tytaniczną pracę gromadzenia bazy „wiedzy powszechnej”, która pozwoliłaby maszynie osiągnąć inteligencję dorosłego człowieka. Jaka to wiedza? Drzewa to rośliny. Rośliny potrzebują wody. Woda jest mokra. Mokre ubrania są niewygodne. Ludzie nie lubią nosić rzeczy niewygodnych. I tak dalej. W 2002 r. system ten zawierał 6 tys. pojęć i 60 tys. faktów. Dzięki pomocy społeczności internetowej w ciągu 10 lat baza danych OpenCyc urosła do 239 tys. pojęć i 2,1 mln faktów. Chociaż losy projektu Cyc są zawiłe i trudno je jednoznacznie podsumować, większość ekspertów zgadza się, że w taki czy inny sposób był on porażką. Metodą tą nie udało się nauczyć maszyn „zdrowego rozsądku” i do dziś nie powstał program, który wykazywałby choćby w minimalnym stopniu ogólną „umysłowość typu ludzkiego”.


Czytaj także: Emmanuel Mogenet, inżynier AI, w rozmowie z Wojciechem Brzezińskim: Dysponujemy systemami, które działają wspaniale, ale nie wiemy jak. Bo uczą się same.


Praktyczną realizacją ideału uniwersalnej AI miały być boty konwersacyjne: programy komputerowe, z którymi można porozmawiać „jak człowiek z człowiekiem”. Od lat organizowane są konkursy, w trakcie których coraz bardziej wyrafinowane programy sprawdzane są ze względu na to, czy obserwator ludzki potrafi odróżnić pogawędkę z nimi (za pośrednictwem komunikatora tekstowego) od rozmowy z drugim człowiekiem. Jest to praktyczna realizacja tzw. testu Turinga, opisanego w 1950 r. przez matematyka i pioniera informatyki Alana Turinga. I choć z roku na rok przedstawiane są coraz to bardziej wyrafinowane boty konwersacyjne (czempionem ostatnich lat jest np. sympatyczna botka Mitsuku), wystarczy kilka minut rozmowy, by obnażyć ich ograniczenia. Ja sam, nawet przy najlepszych chęciach, rozmawiając ze wszystkimi komputerowymi mistrzami konwersacji z ostatnich lat (Mitsuku, Rose, ALICE czy ­Jabberwacky), po chwili czułem znużenie i irytację.

Dobre zagranie

Pogawędka z komputerem może na razie należeć do nieosiągalnych marzeń, ale przecież formą komunikacji jest też jednak gra. Gdy patrzy się na pogrążonych w rozgrywce szachistów, trudno oprzeć się wrażeniu, że na szachownicy dochodzi do znacznie bardziej intensywnego, intymnego i emocjonującego kontaktu niż na płaszczyźnie werbalnej.

Już w 1952 r. Arthur Samuel z IBM napisał pierwszy program grający w warcaby, ponoć nie najgorzej. W 1968 r. pojawił się pierwszy program (MacHack) grający w szachy na poziomie początkującego zawodowca (ok. 1500 punktów w skali Elo). W 1994 r. program ­Chinook pokonał już mistrza świata w warcaby angielskie (te z trzema rzędami pionów), a w 1997 r. nastąpiła słynna porażka ­Garriego Kasparowa z DeepBlue. Do historii przeszedł wywiad z Kasparowem, w którym arcymistrz, zdruzgotany po porażce, stwierdził, że przez całą ostatnią partię miał nieodparte wrażenie, że walczy z kimś, a nie z czymś. Wrażenie to było na tyle silne, że Kasparow oskarżył później IBM o oszustwo, sugerując, że w rzeczywistości niektóre ruchy wykonywał człowiek, a nie maszyna.

W tym samym 1997 r. w niewielkim, 2,5-milionowym chińskim mieście Lishui urodził się Ke Jie, który od 2014 r. zajmuje pierwsze miejsce we wszystkich najbardziej prestiżowych rankingach go. Ta starochińska gra łączy w sobie prostotę zasad z niebywałą złożonością rozgrywki, która odbywa się na planszy (goban) składającej się z 19 linii poziomych i 19 pionowych, tworzących 361 przecięć, na których gracze kładą naprzemiennie białe i czarne kamienie. O ile Kasparow do dziś dąsa się na DeepBlue (jeszcze w wywiadzie z 2005 r. stwierdził, że podejrzewa oszustwo), Ke Jie po swojej ubiegłorocznej porażce z AlphaGo z chęcią wziął udział w długiej analizie rozgrywek, komentując je krok po kroku i testując, wraz z twórcami AlphaGo, alternatywne ruchy, które mógł był wykonać.

Bezpośrednio po majowej przegranej i po żmudnej analizie swoich rozgrywek z komputerem Jie wygrał 22 kolejne spotkania z ludzkimi graczami – wyczyn, który nawet w przypadku arcymistrza należy do rzadkości. Jie mówi wprost, że inspiruje się AlphaGo zwłaszcza na najwyższym poziomie strategicznym: „AlphaGo widzi cały wszechświat Weiqi [chiń. „go”]; ja widzę tylko jego mały obszar”.

Ponieważ go od dekad uważano za najtwardszy orzech do zgryzienia dla sztucznej inteligencji, wynik rozgrywki AlphaGo–Jie można uznać za symboliczny początek nowej relacji pomiędzy ludźmi a maszynami w świecie gier planszowych. Kwestia wyższości maszyn nad człowiekiem w tej konkretnej dziedzinie naszego życia intelektualnego została ustalona. Pytanie – co z tym faktem zrobić?

Twórcy AlphaGo nie poprzestali na go. Jego zasady działania są zwodniczo proste: po ręcznym zaprogramowaniu elementarnych reguł gry przez człowieka algorytm uczy się sam, rozgrywając partie przeciwko samemu sobie. Jest to na tyle ogólna metoda, że na początku grudnia kuzyn ­AlphaGo, AlphaZero, został nauczony szachów, aby zmierzyć się z najlepszym dotychczas programem szachowym Stockfish 8 (bo przecież nie z człowiekiem...). Proces uczenia się królewskiej gry zajął cztery godziny (!), po których przeprowadzono kolejno 100 rozgrywek. AlphaZero wygrał 28 i zremisował 72 razy. Drugi w światowym rankingu szachowym Duńczyk Peter Heine Nielsen, zapoznawszy się z zapisem tych partii, powiedział zdumiony: „Zawsze zastanawiałem się, jak by to było, gdyby jakiś wyżej rozwinięty gatunek wylądował na Ziemi i pokazał nam, jak gra w szachy. Teraz chyba wiem”. Co istotne, zwycięstwo to nie wynika po prostu z brutalnej siły obliczeniowej. Stockfish 8 rozważa ok. 70 mln możliwych ruchów na sekundę, AlphaZero – tylko 80 tys. To nie jest triumf oparty tylko na szybszym procesorze i pojemniejszej pamięci, lecz raczej na zupełnie nowej, „organicznej” metodzie uczenia.

Sztuka, rzemiosło i wszystko, co pomiędzy

AlphaGo wykazał się wprawdzie nowatorstwem, jeśli nie po prostu kreatywnością, trzeba jednak przyznać, że go czy szachy należą do tych silnie intelektualnych przejawów ludzkiej aktywności. W tym sensie triumf maszyny nad człowiekiem – choć wspaniały i umykający nam przez dziesięciolecia – nie jest aż tak bardzo zaskakujący. Co jednak ze sztuką, która wydaje się domagać nie tylko kreatywności, ale również zmysłu estetycznego i wrażliwości emocjonalnej? Obecność AI w tej dziedzinie, paradoksalnie, jest z roku na rok większa – ale to tylko dlatego, że Wielka Sztuka zsyłana na nas przez Muzy i Aniołów jest po sąsiedzku z tą całkiem zwyczajną, codzienną sztuką, zsyłaną przez Deadline i Przetarg Otwarty Nieograniczony.

Ot, AIVA. Wspomniany już algorytm tworzy naprawdę miło brzmiące kompozycje – zwłaszcza, kiedy zostaną one zaaranżowane i wykonane przez profesjonalną orkiestrę symfoniczną. Polecam sprawdzić samodzielnie, wpisując w ulubioną wyszukiwarkę frazę „AIVA Genesis” („Genesis” to tytuł fantazji symfonicznej w a-moll, op. 21). To muzyka, która mogłaby świetnie sprawdzić się jako filmowa – po to zresztą stworzono AIVĘ. W maju 2017 r. na konferencji dla początkujących firm PYSU 2017 jej twórcy śmiało stwierdzili: „Następny krok: ­Hollywood”. I choć nikt nie spodziewa się, że AIVA stanie się następnym Brianem Eno czy Johnem Williamsem, nie zapominajmy, że w samym tylko Hollywood powstaje ok. 500 nowych filmów rocznie.

Ze szczególną ostrością ilustruje to fakt często zapominany w dyskusji nad AI: bywa ona po prostu narzędziem mającym spełniać określoną funkcję. Nie wszyscy twórcy AI mają przed oczami filozoficznie ekscytujące, abstrakcyjne cele. Sztuczna inteligencja ma również dostarczać rzeczy, które są poprawne i funkcjonalne, jak choćby 40 minut przyzwoitej muzyki filmowej, która będzie stanowiła odpowiednie tło dla zmagań pewnego policjanta, który postanowił rzucić wyzwanie chińskiej mafii, nawet jeśli będzie to oznaczało złamanie prawa i podłożenie paru ładunków wybuchowych.

W 2018 r. może więc naprawdę ukazać się film, dla którego muzykę napisze jakiś algorytm. Jest też względnie prawdopodobne, że któreś z polskich mediów zdecyduje się powierzyć sztucznej inteligencji pisanie krótkich tekstów dziennikarskich raportujących względnie nieskomplikowane fakty. „The Washington Post” we wrześniu 2017 r. zamknął trwający rok pilotażowy projekt o nazwie Heliograf, będący automatycznym generatorem krótkich treści dziennikarskich, głównie tweetów. Umówmy się – czy to naprawdę tak wielka sztuka napisać, jaki był wynik zakończonego właśnie meczu futbolowego? Podbijanie przez AI nowych terytoriów mówi nam tyleż o poziomie kreatywności maszyn, co o nas samych.

Doktor Watson

Istnieje wiele powodów, dla których sztuczna inteligencja wydaje się być stworzona dla zastosowań medycznych; większość z nich ma związek z kwestią potężnej ilości danych, jaka jest obecna w naukach medycznych i w praktyce lekarskiej. Obróbka danych to zaś naturalny żywioł komputerów. Przeprowadzenie pięciominutowej pogawędki o polityce i sporcie przekracza możliwości wszystkich komputerów świata razem wziętych, ale każdy z nas posiada pod ręką urządzenie, które potrafi zapamiętać milion artykułów naukowych i w ciągu paru sekund przywołać wszystkie miejsca, w których padają w nich słowa „guz tarczycy”. To potęga, którą wręcz trudno sobie wyobrazić. Problemem jest oczywiście zapanowanie nad tymi danymi i doprowadzenie ich do postaci „użytecznej”.

Rok 2017 był wyjątkowy dla AI m.in. dlatego, że po raz pierwszy upublicznione zostały udane przykłady właśnie takiego „pożytku” z dużych danych. W styczniu na Uniwersytecie Stanforda opisano algorytm analizujący zdjęcia zmian skórnych, który potrafi równie dobrze, co dermatolodzy (i to bardzo dobrzy dermatolodzy, którzy wiedzieli, że biorą udział w badaniu naukowym), oceniać prawdopodobieństwo, że dana zmiana ma charakter złośliwy. Co ważne, testowana była zdolność programu do analizy zdjęcia wykonanego telefonem komórkowym. Jest to tak oczywista bomba etyczna, że narzucający się projekt upublicznienia tego algorytmu w postaci darmowej aplikacji został wstrzymany na czas nieokreślony. Nikt nie wie, w jaki sposób poradzić sobie z problemem naturalnie wynikającej z takiego wynalazku erozji zaufania do lekarza czy odpowiedzialności prawnej „sztucznego lekarza”.

Wspomniany na wstępie Watson to drugi „gorący kartofelek”, który na razie pozostaje niezdarnie przerzucany między środowiskiem informatyków a lekarzy. Istnieją wstępne raporty, które pokazują, że ścieżki terapeutyczne „sugerowane” przez ten algorytm bywają podobne, a czasem praktycznie identyczne, do tych wybieranych przez wykwalifikowanych onkologów. O ile, czysto teoretycznie, każdy pacjent jest inny, o tyle ograniczenia czasu i dostępności personelu sprawiają, że często istnieją „standardowe ścieżki postępowania”, względnie łatwe do przewidzenia. Jest to szczególnie bolesny problem choćby w Indiach, gdzie na milion obywateli przypada 1,5 onkologa (dla porównania: w Polsce jest to 57 onkologów na milion mieszkańców; średnia UE to 32). W idealnym świecie prawdopodobnie nie byłoby miejsca na „diagnozę z komputera”. Nie żyjemy jednak w idealnym świecie i już w kilkudziesięciu szpitalach w Indiach lekarze konsultują się z Watsonem przy podejmowaniu decyzji. Teoretycznie ma to postać alternatywnego, pilotażowego eksperymentu. Jak jednak pokazuje wspomniany przypadek mongolski, często jest to wybór między brakiem procesu decyzyjnego a niedoskonałym procesem in silico.

Ta prawidłowość sprawdza się akurat znakomicie już od dekad: najszybciej upowszechniają się te formy AI, które są po prostu wygodne. Nie ma to żadnego związku z debatą etyczną, filozoficzną czy futurologiczną, która następuje zawsze po fakcie, podobnie jak nieświadome i niekontrolowane było zdominowanie naszego świata przez wynalazek druku czy internetu, wraz ze wszystkimi właściwymi dla nich przemianami naszego sposobu życia i myślenia.©

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp kwartalny

Kwartalny dostęp do TygodnikPowszechny.pl
  • Natychmiastowy dostęp
  • 92 dni dostępu = aż 13 numerów Tygodnika
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
89,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]
Filozof przyrody i dziennikarz naukowy, specjalizuje się w kosmologii, astrofizyce oraz zagadnieniach filozoficznych związanych z tymi naukami. Pracownik naukowy Uniwersytetu Jagiellońskiego w Krakowie, członek Centrum Kopernika Badań Interdyscyplinarnych,… więcej

Artykuł pochodzi z numeru Nr 1-2/2018