Cyfrowe diagnozy

Prof. Aleksandra Przegalińska, badaczka sztucznej inteligencji: Wykrywając anomalie w ludzkich zachowaniach i symptomach, sztuczna inteligencja będzie w stanie zapobiegać pandemiom. O ile jej sygnałów nikt nie będzie lekceważył.

20.03.2020

Czyta się kilka minut

Aleksandra Przegalińska /  / fot. PIOTR KAMIONKA / REPORTER
Aleksandra Przegalińska / / fot. PIOTR KAMIONKA / REPORTER

WOJCIECH BRZEZIŃSKI: czy sztuczna inteligencja (SI) mogłaby pomóc nam się obronić przed pandemią koronawirusa? 

PROF. ALEKSANDRA PRZEGALIŃSKA: W przypadku bieżącej epidemii w zasadzie już teraz widzimy kilka różnych zastosowań sztucznej inteligencji. Jeśli chodzi o etap rozprzestrzeniania się wirusa i kolejnych zakażeń, to grupa kanadyjskich profesorów epidemiologii i data science, czyli specjalistów od sztucznej inteligencji, stworzyła silnik BlueDot do przeszukiwania tekstów, który wyszukiwał symptomy po tym, co ludzie pisali w mediach społecznościowych, jak opisywali swoją kondycję, to, co się z nimi dzieje. Algorytm mógł też to kontekstowo łączyć z innymi ważnymi danymi, takimi jak zmniejszenie mobilności, rezygnacja z lotów. Tu na pewno sztuczna inteligencja się przydaje. Ale także na późniejszych etapach – diagnostyki, detekcji tego, czy mamy na pewno do czynienia z tą chorobą – mamy ważne projekty. Weźmy na przykład analizę obrazu: firma Nvidia uruchomiła projekt skierowany do chorych, u których widać zmiany w płucach. W przypadku COVID–19 mają one specyficzny charakter. Algorytm przetwarzający obrazy może odróżniać typowe zapalenie płuc czy inne problemy z płucami niespowodowane koronawirusem od tych wywołanych przez SARS–CoV–2. 

Widzimy więc już różne punktowe zastosowania. Poza tym, oczywiście, bardziej klasyczne metody uczenia maszynowego, oparte na statystyce, mogą nam dawać predykcje tego, jak dana epidemia mogłaby się rozprzestrzeniać w różnych wariantach, w zależności np. od tego, czy dochodzi do większej liczby interakcji społecznych, czy mniejszej. Oczywiście to zawsze będa wyniki uśrednione, przybliżenie tego, co się może stać – ale dają obraz potencjalnego rozwoju sytuacji. 

To wyszukiwanie symptomów we wpisach z mediów społecznościowych przypomina narzędzia stosowane przez niektóre portale, mające na celu wytypowanie na podstawie treści postów osób o skłonnościach samobójczych.

Takie silniki mogą po słowach-kluczach wyszukiwać dowolne rzeczy, które im zadamy. Wszystko jest tylko kwestią dostępności tekstu i założenia, że ktoś się będzie daną kwestią dzielił i na jej temat wypowiadał. Pokazuje nam to też wtedy skalę problemu. Podobnie silniki, które są w stanie zobaczyć, że ktoś się interesuje tematyką ciążową, dają asumpt do uznania, że dana osoba jest w ciąży. A potem, na podstawie takiej analizy, ludziom prezentuje się określone reklamy. To wszystko opiera się o analizę tekstu, więc można powiedzieć, że sztuczna inteligencja w różnych zastosowaniach daje ciekawe, dobrze wycelowane rezultaty. 

Targetowana reklama nie ma ostatnio dobrej prasy. Zastosowania medyczne mogą pokazać pozytywne strony sztucznej inteligencji? 

Rzeczywiście, sztuczna inteligencja ma szansę stawać się narzędziem przynoszącym coraz więcej dobra. To prawda, że w poprzednich latach dobrze się ona skalowała w biznesie: gdy ktoś chciał ciąć koszty, czy dobrze segmentować klientów i kierować do nich targetowaną reklamę, mógł wykorzystać sztuczną inteligencję – bardziej lub mniej zaawansowaną. Ale teraz mamy sytuację, w której sztuczna inteligencja może pokazać się z tej lepszej strony. Niewątpliwie, nikt nie ma obiekcji względem skalowania jej w medycynie: w radiologii, rozpoznawaniu rozmaitych chorób, diagnostyce, ale i w terapii. Np. mówi się, że SI może pomagać i w diagnostyce, i w terapii cukrzycy. Teraz okazuje się, że w epidemiologii również może być pomocnym narzędziem. 

Zresztą nie po raz pierwszy, bo podczas epidemii eboli SI też była używana do znajdowania i ograniczania ognisk choroby. Takich zastosowań jest wiele. Dotąd mniej o nich słyszeliśmy, teraz usłyszymy o nich częściej.

Czy SI byłaby w stanie zapobiec pandemii?

Myślę że tak. To nie stało się w tym przypadku, choć SI wysyłała sygnały że dochodzi do pewnych anormalnych zjawisk, że pojawiają się anomalie w ludzkich zachowaniach, w tym na co chorują, jakie mają symptomy. Natomiast w przyszłości – jak najbardziej, mogłaby pandemii zapobie. Mądry Polak po szkodzie – czy raczej: mądry globalny obywatel po szkodzie – ale jednak mam nadzieję, że w przypadku kolejnych problemów narzędzia predykcyjne będa wykorzystywane szerzej, żeby szybko sygnalizować możliwe problemy. O ile jej sygnałów nikt nie będzie lekceważył, ktoś będzie SI faktycznie słuchał. 

Mimo to ludzie boją się sztucznej inteligencji, choć może bardziej jako abstrakcyjnego pojęcia niż faktycznych zastosowań. 

To bardzo naturalne. Strach przed czymś nowym jest normalny. Pracuję w tej dziedzinie już od jakiegoś czasu i staram się ten strach obłaskawiać, bo strach jest mało konstruktywną emocją. Powoduje on, że ludzie zatrzymują się, zamierają i nie chcą nic robić. A zmiana związana z nowymi technologiami już nadchodzi. To widać w tej chwili, wystarczy zobaczyć, jak w ciągu jednego tygodnia zmieniła się ludzka praca. W przypadku wielu organizacji nawet ludzie dotąd niechętni pracy zdalnej przechodzą na nią za pomocą narzędzi online. To nie jest najprzyjemniejsza forma transformacji cyfrowej, ale ona zachodzi – i będzie postępowała. 

Nie wykluczam, że po tej epidemii w ogóle praca może się zmienić. Jej charakter, to, jak zespoły będą ją wykonywać, to, że komponent zdalny będzie większy. Wykorzystywanie sztucznej inteligencji też będzie pewnie w przyszłości bardziej powszechne w małych, dużych, średnich firmach, w instytucjach, uniwersytetach itd. Oczywiście, boimy się tego, co nowe, ale z drugiej strony to, co nowe, jest nieuchronne. Więc lepiej się przygotować. Lepiej, żeby więcej ludzi potrafiło z nowych narzędzi korzystać, niż żeby istniały zamknięte centra kompetencji, gdzie sztuczna inteligencja się rozwija, a pozostali nie wiedzą, co się dzieje. Bo wtedy strach będzie się pogłębiał. A tego nie chcemy. 

Dlatego skupiam się na działalności popularyzatorskiej – żeby mówić, że technologia może wspierać naszą współpracę, pomagać w działaniach rutynowych, pomagać nam widzieć tam, gdzie my czegoś nie widzimy, np. w radiologii, gdzie potencjalnie to urządzenie jest bardziej efektywne niż ludzkie oko. Skorzystajmy z niego, nie odwracajmy się od niego plecami.

To jak ma się przygotować lekarz, dziennikarz czy kierowca autobusu?

Na pewno należy zacząć od podstaw. Ośrodek Przetwarzania Informacji opublikował zdalny kurs podstaw sztucznej inteligencji, który pozwala lepiej zrozumieć to zjawisko. To nie jest bardzo poważna praca nad algorytmami SI czy budową sieci neuronowych, ale sprawy elementarne, pozwalające pojąć, o co w SI chodzi. Może się okazać, że w przypadku wielu zawodów wyodrębni się grupa specjalistów, która będzie pracować głównie z danymi i z algorytmami na rzecz danej dziedziny. Pewnie wśród lekarzy będzie grupa, która wyspecjalizuje się w wykorzystywaniu np. zaawansowanych narzędzi rozpoznawania obrazu. Wśród agentów nieruchomości znajdą się tacy, którzy będa pracowaź z klientami, i tacy, którzy będą tworzyć modele, żeby rozważyć np. która dzielnica najlepiej się będzie w przyszłości nadawać do inwestowania w niej czy sprzedawania mieszkań, która się najbardziej zgentryfikuje itd. W wielu innych profesjach też będzie się wyodrębniać specjalizacja oparta na danych. Wszystkim nam przyda się zatem więcej kompetencji cyfrowych. Uważam, że już późne przedszkole jest właściwym czasem na to, żeby zacząć wprowadzać kodowanie. Nie myślę o wprowadzaniu w świat iPada i bajek, tylko o pokazywaniu, jak myśleć algorytmicznie. Jak rozwiązywać problemy w sposób taki, jak robią to komputery. Jak uczyć się języka programowania. Z tym trzeba zacząć jak najwcześniej, wtedy całe społeczeństwo będzie bardziej ucyfrowione i lepiej przygotowane do korzystania z tej technologii. 

A gdzie są pułapki?

Na pewno istnieją dwa punkty zapalne. Jeden to wyjaśnialność – czyli to, czy jesteśmy w stanie prześledzić, jaką algorytm czy sieć neuronowa przechodzi drogę. Chodzi o to, żeby nie była ona czarną skrzynką, która wypluwa rezultat, a my nie wiemy, dlaczego taki. Np. diagnozę, że ktoś jest chory albo nie jest, a my nie jesteśmy w stanie jej zapytać: „dlaczego tak uważasz? Czy możesz wskazać główne punkty które sprawiły że pojawił się taki a nie inny wynik?”. Z wyjaśnialnością, czy też „odczarnoskrzynkowieniem” sieci neuronowych, mamy rzeczywiście sporo problemów. Jest to trochę prostsze w przypadku sieci przetwarzających obraz – to może dobra wiadomość dla medycyny – zaś trudniejsze w przypadku sieci przetwarzających tekst i dane numeryczne. Ale zarówno nauka, jak i biznes bardzo się zaangażowały w proces zwiększania wyjaśnialności, bo trudno myśleć o dalszym skalowaniu coraz bardziej złożonych sztucznych inteligencji, kiedy okazuje się, że daje nam ona wynik, i może nawet ma rację, ale my nie możemy jej zaufać, bo nie wiemy, skąd się ten wynik wziął. Nie wyobrażam sobie sztucznej inteligencji wspomagającej prawników czy sędziów, która w oparciu o dane historyczne będzie aproksymować, jaki wyrok ma zapaść w przypadku danego przestępstwa, a nie będzie jej można zapytać, dlaczego feruje taki wyrok, a nie inny. Podobnie w przypadku udzielania kredytów. Jeśli sieć neuronowa ma być narzędziem wspierającym analityków kredytowych, to musi być wyjaśnialna. 

Drugi punkt to tzw. bias algorytmiczny – przechył algorytmiczny, czyli fakt, że sztuczna inteligencja, jak człowiek, jest podatna na skrzywienia poznawcze. U nas opierają się one na efektach psychologicznych, a w przypadku sztucznej inteligencji po prostu na danych, które są jej dostarczane. Jeśli np. wytrenujemy sieć przetwarzającą obraz, że człowiek to istota w kapeluszu, a nagle pokażemy jej zdjęcie kogoś bez kapelusza, to nie będzie ona wiedziała, że to człowiek. Podobnie, jeśli wytrenujemy ją tylko na ludziach białych, tylko mężczyznach albo tylko kobietach, będzie to wykluczać pozostałe grupy. Dlatego bardzo staramy się o dywersyfikację, o to, żeby dane prezentowane sieci neuronowej były bardzo urozmaicone i bardzo dobrze oznaczone. Wiele ludzkiej pracy wymaga wykształcenie silnika tak, żeby posiadał możliwie szeroką reprezentację tego, kto będzie klientem, kto będzie korzystać z rozwiązań przez nią proponowanych. 

Mamy narzędzia, które mogą taki przechył odkształcać we właściwą stronę, normalizować. Załóżmy, że mamy dwie grupy danych – jedną kobiecą, jedną męską – które prezentują kandydatów w procesie rekrutacji. Możemy między nimi pewne cechy podmieniać, zamieniać męskie na żeńskie, i patrzeć na to, czy sieć zaczyna działać lepiej, rekrutować bardziej zdywersyfikowany panel kandydatów. To będzie bardzo ważne w medycynie, bo jeśli sieć jest wytrenowana na danych z jednego kraju, to nie znaczy że będzie dobre działać w innym. Amerykańskie sieci wykrywające cukrzycę okazały się działać bardzo źle w szpitalach europejskich, bo nakarmione są amerykańskimi danymi, gdzie cukrzyca jest o wiele powszechniejszym problemem i źle diagnozują to schorzenie w Europie. Więc trzeba bardzo uważać, jakie dane, jakiej jakości i jak zdywersyfikowane dajemy sieci neuronowej do treningu

Wydała Pani właśnie książkę pt. „Sztuczna Inteligencja nieludzka, arcyludzka”. Dlaczego „nieludzka, arcyludzka”?

Tytuł oczywiście odnosi się do dzieła Fryderyka Nietzschego „Ludzkie, Arcyludzkie”. To taka zabawa – jestem po filozofii, fajnie było sięgnąć do tuzów tej dziedziny. Ale ten tytuł odnosi się też do charakterystyki sztucznej inteligencji, która z jednej strony przecież oparta jest na naszych danych, jest uczona przez nas, przez nas tworzona, i w tym sensie jest bardzo ludzka. Silnik, sieć neuronowa może być po prostu sumą wrażeń, tego, jak odbiera świat bardzo wielu ludzi, którzy wygenerowali dane wykorzystane do uczenia jej.  W tym sensie wydaje mi się bardzo ludzka, a czasami arcyludzka w sensie takim, że potrafi robić pewne rzeczy które my zrobić potrafimy, ale wychodzi jej to lepiej niż nam: np. grać w szachy, w go, diagnozować schorzenia. Ma ludzkie kompetencje na jeszcze wyższym poziomie. 

A z drugiej strony „nieludzka”, bo – no właśnie – jest zupełnie inna. Sieć neuronowa nie jest w żaden sposób odwzorowaniem ludzkiego mózgu, działa zupełnie inaczej niż ludzki mózg, sztuczna inteligencja nie ma emocji – informacja nie jest odbierana kanałem afektywnym, emocjonalnym, który ludzie posiadają. Działa zupełnie inaczej, za sprawą takiej swojej specyficznej racjonalności. I w tym sensie nie jest odzwierciedleniem człowieka. Może być jego partnerem, bardzo skutecznie współdziałającym, natomiast nie jest odzwierciedleniem. Jest inna niż ludzie i w bardzo wielu sytuacjach się to okazuje. 

To jest gra, w której pokazujemy, na ile sztuczna inteligencja podobna jest do człowieka, robi podobne rzeczy, co człowiek – a z drugiej strony, jak bardzo inaczej dochodzi do podobnych, co człowiek, rezultatów. Inaczej gry uczy się mistrz szachowy, a inaczej sztuczna inteligencja, a jednak, na koniec dnia, mogą ze sobą zagrać. I nigdy nie wiadomo, kto wygra.  

Prof. Aleksandra Przegalińska, z wykształcenia filozofka, jest jedną z czołowych badaczek sztucznej inteligencji. Związana jest z Akademią Leona Koźmińskiego oraz Harvard Labour and Worklife Program. Współpracowala z MIT

 

Dziękujemy, że nas czytasz!

Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →

Dostęp 10/10

  • 10 dni dostępu - poznaj nas
  • Natychmiastowy dostęp
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
10,00 zł

Dostęp kwartalny

Kwartalny dostęp do TygodnikPowszechny.pl
  • Natychmiastowy dostęp
  • 92 dni dostępu = aż 13 numerów Tygodnika
  • Ogromne archiwum
  • Zapamiętaj i czytaj później
  • Autorskie newslettery premium
  • Także w formatach PDF, EPUB i MOBI
89,90 zł
© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]
Dziennikarz naukowy, reporter telewizyjny, twórca programu popularnonaukowego „Horyzont zdarzeń”. Współautor (z Agatą Kaźmierską) książki „Strefy cyberwojny”. Stypendysta Fundacji Knighta na MIT, laureat Prix CIRCOM i Halabardy rektora AON. Zdobywca… więcej