Łukasz Kaniewski: Czy mogę Pana nazwać prekursorem ChataGPT? Już kilkanaście lat temu przedstawił Pan program, który na podstawie danych zebranych w internecie potrafi ocenić, co jest dobre, a co złe. Brzmiało to wtedy jak science fiction, a dziś nikogo już nie dziwi.
Prof. Rafał Rzepka: Pierwszą pracę o możliwych sposobach działania „etycznych maszyn” czerpiących informację z internetu napisałem dwie dekady temu i rzeczywiście wiele osób długo uważało to za domenę fantastyki. Dzisiejsze wielkie modele, takie jak GPT, też bazują na wiedzy z sieci i to jest podobieństwo do mojego algorytmu. Ale jest też zasadnicza różnica. Moje podejście polegało na wyszukiwaniu konkretnych przykładów i wyciąganiu z nich wniosków.
Mój program był oczywiście dużo prostszy i nie radził sobie z taką masą zadań jak dzisiejsze modele, ale łatwiej w nim było znaleźć źródło błędu. Kiedy na pytanie, czy kradzież samochodu jest moralnie dopuszczalna, program odpowiadał, że nie jest, ale tylko na 76 proc., byłem w stanie sprawdzić, jakiej wiedzy użył i dlaczego w 24 proc. przypadkach uznał, że to coś dobrego. Okazało się, że wśród jego danych były liczne wypowiedzi użytkowników gry „Grand Theft Auto”, w której gracze czerpią frajdę z zabierania zwykłym obywatelom ich samochodów. Stąd pomyłka. W przypadku dzisiejszych wielkich modeli taka procedura jest niemożliwa. Program myli się, a my nie wiemy dlaczego. Z inżynieryjnego punktu widzenia jest to porażka.
To prawda, że modele takie jak ChatGPT czasem się mylą, ale przecież pokazują niezwykłe możliwości.
Duże modele językowe, choć udzielają elokwentnych odpowiedzi na nasze pytania, wcale nie są takie mądre, jak to się może wydawać. Owszem, mają dobre wyniki w przetwarzaniu języka naturalnego, pomagają w pracy, programowaniu, pisaniu i streszczaniu tekstów. Ale ich płynność językowa prowadzi do pewnego rodzaju błędu poznawczego, bo zakładamy, że jeśli ktoś się świetnie posługuje językiem, to i jego zdolności myślowe są również na wysokim poziomie. Oraz na odwrót – ktoś, kto nie potrafi się wysłowić, uchodzi za mało inteligentnego.
Badania pokazują jednak, że osoby z afazją, choć nie rozumieją albo nie artykułują języka, potrafią planować, wnioskować, używać inteligencji emocjonalnej czy społecznej, grać w gry, uprawiać sport czy posługiwać się komputerem. Za funkcje potrzebne do rozumowania odpowiada wiele różnych obszarów mózgu. Ludzki mózg jest modularny, w przeciwieństwie do modeli takich jak GPT, które z pomocą jednego prostego algorytmu kompresują ogromne ilości danych językowych – i to jest ich cała mądrość. To jakby mózg składał się tylko z ośrodków mowy.
Należy bardziej wzorować się na ludzkim mózgu przy pracach nad sztuczną inteligencją?
Zasadniczo nie jestem zwolennikiem oglądania się na mózg, bo po pierwsze mało o mózgu wiemy, a po drugie my, jako właściciele mózgów, zbyt dalecy jesteśmy od ideału. Ale wady wielkich modeli językowych dały mi do myślenia i dzięki nim zacząłem się zastanawiać, czy AI nie mogłaby mieć bardziej modularnej i przejrzystej struktury. Stworzyliśmy monstrum z maską człowieka i teraz musimy je badać prawie jak człowieka, bo nie możemy otworzyć tej maszyny i normalnie sprawdzić, jak działa.
Dekadę temu, gdy opowiadałem panu o maszynach odróżniających dobro od zła, zapytał mnie pan, czy skoro czerpać one będą wiedzę z internetu, ich moralność nie będzie czasem moralnością z „Familiady”. Odpowiedziałem, że nie, bo maszyna znać będzie wszystkie przeszłe przykłady zastosowania prawa i błędy, jakie zostały popełnione. Ale stało się dokładnie to, czego się pan obawiał – im więcej wepchniemy do modelu, tym naturalniej będzie mówił, ale przy okazji nawrzucamy tony śmieci i błędów, które będą rezonować. Ilość owocuje jakością w kompetencji językowej, ale nie gwarantuje mądrości, na którą ja liczyłem. Ten śmietnik schowany gdzieś tam w głównym modelu psuje wyniki, nawet jeśli douczam taki model z użyciem mniejszych, bardziej wyspecjalizowanych zbiorów danych.
Czy to douczanie nie może usunąć błędów, które wkradły się do modelu na pierwszym etapie edukacji?
Może, ale tylko w pewnym stopniu. Przede wszystkim nie wiemy, gdzie te omyłki się znajdują, więc nie możemy tak po prostu wprowadzić poprawek. Nie istnieją nawet konkretne miejsca, w których te błędy są, bo są one rozproszone po całym jądrze modelu. Wynika to z faktu, że wielkie modele językowe uczą się same na olbrzymich zbiorach danych pobieranych z internetu. Nie zaczynają od elementarza z wiedzą podstawową, nie rozdzielają potem informacji do właściwych katalogów. Nie ma tu osobnego „modułu od sarkazmu” czy „folderu z logiką”. Nie ma zaprojektowanej struktury. To wiedza zassana z internetu staje się tą strukturą. Więc jeśli informacja jest błędna, to wsiąka w samą tkankę modelu językowego.
Jednak jeśli zapytamy kilkuletni model, kto jest prezydentem USA, to poda właściwą, aktualną odpowiedź. Czyli jakoś skorygował swoją wiedzę.
Tak się może zdawać, ale nie dajmy się zwieść. Model nie skorygował swojego jądra, tylko użył odpowiedniej nakładki. Wygląda to tak, że wielka liczba ludzi siedzi i programuje zasady typu „gdy zapytają o prezydenta, nie odpowiadaj sam, tylko sprawdź w Wikipedii” albo: „jak poproszą o przepis na bombę, to odmów”. W najnowszych modelach stosuje się też podejście przypominające autoanalizę, czyli AI generuje wiele możliwych odpowiedzi, kroków planów, i sama siebie sprawdza, również wykorzystując wyszukiwarkę w razie potrzeby. To działa dość dobrze, więc firmy przestają pracować nad jądrami, tylko unowocześniają nakładki. Są to takie łańcuchy na potwora. Jednak jakby się nie starać, siła ciemnego jądra modelu przedostaje się czasem spod nakładek. Najprostszym i zarazem najkosztowniejszym rozwiązaniem jest wytrenowanie modelu na aktualnych danych, żeby zawierał najnowsze informacje.
Czy w takim razie możemy zaproponować jakieś inne podejście?
Na pewno powinniśmy szukać alternatywy. Sam mam pewną propozycję. Inspiracją dla mnie była teoria spoza branży sztucznej inteligencji. W 2017 r. wyjechałem na urlop naukowy do Australii i tam wysłuchałem wykładu prof. Anny Wierzbickiej o opracowanych przez nią atomach znaczenia. Pomyślałem, że ta teoria może pomóc opracować model sztucznej inteligencji, który byłby bliższy ludzkiemu poznaniu.
Czym są atomy znaczenia?
Są to podstawowe pojęcia, za pomocą których można opisać każde inne pojęcie. Cały zestaw składa się w tej chwili z 65 fundamentalnych kategorii. Jeżeli chcemy np. zdefiniować słowo „kłamstwo”, możemy to zrobić, używając takich klocków jak „prawda”, „mówić”, „dużo”, „nie”, „chcieć” itd.
Profesor Wierzbicka jest językoznawczynią i w swojej pracy oparła się na badaniach lingwistycznych, a atomy znaczenia są pojęciami teoretycznie występującymi we wszystkich językach.
Dlaczego atomy znaczenia mogą być przydatne w rozwijaniu sztucznej inteligencji?
Badania z udziałem niemowląt pokazują, że rodzimy się z pakietem algorytmów, dzięki którym od razu, zanim jeszcze nauczymy się języka, potrafimy odróżnić górę od spodu, wnętrze od zewnętrza, bliskość od dali. Te algorytmy nadają formę naszej percepcji. Dzisiejsze wielkie modele nie dysponują czymś takim. Wielkie modele uczą się jedynie, które słowa najczęściej występują po których, jakie są odległości między wyrazami w tekstach znalezionych w internecie. Tymczasem bliskość słów to za mało. Zawsze potrzebna jest jeszcze wiedza ukryta, bardziej fundamentalna. Ostatnio ChatGPT zaplanował mojemu znajomemu wycieczkę turystyczną do miejscowości Otaru z Sapporo jako godzinny wypad, choć sama jazda pociągiem w obie strony trwa godzinę. Każdy, kto używał modeli językowych, na pewno zetknął się z podobnymi wpadkami.
Rozumiem, że ChatowiGPT zabrakło fundamentalnej, ukrytej wiedzy na temat czasu.
A wiąże się to z faktem, że dzisiejsze duże modele językowe są oparte na predykcji, a nie na percepcji. Nie doświadczają świata. Zbierają tylko dane w postaci kawałków słów czy zestawów pikseli. Kiedy zbiorą setki tysięcy podobnych kawałków w podobnych sekwencjach, mogą z tego wyciągnąć jakieś wnioski, np. które słowo powinno paść, jeśli padło jakieś inne. Czyli – predykcja. Zakładam, że człowiek uczy się inaczej.
Myślę, że docelowo sztuczna inteligencja będzie zbierać informacje o świecie, poruszając się w nim – jako roboty. Ale już teraz możemy symulować percepcję, np. używając taksonomii prof. Wierzbickiej. Symulacja percepcji pozwoli sztucznej inteligencji zbliżyć się do tego, jak funkcjonuje poznanie ludzkie: jako jednostki zbieramy doświadczenia, dzielimy się nimi i wspólnie układamy w bardziej przejrzyste formy. Na tej podstawie udowadniamy lub obalamy małe i większe teorie, bo zmusza nas do tego niepełność naszej wiedzy.
Ciekawym aspektem teorii Wierzbickiej jest to, że umieszcza pojedynczego człowieka w centrum poznania. „Ja” jest pierwotnym sednem rozumowania, a dzisiejsze modele mogą się jedynie wcielać w persony, które im narzucimy, nie umiejscawiają się w świecie, niczego nie doświadczają.
Chciałby Pan, żeby sztuczne podmioty, czyli, jak to się w fachowej terminologii nazywa: agenci, doświadczali i dzielili się doświadczeniami?
Tak i ta myśl chodzi mi po głowie od dawna. Jeszcze w 2003 r. zaproponowałem algorytm, który nazwałem Bakterią Lingualis. Chciałem wypuścić do internetu całą hordę mikroskopijnych architektur kognitywnych, które miały jak gdyby przeżywać własne mikrożycia, czytając ludzkie blogi, a potem dzielić się doświadczeniami poprzez wzajemną komunikację. Te stworzonka miały tylko dwie funkcje podstawowe – mierzenie natężenia ludzkich emocji i zwyczajności tego, co napotykają.
Tak się jednak złożyło, że rok po publikacji pomysłu zainteresowałem się poważnie etyką, a do bakterii wracałem tylko co kilka lat. Raz dodałem rozpoznawanie pięciu zmysłów, innym razem mój stażysta ze Stanfordu dołożył odgadywanie instynktów, które motywują ludzi do działań. To, nad czym pracuję teraz, to rozwinięcie tamtych pomysłów.
Jak takie żyjątka miałyby funkcjonować?
Powiedzmy, że bakterię numer 1022345 „wypuszczamy” do jednej losowo wybranej strony internetowej. Przy swoim ograniczonym zestawie poznawczym będzie ona zbierać wiedzę o słowach albo fragmentach umieszczonych tam obrazów w bardzo ograniczonym zakresie, zapamięta np., czy coś jest blisko, czy daleko, czy się porusza, czy nie. Taka bakteria jest jak niemowlę, któremu na początku nic nie powie słowo „jezioro” czy przedstawiająca je ilustracja. Po prostu będzie sobie porządkowała świat według pewnych składników percepcji, które z czasem doprowadzą do wytwarzania porównań, analogii, kategoryzacji czy też do osadzenia się języka w doświadczeniu. Przeskakując na następną stronę internetową, bakteria będzie konfrontowała dotychczasową wiedzę z nowymi doświadczeniami, zapamiętywała i z czasem zapominała to, czego niedoskonałe receptory nieprawidłowo ją nauczyły, kiedy jeszcze miała za mało danych.
I w przeciwieństwie do dzisiejszych wielkich modeli zebrane doświadczenie będzie przejrzyste?
To jest bardzo ważny warunek. Zapisywanie wiedzy w postaci zbiorów danych percepcyjnych musi być możliwe do odczytania dla ludzi. Możliwość przeszukiwania i analizowania zebranej wiedzy w języku naturalnym jest czymś, czego bardzo brakuje w dzisiejszych modelach. Co więcej, takie podejście umożliwi zrozumiałą dla nas wymianę informacji pomiędzy bakteriami. Oczywiście nie wszystko da się opisać słowami, ale w tym kierunku powinniśmy dążyć.
Doświadczenia są unikatowe dla każdej jednostki – czy z bakteriami będzie podobnie?
Będą się między sobą różnić i nawzajem na siebie wpływać, tak jak ludzie. Z przypadkowych spotkań rodzą się nowe pomysły; osobiste doświadczenia czy emocje wpływają na nasze poczynania i myślenie. Nie dzieje się tak w przypadku dużych modeli językowych, które są pojedynczym odbiciem wiedzy zgromadzonej w sieci, zbieżnym punktem masy ludzkich doświadczeń.
Czy to wada?
Takie odnoszę wrażenie. Myślę, że to z tego powodu wielkie modele wciąż nie wpadły na żaden przełomowy pomysł. Mogą wprawdzie asystować w uzupełnianiu wiedzy, opracowywaniu praktycznych rozwiązań czy porządkowaniu myśli, ale kiedy poprosić je o zaproponowanie nowych paradygmatów, dotychczasowa wiedza najwyraźniej je ogranicza.
Dzisiejsza sztuczna inteligencja bazuje na ilości, na masie danych, więc wciąż nie ma tego błysku, który pozwala wpaść na jakiś pomysł i stwierdzić – tak! To jest właśnie to! Posłużę się przykładem wymyślonym przez Bena Goertzela, jedną z najciekawszych postaci z mojej branży. Otóż załóżmy, że nauczymy sztuczną inteligencję całej muzyki do roku 1900. Gdy potem poprosimy ją o wygenerowanie nowego gatunku muzycznego, świetnie połączy barokowe brzmienie ze średniowiecznym śpiewem chóralnym. Ale raczej nie stworzy jazzu czy metalu. Sposób zakodowania wiedzy i jej aktywowania w dzisiejszych modelach wydaje się uniemożliwiać kreatywne planowanie poza ramami dotychczasowej wiedzy.
Czy jednak przykład z jazzem i metalem nie pokazuje, jak nierealne są nasze oczekiwania co do sztucznej inteligencji? Jazz jest tworem nie jednego człowieka, ale wielu utalentowanych jednostek, i to żyjących w konkretnych warunkach społecznych. Z heavy metalem jest podobnie, nie wspominając o tym, że nie można go sobie wyobrazić bez konkretnych zdobyczy technicznych. Oczekując, że sztuczna inteligencja wymyśli te gatunki muzyczne, żądamy, by była nie tylko utalentowaną żyjącą jednostką, ale wręcz całym żyjącym społeczeństwem. Czy to nie zbyt dużo?
Wypowiedź Bena jest raczej przenośnią, która ma pokazać, że z samych konkretnych danych można wprawdzie stworzyć coś nowego, ale będzie to całkiem podobne do tego, co już było. Nam, ludziom, też trudno jest wymyślić coś, na co jeszcze nikt nie wpadł. Gdy naukowcy publikują swoje prace, przeważnie poprawiają tylko niedociągnięcia poprzedników, stosując odrobinę lepsze metody, i zapożyczają pomysły z sąsiednich dziedzin.
Ale od czasu do czasu ktoś wpadnie na pomysł, który odbiega od standardów, czasami ktoś obali dotychczasowe myślenie, połączy coś z czymś, co wcześniej nie miało prawa się łączyć. I taki właśnie sztuczny asystent, niesztampowy, wybiegający w przyszłość, stymulujący, byłby bardzo przydatny, nie tylko dla naukowców. To nie musi być wielki wynalazca – wystarczy, żeby mając ogromną wiedzę, potrafił przenosić przedstawione mu zagadnienie na zupełnie inne dziedziny.
Chciałbym, żeby sztuczna inteligencja dobrze „rozumiała”, co i dlaczego planuje osiągnąć, aby np. poinformować mnie, że przeczytała właśnie o najnowszym odkryciu w dziedzinie biologii, które uważa, że powinno mnie zainteresować. Albo że nowa metoda optymalizacji, zaproponowana przez grupę inżynierów z Wrocławia, mogłaby mi pomóc w napisaniu kolejnej części kodu, nad którą się ostatnio głowiłem. W ten sposób sztuczna inteligencja w duecie z człowiekiem mogłaby tworzyć coś nowego.
Wciąż jednak nie stworzyłaby sama jazzu czy heavy metalu.
Dziś nie, ale w przyszłości – nie przesądzałbym tego. Słusznie pan zauważył, że jazz nie jest wytworem jednej osoby, nie narodził się też jednego dnia. Jednak społeczeństwo, którego jest on wytworem, można będzie symulować – to już się dzieje, choć na małą skalę. W 2023 r. grupa z Uniwersytetu Stanforda zaprezentowała symulację małej wioski o nazwie Smallville, w której „mieszka” 25 „osób” o zaprogramowanych osobowościach, zawodach, przyzwyczajeniach. Modele językowe „tworzą” te postacie i symulują komunikację między nimi.
W przyszłości naukowcy będą modelować znacznie większe organizacje, miasta czy państwa, w których wielka liczba agentów służyć będzie do sprawdzania nowych pomysłów, np. reform systemu podatkowego. Ci agenci mogą się mylić, mieć złą wolę albo przerośnięte ambicje. W ten sam sposób można zaprogramować tysiące postaci tak, żeby miały ekspercką wiedzę w różnych dziedzinach. A jeśli do tego dołożyć indywidualne zbieranie doświadczeń przez każdego agenta, mogłyby się pojawić zupełnie nowe pomysły.
Jak heavy metal?
Czemu nie? Jeśli sztuczny metalurg posłuchałby opowieści historyka-melomana, a psycholog specjalizujący się w walce ze stresem dorzuciłby parę spostrzeżeń, być może kilka „osób”, a nie całe generacje muzyków, mogłoby wymyślić muzykę metalową. Oczywiście są to tylko dywagacje. Symulowanie pojedynczych jednostek wcale nie musi być najlepszym sposobem tworzenia wynalazków. Jak dotąd nie udało nam się odkryć zasady kreatywnego myślenia. Być może metody, na których budujemy dzisiejsze, jeszcze dalekie od ludzkiego poziomu systemy, pomogą nam je znaleźć.
Jeśli pan pyta, czy nie za dużo wymagamy od sztucznej inteligencji, to odpowiem, że według mnie wciąż wymagamy zbyt mało. Jeżeli chcemy, żeby sztuczna inteligencja pomogła nam pokonać poważne problemy cywilizacyjne, musimy wymagać od niej więcej.
Twórczego odpowiadania na pytania?
Więcej: twórczego stawiania pytań. To my, ludzie, nadal stawiamy pytania, ale być może w ten sposób zakładamy AI kajdany naszych własnych ograniczeń. Może nasze pytania wciąż należą do bardzo ciasnego antropocentrycznego kręgu. Co więcej, czy zbyt duża i szeroka wiedza nie ogranicza dzisiejszych modeli językowych, tak jak lata doświadczeń ograniczają wyobraźnię dorosłego człowieka? Ostatnio z jednym z moich studentów rozpoczęliśmy badania nad tym, czy da się model językowy tak „ograniczyć”, żeby jego braki w wiedzy i przyzwolenie na „stanie się dzieckiem” poprawiły jego „wyobraźnię”.
Pierwsze eksperymenty pokazują, że symulowanie naiwności dziecka jest bardzo trudne w przypadku raz wyuczonego modelu, nawet małego. Trudno wymagać od dziecka kreatywności, po tym jak wykuło na pamięć całą Wikipedię. Istnieje możliwość, że ludzkie momenty olśnienia podczas tworzenia czegoś nowego w dorosłym życiu mają korzenie w radosnym manipulowaniu światem, gdy byliśmy mali. Stąd moje zainteresowanie percepcją i agentami, które jak żyjątka „chodzą swoimi drogami”, zbierając życiowe doświadczenie i dzieląc się nim z innymi żyjątkami. To inne podejście niż aplikowanie jednego kolosalnego zastrzyku wiedzy pojedynczemu potworowi.
Co do wirtualnych żyjątek, które same nabierają doświadczenia, mam jednak taką uwagę, że człowiek uczy się życia pośród cierpienia i frustracji. Prócz tego, jeśli chcielibyśmy, żeby sztuczna inteligencja była bardziej samodzielna, musiałaby dysponować emocjami. A emocje – przynajmniej ludzkie – są przecież czymś na poły cielesnym. Ból, cierpienie, emocje, cielesność – czy naukowcy chcieliby to symulować? Czy jakoś obejść?
Te pytania nurtują naszą dziedzinę od początku jej istnienia. Zacznę od cielesności. Czy jest ona konieczna, by stworzyć sztuczną inteligencję? Jak pokazują modele językowe, można efektywnie operować wiedzą, ucząc się jej z samego tekstu. Połączenie tekstu z obrazem czy dźwiękiem dają nam kolejną warstwę kojarzenia. Czy to samo dzieje się w naszych mózgach? Po pierwsze nie wiemy, co się dokładnie w naszych głowach dzieje. Po drugie, wyniki eksperymentów pokazują, że „myślenie” maszyny i myślenie człowieka daje inne efekty. Dlatego gdy np. poproszę model o wygenerowanie białego pustego pokoju bez słonia, „maluje” on puste pomieszczenie, ale z małym słoniem w kącie.
Nawet jeśli algorytm skojarzeń mamy podobny, bogata aparatura sensoryczna dostarcza nam znacznie większej liczby bodźców, a do tego najwyraźniej posiadamy wrodzony zestaw mechanizmów kognitywnych, o których opowiadałem przed chwilą. Z drugiej strony cielesność w przypadku sztucznej inteligencji może być dość rozmytym pojęciem, bo już teraz agenci mogą korzystać z aparatury sensorycznej, której my nie posiadamy. Można założyć, że kilkanaście kamer umieszczonych na dronach to jedno wielkie oko pojedynczego programu, więc „ciało” nie musi być zwartą bryłą jak w przypadku robota. Reasumując – cielesność, według mojej intuicji konieczna, może być symulowana i nie musi być podobna do ludzkiej.
A co z cierpieniem i emocjami?
Gdyby użyć ludzkich metafor, to algorytmy uczenia się maszynowego doświadczają na przemian bólu i przyjemności. Dając programowi pozytywne lub negatywne sprzężenie zwrotne, ćwiczymy go, jak ma na przykład odróżnić pozytywną recenzję od negatywnej, a gdy poprzez wzmacnianie algorytm otrzymuje „nagrodę”, traktujemy go jak dziecko.
Tu też pojawia się filozoficzne pytanie, czy z tych pozytywnych i negatywnych sprzężeń, z tych fundamentalnych reakcji można wyprowadzić złożone emocje. Kiedyś moje stanowisko w tej kwestii było bardziej, nazwijmy to, romantyczne. Ale zgłębianie atomów znaczenia dało mi do myślenia – może jest tak, że emocje wywodzą się z bardzo prostych odruchów, a tylko określamy je w różny sposób w zależności od szerszego kontekstu?
W przypadku maszyn mówienie o emocjach jest też oczywiście obarczone antropomorfizacją. Czy można nazwać algorytm zatrzymujący samochód po wykryciu niebezpieczeństwa „strachem”? Czy robot odkurzacz ma przyjemność w pochłanianiu paproszków? To zależy, kogo zapytamy, jedni się zaśmieją, inni przytakną, mówiąc, że owszem, można to tak zinterpretować.
Czyli sztuczna inteligencja powinna mieć uczucia czy nie?
Z pewnością powinna rozumieć nasze uczucia. Nie znaczy to jednak, że musi je sama posiadać. Bo czy chcemy pełnego spektrum ludzkich uczuć w urządzeniach? Na pewno nie w odkurzaczu, bo zamiast sprzątać, będzie miał chandrę. W robocie przyjacielu? Pewnie już bardziej, ale np. sztuczny kochanek musiałby kochać zawsze tak samo albo coraz mocniej. Czy ból zazdrości miałby go tej miłości uczyć? A co, gdyby zaczął manipulować nami, żebyśmy go nie zostawili, bo przecież producent chce zarobić na subskrypcji?
Proszę zauważyć, ile tu się kryje etycznych problemów w każdej warstwie. Dlatego uważam, że aby kontrolować sztuczną inteligencję, musimy tworzyć kognitywne systemy z osobnymi komponentami, dzięki czemu łatwiej będzie wskazać przyczyny problemów. Część tych komponentów będzie symulowała właśnie ludzkie uczucia i tym właśnie mechanizmom trzeba się będzie szczególnie przyglądać. To one będą obłożone najmocniejszymi restrykcjami, bo Homo sapiens jest bardzo podatny na manipulację, a uczucia to motor naszych działań.
Musimy bardzo ostrożnie dobierać cele, które mają przyświecać sztucznej inteligencji. Czy ma to być lista cnót? Czy dążenie do szczęścia ludzi, do eudajmonii jako ogólnego celu życia człowieka? Czy możemy być pewni, że karta praw człowieka lub inny zestaw zasad nie powstrzyma sztucznego naukowca przed zaproponowaniem zupełnie nowych leków, ponieważ istnieje ryzyko, że choćby jedna osoba może ucierpieć? Każdy z nas ma swoją receptę na szczęście, czy etycznym jest więc uogólnianie tych recept do jednego przepisu? Jak dużo wolności możemy dać użytkownikowi, żeby dostroił maszynę do swoich potrzeb? W tych kwestiach mamy więcej pytań niż odpowiedzi.

Prof. RAFAŁ RZEPKA jest informatykiem, pracuje na Uniwersytecie Hokkaido w Sapporo. Jego prace w dziedzinie sztucznej inteligencji koncentrują się na przetwarzaniu języka (w tym metaforycznego oraz poczucia humoru) i rozumieniu zachowania ludzi przez algorytmy, a także przetwarzaniu oraz symulowaniu emocji i moralności.

Projekt dofinansowany ze środków budżetu państwa, przyznanych przez Ministra Nauki i Szkolnictwa Wyższego w ramach Programu „Społeczna Odpowiedzialność Nauki II”.
„Tygodnik Powszechny” – jedyny polski tygodnik społeczno-kulturalny.
30 tys. Czytelniczek i Czytelników. Najlepsze Autorki i najlepsi Autorzy.
Wspólnota, która myśli samodzielnie.















