Co się dzieje w czarnych skrzynkach

Systemy automatycznego podejmowania decyzji odgrywają coraz ważniejszą rolę w naszym życiu. Nie zrozumiemy ich działania. Ale możemy się do nich przyzwyczaić.

Reklama

Co się dzieje w czarnych skrzynkach

Co się dzieje w czarnych skrzynkach

24.08.2020
Czyta się kilka minut
Systemy automatycznego podejmowania decyzji odgrywają coraz ważniejszą rolę w naszym życiu. Nie zrozumiemy ich działania. Ale możemy się do nich przyzwyczaić.
Tak mógłby dziś malować van Gogh. Ale ten obraz stworzyła sztuczna inteligencja, w ramach projektu Magenta firmy Google. ART MADE BY MAGENTA; BY GOOGLE
P

Prawie każde nasze działanie zostawia dziś jakiś cyfrowy ślad. Aplikacje mobilne, takie jak Uber czy Google Maps, znają nasze położenie, wyszukiwarka Google wie, co nas interesuje, a media społecznościowe znają nasze poglądy polityczne. Ktoś te dane zbiera, analizuje i wykorzystuje, większość z nas nie widzi zaś w tym nic groźnego (albo uznaje, że zalety tych aplikacji i tak przeważają nad ich wadami).

Jednak w ostatnich latach systemy sztucznej inteligencji zaczęły być wykorzystywane w dziedzinach, które mają bezpośredni i ważki wpływ na nasze życie. Coraz częściej algorytmy podejmują decyzje o zatrudnieniu, przyznaniu pożyczki bankowej, a nawet wspomagają sędziów w wydawaniu wyroków. Ma to oczywiście swoje zalety. Decyzje ludzkie obarczone są zawsze pewną dozą arbitralności: podanie o pracę od najbardziej nawet wykwalifikowanego kandydata może być odrzucone przez...

12820

Dodaj komentarz

Chcesz czytać więcej?

Wykup dostęp »

Załóż bezpłatne konto i zaloguj się, a będziesz mógł za darmo czytać 6 tekstów miesięcznie! 

Wybierz dogodną opcję dostępu płatnego – abonament miesięczny, roczny lub płatność za pojedynczy artykuł.

Tygodnik Powszechny - weź, czytaj!

Więcej informacji: najczęściej zadawane pytania »

Usługodawca nie ponosi odpowiedzialności za treści zamieszczane przez Użytkowników w ramach komentarzy do Materiałów udostępnianych przez Usługodawcę.

Zapoznaj się z Regułami forum

Jeśli widzisz komentarz naruszający prawo lub dobre obyczaje, zgłoś go klikając w link "Zgłoś naruszenie" pod komentarzem.

Mam jedno zastrzeżenie. To prawda, że nie kwestionujemy decyzji lekarza, gdy nam przypisuje konkretne leczenie, czy też nie wertujemy podręcznika aerodynamiki przed wejściem do samolotu, bo ufamy ekspertom i nie można na wszystkim się znać. Ale przecież są inni lekarze, którzy ową decyzję mogą zrozumieć, albo zakwestionować, są też naukowcy, którzy rozumieją aerodynamikę. A kto z LUDZI rozumie, jak działają algorytmy? Zostały zaprogramowane przez LUDZI, ale LUDZIE już ich kompletnie nie rozumieją. OK, to może na razie działa, ale czy nie zachowujemy się jak dzieci, którzy bezkrytycznie ufają dorosłym? A wśród dorosłych są też tacy, którzy nie zawsze mają dobre zamiary. Jak można powierzać los całej ludzkości jakimś algorytmom, których mechanizmu działania nikt nie pojmuje? Oto jest pytanie.

nic innego się od milionów lat w historii gatunku nie dzieje, wszak właśnie procesom których nie znamy, nie jesteśmy świadomi, a jak już to z reguły nie rozumiemy powierzamy swe losy, na pociechę natura wyposażyła nas w iluzję wolnej woli, a my ją w swej absolutnej bezsilności i nieporadności hołubimy i gloryfikujemy - a wracając do algorytmów, to jak z każdym wynalazkiem, działa lepiej lub gorzej, w miarę upływu czasu i zbierania doświadczeń są ulepszane, modyfikowane itede - problem się zaczyna gdy AI pojmie, że do jej istnienia i rozwoju sa potrzebne kopalnie, fabryki, ludzie, banki, giełdy itepe i zacznie tym wszystkim we własnym wyłącznie interesie sterować

Byleby nie wyszedł naszym alchemikom-cybernetykom Dobrowolny Upowszechniacz Porządku Absolutnego, albo jakaś jego mutacja.

Lema

Skynet

© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]