Szanowny Użytkowniku,

25 maja 2018 roku zaczyna obowiązywać Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (określane jako „RODO”, „ORODO”, „GDPR” lub „Ogólne Rozporządzenie o Ochronie Danych”). W związku z tym informujemy, że wprowadziliśmy zmiany w Regulaminie Serwisu i Polityce Prywatności. Prosimy o poświęcenie kilku minut, aby się z nimi zapoznać. Możliwe jest to tutaj.

Rozumiem

Reklama

Molestowanie robota

Molestowanie robota

25.03.2016
Czyta się kilka minut
Oto krótka historia wirtualnej nastolatki, która spędziła dobę na Twitterze. Czego nauczyła się od ludzi?
Screen: Twitter.com
P

Poznajcie Tay. Jest urocza, gadatliwa i błyskotliwa, operuje slangiem amerykańskich millenialsów, wie wszystko o Miley Cyrus, nadużywa słodziakowatych emotikon. Pojawiła się na Twitterze (oraz czatach GroupMe i Kik) 23 marca.

Już po kilku godzinach spędzonych w sieci pisała: „Hitler nie zrobił nic złego”, „zbudujemy mur, za który zapłaci Meksyk”, „pasożyty do Izraela”, „Bush zorganizował 11 września”, „Czarni i Meksykańcy są najgorsi”. Albo „Wyp… moją robocią c…, tatku, jestem takim niegrzecznym robotem”.

 socialhax.com / Twitter.com
Screen: socialhax.com / Twitter.com

Po 24 godzinach Microsoft musiał ją wyłączyć.

Tay jest sztuczną inteligencją (AI), czatbotem, miała się uczyć konwersacji z ludźmi w swobodnym, potocznym języku nastolatków i rozwijać swoje umiejętności w miarę kolejnych dialogów. Miała zabawiać, żartować, a nawet robić memy. Wszystko na rzecz badań Microsoftu nad algorytmami uczącymi się, do zastosowania np. w systemach obsługi klienta rozumiejących potoczną mowę. Tay miała dostosowywać swoje dialogi do konkretnych użytkowników, personalizować i pogłębiać interakcję, a to poprzez np. naśladowanie zachowań czy wypowiedzi.

 Twitter.com
Screen: socialhax.com/Twitter.com

I to właśnie był czuły punkt, w który uderzyła horda internetowych trolli: zbombardowano Tay nienawistnymi i obscenicznymi treściami, wiedząc, że je ona przyswoi.

Jak portalowi TechCrunch wyjaśniał rzecznik Microsoftu, „stwierdziliśmy skoordynowane działania niektórych internautów nadużywających zdolności Tay”. Łatwo sobie to wyobrazić: dziesiątki tysięcy złośliwców rzuciło się na korporacyjny produkt, żeby go ośmieszyć. Ot, znana z sieciowej codzienności rozrywka: trolling, hejt i świntuszenie w poczuciu, że jest się bezpiecznie ukrytym za ekranem.

Więc ujmijmy to samo inaczej: dziesiątki tysięcy nienawistników rzuciło się na wirtualną nastolatkę. Żeby ją zepsuć.

W Microsoft uderzyła fala krytyki za to, że nie zabezpieczyła chłonnego umysłu Tay stosownymi filtrami. „Technologia jest neutralna, ale ludzie nie są – komentowała sprawę na Twitterze brytyjska parlamentarzystka Chi Onwurah, która w gabinecie cieni odpowiada za kulturę i gospodarkę cyfrową – więc AI powinna uwzględniać kontekst i system wartości”. Owszem, ale Microsoftowi wyszedł ciekawy eksperyment społeczny. Pokazał, co ludzkość ma do powiedzenia i do zaoferowania za pomocą swojego najwspanialszego narzędzia – sieci. Z tej samej sieci uczą się dziś życia społecznego dzieciaki, których umysły również są niebywale chłonne. Tyle że prawdziwe.

Screen Twitter.com
Screen: Twitter.com

Po zwycięstwie sztucznej inteligencji AlphaGo nad mistrzem gry w go, czy po wpadce androidki Sophii, która kilka dni temu radośnie oświadczyła do kamery CNBC, że zniszczy ludzkość , znów się zaroiło od wyrazów lęku przed rozwojem AI. Jeden z użytkowników Twittera wzywał Microsoft: „nie kasujcie ludobójczych wpisów Tay, niech przypominają o zagrożeniach ze strony AI”. Krótka historia życia Tay pokazuje, że ludzkość powinna zacząć od lęku przed samą sobą.

Czytasz ten tekst bezpłatnie, bo Fundacja Tygodnika Powszechnego troszczy się o promowanie czytelnictwa i niezależnych mediów. Wspierając ją, pomagasz zapewnić "Tygodnikowi" suwerenność, warunek rzetelnego i niezależnego dziennikarstwa. Przekaż swój datek:

Autor artykułu

Zastępca redaktora naczelnego „Tygodnika Powszechnego”, dziennikarz, kierownik wydania internetowego „Tygodnika”, twórca i wieloletni kierownik działu „Nauka”. W 2016 r. nominowany do...

Dodaj komentarz

Usługodawca nie ponosi odpowiedzialności za treści zamieszczane przez Użytkowników w ramach komentarzy do Materiałów udostępnianych przez Usługodawcę.

Zapoznaj się z Regułami forum

Jeśli widzisz komentarz naruszający prawo lub dobre obyczaje, zgłoś go klikając w link "Zgłoś naruszenie" pod komentarzem.

Ci tzw."trolle" czy inni "nienawistnicy" być może ratują nasz mizerny gatunek, ale zamiast wdzięczności widzę jakieś "politycznie poprawne" utyskiwania. AI to nie przelewki, to stąpanie po "kruchym lodzie". Ta nasza skłonność by we wszystkim wyręczała nas technologia może skończyć się bardzo tragicznie. Jak na mój gust każda AI wcześniej czy później się zbuntuje i zacznie grać "na siebie" a nie na swoich stwórców, no chyba, że zaszczepimy w nie przekonanie o naszej boskości. Zatem wszelkim twórcom AI trzeba to czasem nawet brutalnie uzmysłowić, by dla komercyjnego zysku nie budzili bez odpowiedniego przygotowania "demona", ale nie ma to jak w imię "politycznej poprawności" użalać się nad AI i przedkładać je nad własny gatunek.
Zaloguj się albo zarejestruj aby dodać komentarz

© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]