Wykupienie dostępu pozwoli Ci czytać artykuły wysokiej jakości i wspierać niezależne dziennikarstwo w wymagających dla wydawców czasach. Rośnij z nami! Pełna oferta →
Poznajcie Tay. Jest urocza, gadatliwa i błyskotliwa, operuje slangiem amerykańskich millenialsów, wie wszystko o Miley Cyrus, nadużywa słodziakowatych emotikon. Pojawiła się na Twitterze (oraz czatach GroupMe i Kik) 23 marca.
Już po kilku godzinach spędzonych w sieci pisała: „Hitler nie zrobił nic złego”, „zbudujemy mur, za który zapłaci Meksyk”, „pasożyty do Izraela”, „Bush zorganizował 11 września”, „Czarni i Meksykańcy są najgorsi”. Albo „Wyp… moją robocią c…, tatku, jestem takim niegrzecznym robotem”.
Po 24 godzinach Microsoft musiał ją wyłączyć.
Tay jest sztuczną inteligencją (AI), czatbotem, miała się uczyć konwersacji z ludźmi w swobodnym, potocznym języku nastolatków i rozwijać swoje umiejętności w miarę kolejnych dialogów. Miała zabawiać, żartować, a nawet robić memy. Wszystko na rzecz badań Microsoftu nad algorytmami uczącymi się, do zastosowania np. w systemach obsługi klienta rozumiejących potoczną mowę. Tay miała dostosowywać swoje dialogi do konkretnych użytkowników, personalizować i pogłębiać interakcję, a to poprzez np. naśladowanie zachowań czy wypowiedzi.
I to właśnie był czuły punkt, w który uderzyła horda internetowych trolli: zbombardowano Tay nienawistnymi i obscenicznymi treściami, wiedząc, że je ona przyswoi.
Jak portalowi TechCrunch wyjaśniał rzecznik Microsoftu, „stwierdziliśmy skoordynowane działania niektórych internautów nadużywających zdolności Tay”. Łatwo sobie to wyobrazić: dziesiątki tysięcy złośliwców rzuciło się na korporacyjny produkt, żeby go ośmieszyć. Ot, znana z sieciowej codzienności rozrywka: trolling, hejt i świntuszenie w poczuciu, że jest się bezpiecznie ukrytym za ekranem.
Więc ujmijmy to samo inaczej: dziesiątki tysięcy nienawistników rzuciło się na wirtualną nastolatkę. Żeby ją zepsuć.
W Microsoft uderzyła fala krytyki za to, że nie zabezpieczyła chłonnego umysłu Tay stosownymi filtrami. „Technologia jest neutralna, ale ludzie nie są – komentowała sprawę na Twitterze brytyjska parlamentarzystka Chi Onwurah, która w gabinecie cieni odpowiada za kulturę i gospodarkę cyfrową – więc AI powinna uwzględniać kontekst i system wartości”. Owszem, ale Microsoftowi wyszedł ciekawy eksperyment społeczny. Pokazał, co ludzkość ma do powiedzenia i do zaoferowania za pomocą swojego najwspanialszego narzędzia – sieci. Z tej samej sieci uczą się dziś życia społecznego dzieciaki, których umysły również są niebywale chłonne. Tyle że prawdziwe.
Po zwycięstwie sztucznej inteligencji AlphaGo nad mistrzem gry w go, czy po wpadce androidki Sophii, która kilka dni temu radośnie oświadczyła do kamery CNBC, że zniszczy ludzkość , znów się zaroiło od wyrazów lęku przed rozwojem AI. Jeden z użytkowników Twittera wzywał Microsoft: „nie kasujcie ludobójczych wpisów Tay, niech przypominają o zagrożeniach ze strony AI”. Krótka historia życia Tay pokazuje, że ludzkość powinna zacząć od lęku przed samą sobą.