Reklama

open eyes economic summit 2019

Prawa robotyki

Prawa robotyki

19.11.2013
Czyta się kilka minut
Próbując się zmierzyć z problemem zasad moralnych, jakimi będzie się miała kierować sztuczna inteligencja, w 1942 r. pisarz Isaac Asimov sformułował w swoich opowiadaniach „prawa robotów”:
1

1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.

2. Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem.

3. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

Prawo zerowe: Robot nie może skrzywdzić ludzkości lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.
Biorąc pod uwagę, że badania nad robotami finansuje głównie wojsko, brytyjski autor science fiction David Langfort odpowiedział innymi prawami:

1. Robot nie może działać na szkodę Rządu, któremu służy, ale zlikwiduje wszystkich jego przeciwników.

2. Robot będzie przestrzegać rozkazów wydanych przez dowódców, z...

1012

Dodaj komentarz

Chcesz czytać więcej?

Wykup dostęp »

Załóż bezpłatne konto i zaloguj się, a będziesz mógł za darmo czytać 6 tekstów miesięcznie! 

Wybierz dogodną opcję dostępu płatnego – abonament miesięczny, roczny lub płatność za pojedynczy artykuł.

Tygodnik Powszechny - weź, czytaj!

Więcej informacji: najczęściej zadawane pytania »

Usługodawca nie ponosi odpowiedzialności za treści zamieszczane przez Użytkowników w ramach komentarzy do Materiałów udostępnianych przez Usługodawcę.

Zapoznaj się z Regułami forum

Jeśli widzisz komentarz naruszający prawo lub dobre obyczaje, zgłoś go klikając w link "Zgłoś naruszenie" pod komentarzem.

© Wszelkie prawa w tym prawa autorów i wydawcy zastrzeżone. Jakiekolwiek dalsze rozpowszechnianie artykułów i innych części czasopisma bez zgody wydawcy zabronione [nota wydawnicza]. Jeśli na końcu artykułu znajduje się znak ℗, wówczas istnieje możliwość przedruku po zakupieniu licencji od Wydawcy [kontakt z Wydawcą]