Trzy prawa robotyki

Lipiec 31, 2015 by Rozalia

robotCo by było gdyby inteligentny, samodzielnie myślący robot doszedł do wniosku, że ludzkość to największa choroba Ziemi i należy ją zwalczyć wszelkimi możliwymi metodami, by uratować błękitną planetę? Co by było, gdyby sztuczna inteligencja obróciła się przeciwko ludziom? Te pytania stanowiły pomysły do wielu scenariuszy filmowych, książek i komiksów z zakresu fantastyki. Wielu znanych i cenionych autorów książek sci-fi czy fantastycznych podnoszą ten wątek. Ale jeden człowiek zrewolucjonizował pojęcie sztucznej inteligencji narzucając pewne prawa, obowiązki dla inżynierów robotów, by zabezpieczyć ludzkość przed właśnie takimi nieoczekiwanymi skutkami sztucznej inteligencji i możliwego jej toku rozumowania. Tym wybitnym twórcą był Isaac Asimov, amerykański pisarz, który sformułował i rozpowszechnił wśród czytelników i naukowców podstawowe zasady projektowania sztucznej inteligencji, które stały się podstawowymi prawami robotyki. Te prawa nazwano Trzema Prawami Robotyki. Prawa te po raz sztuczna-inteligencjapierwszy Asimov sformułował w 1942 roku w opowiadaniu „Zabawa w berka”. Należy podkreślić, iż pomimo jeszcze bardzo długiej drogi do stworzenia sztucznej inteligencji czy robota samodzielnie poruszającego się czy wykonującego polecenia człowieka, pisarze już w latach czterdziestych XX wieku wieścili powstanie samodzielnie myślących maszyn, które mogą potencjalnie stanowić zagrożenie dla człowieka.
Wracając jednak do samych Trzech Praw Robotyki, to przedstawiają się one następująco: Prawo Pierwsze mówi, że robot nie może skrzywdzić człowieka ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy. Drugie prawo mówi, że robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z pierwszym prawem. Trzecie prawo stwierdza, że robot musi chronić sam siebie, jeśli to nie stoi w sprzeczności z pierwszym lub drugim prawem. Później Asimov dodał jeszcze jedno prawo, które nazwano Prawem Zerowym, czyli prawem nadrzędnym co do trzech pierwszych praw. Mówi ono o tym, że robot nie może skrzywdzić ludzkości ani przez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.
Naturalnie, w biegiem czasu oraz coraz szybciej postępującym rozwojem robotyki, formułowane były i nadal są kolejne prawa, które odnoszą się do funkcjonowania i wykorzystywania robotów.
robotykaJak nie trudno się domyśleć, prawa robotyki stworzone przez Asimova były poddawane krytyce. Zarzucano im między innymi to, że nie uwzględniają fundamentalnych zasad współistnienia i koegzystencji, a tym samym zasady wzajemnego poszanowania. Prowadzi to, zdaniem krytyków, do podporządkowania tych, których prawa te obowiązują tym, którzy prawa te stworzyli. Konsekwencją może być konflikt stron, bunt „uciśnionych” i podjęcie się działań ekstremalnych. Stąd wniosek, że prawa Asimova powinny dotyczyć tylko maszyn o niskiej autonomii.
Nie mniej jednak prawa robotyki przyświecają dzisiaj wielu konstruktorom, inżynierom i programistom, którzy zajmują się pracą nad sztuczną inteligencją i tworzeniem robotów. I trzeba przyznać, że Isaac Asimov wykazał się być niezwykłym wizjonerem przewidującym tak zaawansowany rozwój techniki.

Brak komentarzy »

Jeszcze nie skomentowano.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

* Copy This Password *

* Type Or Paste Password Here *

Możesz użyć następujących tagów oraz atrybutów HTML-a: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>