Co by było gdyby inteligentny, samodzielnie myślący robot doszedł do wniosku, że ludzkość to największa choroba Ziemi i należy ją zwalczyć wszelkimi możliwymi metodami, by uratować błękitną planetę? Co by było, gdyby sztuczna inteligencja obróciła się przeciwko ludziom? Te pytania stanowiły pomysły do wielu scenariuszy filmowych, książek i komiksów z zakresu fantastyki. Wielu znanych i cenionych autorów książek sci-fi czy fantastycznych podnoszą ten wątek. Ale jeden człowiek zrewolucjonizował pojęcie sztucznej inteligencji narzucając pewne prawa, obowiązki dla inżynierów robotów, by zabezpieczyć ludzkość przed właśnie takimi nieoczekiwanymi skutkami sztucznej inteligencji i możliwego jej toku rozumowania. Tym wybitnym twórcą był Isaac Asimov, amerykański pisarz, który sformułował i rozpowszechnił wśród czytelników i naukowców podstawowe zasady projektowania sztucznej inteligencji, które stały się podstawowymi prawami robotyki. Te prawa nazwano Trzema Prawami Robotyki. Prawa te po raz pierwszy Asimov sformułował w 1942 roku w opowiadaniu „Zabawa w berka”. Należy podkreślić, iż pomimo jeszcze bardzo długiej drogi do stworzenia sztucznej inteligencji czy robota samodzielnie poruszającego się czy wykonującego polecenia człowieka, pisarze już w latach czterdziestych XX wieku wieścili powstanie samodzielnie myślących maszyn, które mogą potencjalnie stanowić zagrożenie dla człowieka.
Wracając jednak do samych Trzech Praw Robotyki, to przedstawiają się one następująco: Prawo Pierwsze mówi, że robot nie może skrzywdzić człowieka ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy. Drugie prawo mówi, że robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z pierwszym prawem. Trzecie prawo stwierdza, że robot musi chronić sam siebie, jeśli to nie stoi w sprzeczności z pierwszym lub drugim prawem. Później Asimov dodał jeszcze jedno prawo, które nazwano Prawem Zerowym, czyli prawem nadrzędnym co do trzech pierwszych praw. Mówi ono o tym, że robot nie może skrzywdzić ludzkości ani przez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.
Naturalnie, w biegiem czasu oraz coraz szybciej postępującym rozwojem robotyki, formułowane były i nadal są kolejne prawa, które odnoszą się do funkcjonowania i wykorzystywania robotów.
Jak nie trudno się domyśleć, prawa robotyki stworzone przez Asimova były poddawane krytyce. Zarzucano im między innymi to, że nie uwzględniają fundamentalnych zasad współistnienia i koegzystencji, a tym samym zasady wzajemnego poszanowania. Prowadzi to, zdaniem krytyków, do podporządkowania tych, których prawa te obowiązują tym, którzy prawa te stworzyli. Konsekwencją może być konflikt stron, bunt „uciśnionych” i podjęcie się działań ekstremalnych. Stąd wniosek, że prawa Asimova powinny dotyczyć tylko maszyn o niskiej autonomii.
Nie mniej jednak prawa robotyki przyświecają dzisiaj wielu konstruktorom, inżynierom i programistom, którzy zajmują się pracą nad sztuczną inteligencją i tworzeniem robotów. I trzeba przyznać, że Isaac Asimov wykazał się być niezwykłym wizjonerem przewidującym tak zaawansowany rozwój techniki.
Trzy prawa robotyki
Lipiec 31, 2015 by Rozalia
Kategoria: Publicystyka
Brak komentarzy »
Jeszcze nie skomentowano.