Czy inżynierowie są prawnie odpowiedzialni za mordercze roboty?

$config[ads_kvadrat] not found

NIGERYJSKIE PROBLEMY - DRAMATYCZNA TRANSAKCJA - OSZUSTWO NA ALLEGRO LOKALNIE

NIGERYJSKIE PROBLEMY - DRAMATYCZNA TRANSAKCJA - OSZUSTWO NA ALLEGRO LOKALNIE
Anonim

Automatony i androidy mordują fikcyjnych ludzi, odkąd czeski pisarz Karel Čapek spopularyzował termin „robot” w swojej grze science fiction z 1920 r. Rossum's Universal Robots. Čapek zbadał problem będący w centrum wielu współczesnych debat: kto jest odpowiedzialny za robota, który zabija? Czeski pisarz zdawał się dotykać Rossum, jego Frankensteinowskiego inżyniera, ale rzeczywistość prawna jest nieco bardziej skomplikowana.

Zmiany techniczne, ale intencją jest nadal wszystko.

Jeśli inżynier tworzy armię deathbotów dla wyraźnego celu śmierci (myśl: hordy Ultrona), to on lub ona jest odpowiedzialny za to, co się stanie, gdy staną się silni. Zgodnie z § 1111 kodeksu USA, morderstwo jest:

Bezprawne zabijanie człowieka z uprzedzeniami złośliwymi. Każde morderstwo popełnione przez truciznę, czekanie lub jakiekolwiek inne umyślne, celowe, złośliwe i z premedytacją zabójstwo … lub dokonane z premedytacją bezprawnie i złośliwie w celu spowodowania śmierci jakiejkolwiek istoty ludzkiej innej niż ta, która została zabita, jest morderstwo w pierwszym stopniu.

„Jakikolwiek inny rodzaj śmierci pozostawia okno szeroko otwarte dla zabójczych robotów, które są rodzajem mechanicznej trucizny.

Nawet jeśli hipotetyczny budowniczy bot, który programuje niebezpieczny - choć nie wyraźnie zabójca - maszyna, istnieje precedens, który był odpowiedzialny za wszelkie śmiertelne skutki. Kiedy psy stróżujące śmiertelnie atakują przechodniów, ława przysięgłych uznała właścicieli psów za winnych morderstwa. A poza tym, że jedna metoda obejmuje kody poleceń i inne polecenia mówione, czy różnica między szkoleniem robota a szkoleniem psa?

Jeśli uzbrojone roboty zdają się być trochę mądrzejsze niż owczarek niemiecki - powiedzmy, w pełni autonomiczny robot-pistolet - Rossum wciąż nie jest zepsuty. Grupy takie jak Human Rights Watch przewidują, że „dowódcy lub operatorzy mogliby zostać uznani za winnych, gdyby celowo wykorzystali w pełni autonomiczną broń do popełnienia przestępstwa”. Grupy te - i ogólnie organizacje praw człowieka - mogą mieć nierealistycznie różny pogląd na system sądowniczy, ale jednym z istotnych powodów, aby utrzymywać Predator Dron pod kontrolą pilota, jest upewnienie się, że ataki pochodzą z „USA Armia ”, więc wojskowi naukowcy nie kończą swoich europejskich wakacji z oplaconą za wszystkie wydatki wycieczką po Hadze.

Problem staje się trochę mroczniejszy, gdy roboty montowane do jednego zadania robią krwawe obroty. W historii Čapka Rossum zebrał swoje roboty do pracy fizycznej, a nie morderstwa. Ale stało się morderstwo (nie czasownik nieprzechodni). Gdyby Rossum został osądzony w sądzie, jego nieprzestrzeganie przepisów kontroli jakości-cięć Asimova sprawiłoby mu kłopoty. Gdy wadliwy produkt zabija cywili, producent płaci, co twierdzą prognostycy w Google, gdyby ich zautomatyzowane samochody złamały prawo. Nie trzeba dodawać, że wiele firm technologicznych ma prawników, którzy biorą pod uwagę ich odpowiedzialność.

Fakt, że roboty nie mogą być ładowane, stwarza okazję do rzucania w autobus. Pytanie, które nasze najlepsze umysły prawne próbują odpowiedzieć? Kto powinien się zaplątać w te osie.

$config[ads_kvadrat] not found