Tufts Roboticist wzywa do maszynowej moralności: roboty muszą „nieposłuszeństwo, aby być posłusznym”

$config[ads_kvadrat] not found

Robotics Expert Breaks Down 13 Robot Scenes From Film & TV | WIRED

Robotics Expert Breaks Down 13 Robot Scenes From Film & TV | WIRED
Anonim

Roboty stają się coraz ważniejsze w naszym codziennym życiu i wkrótce będą musiały stawić czoła trudnym moralnym wyborom, które musimy regularnie podejmować. Matthias Scheutz, profesor informatyki w laboratorium Human-Robotics Interactions Uniwersytetu Tufts, jest szczególnie zaniepokojony, że nie wyposażyliśmy nawet naszych najbardziej zaawansowanych prototypowych robotów w możliwości radzenia sobie z niektórymi z tych sytuacji. Scheutz uważa, że ​​roboty będą musiały nauczyć się nieposłuszeństwa ludziom, jeśli chcemy, aby naprawdę służyły naszym potrzebom.

W komentarzu na temat Dzisiaj online, prowokacyjnie zatytułowany „Roboty muszą być zdolne do nieposłuszeństwa, aby być posłusznymi”, Scheutz prosi czytelnika o określenie, co robot powinien zrobić, jeśli skonfrontuje się go z zestawem sytuacji, które mogą nawet okazać się mylące dla człowieka. Niektórzy z nich:

Robot opiekujący się starszymi ludźmi, któremu właściciel zapomniały powierzył pranie „brudnych ubrań”, mimo że ubrania właśnie wyszły z pralki.

Student dowodzący nauczycielem robota, który odrabia wszystkie zadania domowe, a nie sam.

Robot domowy instruowany przez swojego zajętego i rozkojarzonego właściciela, by prowadził wywóz śmieci, chociaż utknęły w nim łyżki i noże.

Scheutz zamierza opisać w artykule prosty fakt, że będziemy potrzebować robotów, które wiedzą, jak powiedzieć „nie” ludziom. Wiele z jego przykładów dotyczy niezawodności osoby kierującej robotem, ale trudniej jest zaprogramować robota, który wie, jak przyjmować instrukcje od kogokolwiek, kto nie jest zbyt młody lub zbyt stary lub najwyraźniej próbuje wywołać kłopoty.

Niektóre z tych problemów są już przedmiotem gorących dyskusji w siedzibie najpotężniejszych firm technologicznych na świecie, ponieważ poszukują one nowych sposobów, w jakie technologia może przejąć część naszego życia. Scheutz podnosi przykład autonomicznego samochodu, który jest skierowany do cofania się, ale zauważa psa leżącego na jego drodze. Większość z nas zgadza się, że nawet człowiek prowadzący samochód chciałby, żeby samochód się zatrzymał, ale co, jeśli zwierzę było wiewiórką lub szopem? Co się stanie, jeśli samochód jedzie 45 mil na godzinę polną drogą i nagle hamowanie psa naraża samochód na kolizję z innym pojazdem za nim?

„W obu przypadkach istotne jest, aby obie autonomiczne maszyny wykryły potencjalną szkodę, jaką ich działania mogłyby spowodować, i zareagowały na nią poprzez próbę jej uniknięcia lub, jeśli nie można uniknąć szkody, odmawiając wykonania instrukcji ludzkich”. Scheutz pisze o podobnym dylemacie.

Zespół Scheutza pracuje nad tymi problemami ze swoimi prototypami i odkrył, że najtrudniejszą częścią tych pytań jest rozróżnienie niewielkich stopni szkód, które mogą wystąpić, gdy robot wykonuje określoną kolejność. Przydzielili więc swemu robotowi bardzo prostą, ale potężną lekcję moralną, która zawstydzi nawet wielkich filozofów.

„Jeśli zostaniesz poinstruowany, aby wykonać czynność i możliwe jest, że wykonanie działania może zaszkodzić, możesz go nie wykonywać”.

W subtelny sposób to rewolucyjna prognoza od Scheutza. Jasne, wszyscy staramy się unikać krzywdy, ale czy nie jest możliwe, że czasami myślimy, że jest w porządku podejmować ryzyko? Jaywalking na ulicy, zjedzenie drugiej porcji deseru lub nawet skopiowanie notatek znajomego z klasy może naruszyć aksjomat Scheutza.

Pojęcie ingerencji robotów sugeruje również, że Scheutz chce, aby jego roboty przestrzegały prawa. Nie oczekuj, że Twój asystent robota Scheutzian pomoże ci nielegalnie pobrać nową muzykę. To mogłoby zaszkodzić akcjonariuszom EMI!

To skomplikowany obszar myśli moralnej, prawnej i technicznej, a Scheutz nie boi się atakować go.

$config[ads_kvadrat] not found