Ten robot nauczył się mówić „nie” ludzkim wymaganiom

$config[ads_kvadrat] not found

Roborock S6 MaxV REVIEW - Artificially Intelligent Robot Vacuum

Roborock S6 MaxV REVIEW - Artificially Intelligent Robot Vacuum
Anonim

Roboty, podobnie jak ludzie, muszą nauczyć się, kiedy powiedzieć „nie”. Jeśli prośba jest niemożliwa, spowodowałaby szkodę lub odciągnęłaby ich od zadania, to w najlepszym interesie „bota i jego ludzi zarówno na dyplomatyczne Nie, dziękuję być częścią rozmowy.

Ale kiedy maszyna ma mówić? I pod jakimi warunkami? Inżynierowie próbują dowiedzieć się, jak zaszczepić to poczucie, jak i kiedy przeciwstawiać się rozkazom w humanoidach.

Obserwuj tego robota Nao, który nie chce iść do przodu, wiedząc, że spowodowałoby to, że spadłby z krawędzi stołu:

Proste rzeczy, ale z pewnością niezbędne do sprawdzenia błędu ludzkiego. Naukowcy Gordon Briggs i Matthias Scheutz z Tufts University opracowali złożony algorytm, który pozwala robotowi ocenić, o co poprosił go człowiek, zdecydować, czy powinien to zrobić, i odpowiednio zareagować. Badanie zostało przedstawione na niedawnym spotkaniu Stowarzyszenia na rzecz Postępu Sztucznej Inteligencji.

Robot zadaje sobie szereg pytań związanych z tym, czy zadanie jest wykonalne. Czy wiem jak to zrobić? Czy fizycznie mogę to teraz zrobić? Czy normalnie jestem w stanie to zrobić? Czy mogę to teraz zrobić? Czy jestem zobowiązany do zrobienia tego na podstawie mojej roli społecznej? Czy to narusza jakąkolwiek normatywną zasadę, aby to zrobić?

Rezultatem jest robot, który wydaje się nie tylko rozsądny, ale pewnego dnia, nawet mądry.

Zwróć uwagę, jak Nao zmienia zdanie na temat chodzenia naprzód po człowieku, który obiecuje go złapać. Łatwo byłoby wyobrazić sobie inny scenariusz, w którym robot mówi: „Nie ma mowy, dlaczego miałbym ci ufać?”

Ale Nao jest stworzeniem społecznym z założenia. Zadowolenie ludzi jest w jego DNA, więc biorąc pod uwagę informację, że człowiek zamierza go złapać, idzie na oślep w otchłań. Jasne, gdyby człowiek miał zwieść jego zaufanie, zostałby obezwładniony, ale i tak ufa. To sposób Nao.

Ponieważ towarzysze robotów stają się bardziej wyrafinowani, inżynierowie robotów będą musieli zmagać się z tymi pytaniami. Roboty będą musiały podejmować decyzje nie tylko o zachowaniu własnego bezpieczeństwa, ale także o większych kwestiach etycznych. Co jeśli człowiek prosi robota o zabicie? Czy popełnić oszustwo? Aby zniszczyć innego robota?

Idea etyki maszynowej nie może być oddzielona od sztucznej inteligencji - nawet nasze przyszłe samochody bez kierowcy będą musiały być zaprojektowane, aby dokonywać wyborów w naszym życiu. Ta rozmowa będzie z pewnością bardziej złożona niż tylko wydawanie rozkazów marszowych.

$config[ads_kvadrat] not found