Stereotyping Robot Georgia Tech to przyszłość AI, a nie rasizmu

$config[ads_kvadrat] not found

Georgia Tech Robotics

Georgia Tech Robotics
Anonim

Dla uszu uczulonych specjalnościami pozalekcyjnymi i seminariami na temat różnorodności zabrzmi to źle, ale chcemy, aby roboty dokonywały szybkich ocen w oparciu o wygląd. Pokonywanie uprzedzeń jest dobre, ale niezdolność do stereotypu zmniejsza inteligencję - sztuczną i inną. Dr Alan Wagner, robotysta w Georgia Tech, jest głównym zwolennikiem technologii stereotypów. Twierdzi, że tego rodzaju logika nie musi być stosowana do rasy lub płci, tylko sytuacje i zachowania.

We wczesnym teście algorytmu stereotypowego Wagner wyszkolił naiwnego robota, aby wyciągał wnioski z tego, co zobaczył. Robot nauczył się i stał się spostrzegawczy, co pozwoliło Wagnerowi zacząć krytycznie myśleć o etyce założeń robota, zwłaszcza tych wstępnie zaprogramowanych. Mówił do Odwrotność o jego pracy i jej konsekwencjach.

Pokaż mi, jak działa eksperyment.

Robot wchodzi w interakcję z różnymi typami osób - strażakiem, ratownikiem medycznym lub czymkolwiek innym - ale nie ma wcześniejszego doświadczenia z żadną z tych kategorii osób. Jest to, w gruncie rzeczy, uczenie się przez doświadczenie.

Pomysł polegał na pokazaniu, że robot może wykorzystywać cechy percepcyjne jednostki do przewidywania ich potrzeb w zakresie użycia narzędzi. Sposób działania algorytmu sprawiał, że kamera robota postrzegała różne aspekty tego, jak wyglądała osoba - ich jednolity kolor, na przykład, czy mieli brodę, i kolor włosów.

Zadawałby im także pytania o to, jak wyglądają. Oczywiście zadawanie pytań nie jest tym, co chcesz robić w terenie, ale postrzeganie robota jest teraz ograniczone. Potrzebowaliśmy sposobu na uruchomienie procesu uczenia się o osobie. Osoba wybiera narzędzie, a następnie robot wybiera narzędzie, az czasem robot nauczy się, jakie narzędzie preferuje każdy typ osoby.

Czy spodziewałeś się, że robot dowie się, że odznaka oznacza policjanta, czy ciężki odblaskowy płaszcz oznacza strażaka?

Spodziewaliśmy się tego. Ale było też kilka zaskakujących rzeczy.Na przykład robot błędnie rozpoznał, że broda jest przewidywana przez strażaka - to było dziwne, ale kiedy spojrzysz na dane, nie było to zaskakujące. Pierwszymi kilkoma osobami, które z nim współpracowały, byli strażacy, którzy mieli brody. Twierdzimy zatem, że potrzebna jest różnorodność percepcyjna, pomysł, że gdyby robot mógł widzieć duże, zasadniczo różne typy jednostek w kategorii, lepiej rozwinąłby i zrozumiałby kategorię.

Czy uważasz, że autonomiczne roboty powinny zostać przeszkolone, aby wyeliminować te dziwactwa, więc robot nie będzie myślał, że jeśli ta osoba ma brodę, jest strażakiem?

Absolutnie. Ważne jest, abyśmy wypróbowali te rzeczy. Bardzo ważne jest, abyśmy mieli te roboty, które działają z różnych grup osób.

Jak może wyglądać ta nauka?

Pozwoliłoby to robotowi skupić się na rzeczach, które lepiej charakteryzują strażaków. Na przykład strażak może nawet nie mieć na sobie kurtki. Robot zauważył wtedy inne aspekty gaszenia pożaru, może buty, może rękawiczki, może kaski. Powiedziałoby: „OK, ta osoba naprawdę jest strażak w tym środowisku. ”

Jeśli masz wystarczająco dużo ludzi, może rozpoznać strażaka przy ognisku i strażaka na imprezie z okazji Halloween. To subtelne szczegóły percepcyjne, takie jak różnica między jakością typów mundurów, a środowiskami kontekstowymi.

Oprócz kojarzenia brody ze strażakami, jak udany był ten algorytm?

Naprawdę chcieliśmy spojrzeć na dwie rzeczy: Po pierwsze, co możesz z tym zrobić? Jeśli roboty rozpoznają strażaków, czy to naprawdę pomaga? Artykuł pokazał, że pozwoliło ci to zawęzić wyszukiwanie. Zamiast patrzeć na brody w celu uzyskania koloru włosów, szukać koloru oczu lub czegokolwiek innego, czego możesz się spodziewać, możesz skupić się na cechach, które naprawdę mają znaczenie. Czy osoba ma na sobie płaszcz strażaka? To może przyspieszyć ten proces.

Kolejną bardzo istotną rzeczą, na którą patrzyliśmy, jest sytuacja, w której kategoria przewidywana przez robota jest zła? Jak to na ciebie wpływa? Możesz sobie wyobrazić, że środowisko wyszukiwania i ratunkowe może być chaotyczne: może pracujesz w warunkach wypełnionych dymem, robot może nie być w stanie postrzegać wszystkiego bardzo dobrze, może mieć błędy. Można sobie wyobrazić gorszy przypadek, w którym robot uważa, że ​​osoba jest ofiarą, gdy w rzeczywistości są strażakami. Więc próbuje uratować strażaka. To byłoby okropne. Chcieliśmy zobaczyć, gdzie się łamie, jak się łamie, jakie funkcje mają na to największy wpływ i jakie są różne rodzaje błędów.

Możesz użyć tego podejścia na różne sposoby - jeśli nie mogą w ogóle zobaczyć osoby, ale mogą zobaczyć działania, które wykonują. Jeśli widzę osobę wybierającą siekierę, mogę przewidzieć, że mają hełm.

Jak podchodzisz do tego, aby robot ocenił kontekst i przewidział?

Próbowaliśmy spojrzeć na kilka różnych typów środowisk - restaurację, szkołę i dom opieki. Próbowaliśmy uchwycić cechy środowiska i tego, jakie obiekty znajdują się w środowisku, jakie działania wybiera dana osoba i jak wyglądają ludzie w środowisku, i próbować użyć tego do zrobienia wielu prognoz społecznych. Na przykład w środowisku szkolnym ludzie podnoszą ręce przed rozmową. Więc jeśli zobaczę akcję, którą ludzie podnoszą rękę, jakiego rodzaju obiektów spodziewałbym się zobaczyć w środowisku? Czy oczekuję, że zobaczę tablicę; czy oczekuję biurka? Spodziewałbym się zobaczyć dzieci.

Mam nadzieję, że skorzystam z tych informacji. Jeśli robot wykonuje procedurę ewakuacji, zobaczyłby, jakie rodzaje ludzi tam są i gdzie mogą się znajdować.

Powiedzmy, że jest robot, który przychodzi do twoich drzwi i mówi: „Proszę, podążaj za mną do wyjścia”. Coś tak pozornie prostego, jak to jest w rzeczywistości bardzo złożone. Jeśli robot puka do drzwi w budynku mieszkalnym, nie masz pojęcia, z kim zamierzasz współpracować. Może to być czteroletnie dziecko, może to być 95-latek. Chcielibyśmy, aby robot dostosował swoje interaktywne zachowanie do typu osoby, którą widzi, aby je uratować. Przeprowadzamy niektóre z tych lekcji kontekstowych i próbujemy opracować tę aplikację.

Czy używasz podobnej definicji „stereotypu” dla robotów i ludzi, czy też dzieje się coś innego?

Termin stereotypowanie ma negatywny kontekst. Sposób, w jaki go używamy, polega po prostu na rozwijaniu kategorii osób i wykorzystywaniu informacji kategorycznych do przewidywania cech danej osoby. Wiem, że w psychologii wiele pracy koncentruje się na stereotypach twarzy i stereotypach dotyczących płci. Nie robimy nic takiego. Czy proces jest taki sam? Nie wiem. Brak pomysłu.

Czy obawiasz się, że ludzie mogą mieć błędne wyobrażenia na temat twojej pracy?

Kilka lat temu opracowaliśmy pomysł robotów, które mogą oszukać ludzi. W mediach było trochę błędne przekonanie, że doprowadziłoby to do kradzieży portfeli robotów.

Chciałbym skorzystać z sytuacji ewakuacji awaryjnej: nie zawsze chcesz być całkowicie szczery wobec osoby ewakuowanej, prawda? Na przykład, jeśli ktoś zapytał cię: „Czy moja rodzina jest w porządku?” To może być straszne, jeśli robot powie: „Nie, wszyscy zginęli. Proszę iść za mną do wyjścia. ”W niektórych sytuacjach robot rzeczywiście musi być krótko nieuczciwy. Ale moje doświadczenie było takie, że ludzie czuli się, jakbyśmy próbowali doprowadzić do końca świata.

Zawsze jesteśmy zainteresowani aspektami prospołecznymi tych technik człowiek-robot. Staramy się pomagać ludziom, a nie być czymś złym.

$config[ads_kvadrat] not found