Wideo: Aktorzy kaskaderscy mogą zostać zastąpieni przez to A.I. Technologia One Day Soon

Specyfika gier komputerowych | AI w grach wideo 1/6

Specyfika gier komputerowych | AI w grach wideo 1/6
Anonim

Nowy system sztucznej inteligencji opracował kaskaderów animowanych komputerowo, które mogą sprawić, że filmy akcji będą chłodniejsze niż kiedykolwiek. Naukowcy z Uniwersytetu Kalifornijskiego w Berkeley opracowali system zdolny do odtworzenia najgroźniejszych ruchów w sztukach walki, z możliwością zastąpienia prawdziwych ludzkich aktorów.

Absolwent UC Berkeley Xue Bin „Jason” Peng mówi, że technologia powoduje ruchy, które trudno oddzielić od ruchów ludzi.

„To naprawdę duży krok naprzód od tego, co zrobiono z głęboką nauką i animacją”, powiedział Peng w oświadczeniu opublikowanym wraz z jego badaniami, które zostało zaprezentowane na sierpniowej konferencji SIGGRAPH w 2018 roku w Vancouver w Kanadzie. „W przeszłości wiele pracy włożono w symulowanie naturalnych ruchów, ale te metody oparte na fizyce wydają się być bardzo wyspecjalizowane; nie są to ogólne metody, które potrafią obsłużyć dużą różnorodność umiejętności.

„Jeśli porównamy nasze wyniki z rejestracją ruchu zarejestrowaną przez ludzi, dochodzimy do punktu, w którym trudno jest je rozróżnić, powiedzieć, czym jest symulacja i co jest prawdziwe. Zmierzamy w kierunku wirtualnego kaskadera. ”

Artykuł na temat projektu, nazwany DeepMimic, został opublikowany w czasopiśmie ACM Trans. Wykres w sierpniu. We wrześniu zespół udostępnił swoje dane kodu i przechwytywania ruchu w GitHub, aby inni mogli spróbować.

Zespół wykorzystał techniki głębokiego uczenia się wzmacniającego, aby nauczyć system, jak się poruszać. Zabierał dane z robienia zdjęć z rzeczywistych występów, wprowadzał je do systemu i ustawiał, aby ćwiczyć ruchy w symulacji przez cały miesiąc, trenując 24 godziny na dobę. DeepMimic nauczył się 25 różnych ruchów, takich jak kopanie i backflipy, porównując jego wyniki za każdym razem, aby zobaczyć, jak blisko doszło do oryginalnych danych mocap.

W przeciwieństwie do innych systemów, które mogły próbować i nie powiodły się wielokrotnie, DeepMimic zepsuł przejście do kroków, więc jeśli w jednym punkcie zawiódł, mógł przeanalizować jego wydajność i odpowiednio dostosować go w odpowiednim momencie.

„W miarę postępu tych technik myślę, że zaczną odgrywać większą i większą rolę w filmach”, mówi Peng Odwrotność. „Ponieważ jednak filmy zazwyczaj nie są interaktywne, te techniki symulacji mogą mieć bardziej bezpośredni wpływ na gry i VR.

„W rzeczywistości symulowana postać trenowana za pomocą uczenia się przez wzmacnianie już znajduje drogę do gier. Gry indie mogą być bardzo przyjemnym poligonem dla tych pomysłów. Ale może upłynąć trochę czasu, zanim będą gotowe na tytuły AAA, ponieważ praca z symulowanymi postaciami wymaga dość drastycznego przejścia od tradycyjnych potoków programistycznych. ”

Twórcy gier zaczynają eksperymentować z tymi narzędziami. Jeden programista zdołał użyć DeepMimic w silniku gry Unity:

Szanowni Państwo, ukończyliśmy Backflip! Gratulacje dla Ringo, aka StyleTransfer002.144 - używanie # unity3d + #MLAgents & #MarathonEnvs. StyleTransfer trenuje #ActiveRagoll z danych MoCap aka Deepmimic http://t.co/gAGtYYeawE… #madewithunity pic.twitter.com/3iIoDsfdLe

- Joe Booth (@iAmVidyaGamer) 1 listopada 2018 r

Peng ma nadzieję, że wydanie kodu przyspieszy jego przyjęcie. Zauważa również, że zespół „rozmawiał z wieloma twórcami gier i studiami animacji o możliwych zastosowaniach tej pracy, chociaż nie mogę jeszcze omówić zbyt wielu szczegółów na ten temat”.

Maszyny regularnie zmagają się ze złożonymi ruchami, czego dowodem są roboty grające w piłkę nożną, które miękko przewracają się po trawie, zamiast wykonywać jakiekolwiek wysokooktanowe ruchy. Są oznaki postępu, jak A.I. radzi sobie ze złożonością ruchów w świecie rzeczywistym i zaczyna poprawiać się bardziej jak ludzie.

Być może DeepMimic pewnego dnia nauczy się nowego ruchu w kilka sekund, podobnie jak Neo uczy się kung fu Macierz.

Przeczytaj streszczenie poniżej.

Długotrwałym celem w animacji postaci jest połączenie specyfikacji zachowania opartej na danych z systemem, który może wykonać podobne zachowanie w symulacji fizycznej, umożliwiając w ten sposób realistyczne reakcje na zakłócenia i zmienność środowiskową. Pokazujemy, że dobrze znane metody uczenia się wzmacniania (RL) można zaadaptować, aby nauczyć się solidnych polityk sterowania zdolnych do imitowania szerokiego zakresu przykładowych klipów ruchu, a także uczyć się złożonych odzyskiwania, dostosowując się do zmian w morfologii i osiągając cele określone przez użytkownika. Nasza metoda obsługuje ruchy w ramkach kluczowych, bardzo dynamiczne akcje, takie jak przechwycone ruchy i obroty oraz ruchy retargetowane. Łącząc cel imitacji ruchu z celem zadania, możemy szkolić bohaterów, którzy reagują inteligentnie w interaktywnych ustawieniach, np. Chodząc w pożądanym kierunku lub rzucając piłką w określony przez użytkownika cel. Podejście to łączy zatem wygodę i jakość ruchu przy użyciu klipów ruchu do zdefiniowania pożądanego stylu i wyglądu, z elastycznością i ogólnością zapewnianą przez metody RL i animację opartą na fizyce. Dalej badamy wiele metod integracji wielu klipów w procesie uczenia się, aby rozwijać wielozadaniowych agentów zdolnych do wykonywania bogatego repertuaru różnorodnych umiejętności. Prezentujemy wyniki przy użyciu wielu postaci (człowieka, robota Atlas, dwunożnego dinozaura, smoka) oraz wielu różnych umiejętności, w tym poruszania się, akrobatyki i sztuk walki.