Jak Ninja Theory czyni „Hellblade” kinematografią w czasie rzeczywistym

$config[ads_kvadrat] not found

CGI & VFX Making of: "Hellblade: Senua"s Sacrifice" - by Ninja Theory

CGI & VFX Making of: "Hellblade: Senua"s Sacrifice" - by Ninja Theory
Anonim

Ninja Theory wprowadza do swojej gry wideo stosunkowo niespotykaną technologię Hellblade: Poświęcenie Senui: Możliwość fotografowania, renderowania i edytowania scen w grze w ciągu kilku minut, a nie dni.

Podobnie jak tradycja z teorią Ninja, Hellblade nie jest typowym hitem - następuje po podróży Senui, celtyckiego wojownika walczącego z chorobą psychiczną. Biorąc pod uwagę zainteresowanie studia tworzeniem mniejszych, opartych na postaci historii w grach takich jak Zniewolony i DmC (nawet w skali zbliżonej do potrójnej A), wykorzystanie technologii do dalszego rozwoju emocjonalnego wydaje się naturalnym postępem.

Technik, który Ninja Theory nazywa „kinematografią w czasie rzeczywistym” po niedawnym pokazie pokazanym na konferencji VFX SIGGRAPH, zasadniczo rejestruje występ aktora w czasie rzeczywistym, tak jak na planie filmowym, a następnie przenosi renderowane dane do Sequencer, nowego narzędzia Adobe Premiere dla Unreal Engine 4.

Stamtąd właśnie zarejestrowane dane dotyczące wydajności - nagrane animacje twarzy, głos i ruch - można manipulować na wiele sposobów, takich jak liniowy segment filmu, tylko programiści mogą dowolnie dostosowywać, modyfikować lub edytować takie rzeczy, jak oświetlenie lub kąty kamery w locie. (Ponieważ dane są w czasie rzeczywistym, można nawet całkowicie zmienić lub dodać nowe kamery do sceny).

Dla współzałożyciela i głównego dyrektora kreatywnego Ninja Theory, Tameema Antoniadesa, robienie wszystkiego w domu za pomocą tej technologii robi różnicę.

„Możemy wskoczyć i sfilmować sceny, kiedy ich potrzebujemy. Nie musimy robić tego wszystkiego podczas jednej 4-tygodniowej sesji - mówi Antoniades o starej metodzie studia. Wcześniej wymagało to zarezerwowania bloku czasu w studio przechwytywania mottionów, aby jednocześnie uchwycić występy gry. „Musieliśmy sfotografować wszystko w tej grze, a następnie zbudować grę wokół tego, co kręciliśmy”.

Techniczne nakrętki i śruby są zaskakująco złożone i wymagają wielu rąk. Oprócz współpracy z firmą Epic, która pomaga w zapewnieniu wsparcia dla samego Sequencera i Unreala, wykorzystywana technologia przechwytywania twarzy pochodzi od oddzielnej firmy oprogramowania mo-cap, Cubic Motion, podczas gdy w Serbii w studio wykonawczym do twarzy 3Lateral została stworzona pomoc realistyczne wirtualne głowy - a to tylko kilku zewnętrznych współpracowników Ninja.

Oprogramowanie do przechwytywania twarzy Cubic Motion i przechwycone dane 3Lateral - które wymagały od aktorki Meliny Juergens podróży do Nowego Sadu, aby jej twarz została zeskanowana na różne sposoby - są wykorzystywane jako fundament cyfrowy do dokładnego rejestrowania wydajności w czasie rzeczywistym. (Na szczęście Juergens jest edytorem wideo Ninja Theory, więc jej dostępność do fotografowania nie jest problemem).

Ale Hellblade Zaczęło się od chęci stworzenia czegoś całkowicie niezależnego w skali potrójnej, i tak wydajnego i taniego, jak to możliwe. Jak dotąd ich praca mówi sama za siebie i jest zadziwiająco budowana przez zaledwie 16-osobowy zespół.

Antoniades twierdzi, że jest to stosunkowo kompaktowa produkcja, skupiająca się na pojedynczym znaku, który w ogóle umożliwia.

„Zbudowaliśmy przestrzeń do przechwytywania wydajności, która mogłaby robić rzeczy, które robiliśmy wcześniej, ale zbudowaliśmy ją na prawdopodobnie 20 000 do 30 000 USD. Co jest super, super tanie w porównaniu z konfiguracjami, z którymi pracowaliśmy - mówi. „Nawet jeśli wydaje się, że jest to ultra zaawansowana technologia, bardzo droga, to nie jest - to po prostu bardziej skuteczny sposób na kręcenie zdjęć, w duchu wszystkiego, co robią inni”.

Aby pomóc temu studiu uniknąć bankructwa, niektórzy partnerzy pożyczali im sprzęt i zapewniali wiedzę techniczną, podczas gdy Antoniades i zespół podejmowali świadome wysiłki, aby koszty sprzętu były jak najniższe. Wykorzystanie dziewięciu kamer typu mo-cap w przestrzeni o wymiarach około trzech na trzy metry, znacznie mniejszych niż konfiguracje liczące dwadzieścia na dwadzieścia metrów, było dużą pomocą.

„Dokonaliśmy wielu kompromisów” - mówi Antoniades. „Nasz olinowanie do zamontowania kamer, które kupiliśmy od IKEA. Są to maszty do garderoby. Oświetlenie, którego potrzebowaliśmy - to lampy biurowe, które kupiliśmy od Amazona. Po prostu robiliśmy najtańsze możliwe rozwiązanie na każdym kroku, aby móc uchwycić jedną postać. ”

Otwartość studia na rozwój jest tym, co sprawiło, że dyrektor ds. Technologii Epic, Kim Libreri, zapytał Antoniadesa, czy Ninja Theory chce zrobić pokaz na żywo z aktorką Senuy na GDC w marcu; kiedy okazało się to sukcesem, zespół współpracował ze swoimi partnerami w celu nakręcenia i renderowania całej scenki filmowej w ciągu siedmiu minut na prezentację SIGGRAPH w czerwcu, używając Sequencer do przeniesienia ograniczonych danych do Unreal Engine.

W przeciwieństwie do bardziej okrojonego demo GDC, prezentacja SIGGRAPH (którą wykonali przed publicznością 2500 profesjonalistów z branży VFX) pokazała, że ​​Senua rozmawia z sobowtórem, podczas gdy Antoniades strzelał do obu części Moergensa. Po uchwyceniu sobowtóra Ninja Theory pomogła Epic, Cubic Motion i 3Lateral na scenie, aby upewnić się, że dane zostały odpowiednio przechwycone, a następnie umieszczone w interfejsie edycji wideo w stylu Sequencer.

W końcu dane zostały odtworzone, gdy Antoniades sfilmował Juergens po raz drugi, grając teraz w prawdziwą Senuę, wbrew jej pierwszemu występowi - jednocześnie rejestrując ruch i ostrość samego aparatu. Za swoją wydajność Ninja Theory otrzymała nagrodę SIGGRAPH za najlepszą grafikę w czasie rzeczywistym i nagrodę za interaktywność.

Tym, co sprawia, że ​​technologia jest tak zwrotna, jest to, że nawet najlepsze studia filmowe nie produkują obecnie obrazów tak bliskich ostatecznej sztuce jak ta. Zamiast tego używają procesu zwanego wstępną wizualizacją, który działa trochę jak animowany kontur w czasie rzeczywistym, używając podstawowej renderowanej geometrii do pomiaru blokowania i działania sceny. Przejście od surowego obrazu wstępnego do końcowego zazwyczaj zajmuje kilka miesięcy i nie ma szczegółów, zwłaszcza biorąc pod uwagę brak przechwytywania twarzy.

„Gdybyś mógł zobaczyć postać na żywo, wyobraź sobie wszystkie rzeczy, które możesz z tym zrobić” - mówi Antoniades. „Z SIGGRAPH pomyśleliśmy, że„ mamy szansę, aby rzeczywiście zrobić coś, czego nie można nawet zrobić na planie filmowym. ”Studia filmowe z milionami dolarów nie mają tej technologii.”

Jest to także korzystne dla ogólnej szybkości rozwoju.

„Ponieważ mamy tutaj swój własny zestaw, możemy wskoczyć i sfilmować sceny tak, jak ich potrzebujemy”, mówi. „Robimy to bardziej organicznie - podobnie jak poziomy budowania, możemy wskoczyć i sfilmować sceny dla tych poziomów lub, jeśli potrzebujemy dodatkowych scen, wskoczyć i strzelić do nich. Jest to wciąż zgodne z narracją i historią, to tylko sprawiło, że scena stała się nieco chłodniejsza, więc możemy wyciągać triki z wieloma wersjami Senuy, których inaczej byśmy nie mieli. ”

Podczas gdy Antoniades mówi, że charakter technologii w czasie rzeczywistym prawdopodobnie nie będzie miał zauważalnego wpływu na fabułę ani na grę (poza może bardziej eksperymentalnymi przerywnikami filmowymi), jest optymistą, że można go zastosować do nowych rodzajów doświadczeń i rozrywki w najbliższej przyszłości, szczególnie w wirtualnej rzeczywistości.

„Wyobraź sobie postacie odwracają się do ciebie lub chodzą z tobą lub wchodzą z tobą w interakcję”, mówi. „Myślę, że doprowadzi to do innego rodzaju rozrywki, do której nie mamy nazwy, nie mamy nawet gramatyki, jak w przypadku filmów i gier wideo”.

To, co może się zdarzyć wcześniej, to np. Czat Twitch, w którym ludzie mogą rozmawiać z Senuą w czasie rzeczywistym - coś, co fani mogliby potencjalnie zobaczyć w nadchodzących miesiącach. Możliwe jest również korzystanie z VR, koncertów i innych aplikacji niezwiązanych z grami.

„Będąc w stanie ustawić lokalizacje, aktorów, nagrywać rzeczy na żywo, a następnie, ponieważ jest to wszystko w czasie rzeczywistym, możesz sprawić, że wszystko będzie interaktywne na miejscu, wypróbować różne scenariusze”, mówi Antoniades. „W najbliższej przyszłości istnieją możliwości, które nie byłyby możliwe nawet w zeszłym roku”.

Z Hellblade Będąc jednym z kilku projektów odpowiednich do gier, nad którymi pracuje Ninja Theory, miejmy nadzieję, że będzie to dobry punkt wyjścia, aby zobaczyć, jak to wszystko może ewoluować.

„Myślę, że będzie to dobre dla graczy, ponieważ będą mieli bardziej interesujące projekty”, mówi. „I będzie dobrze dla programistów. Myślę, że branża zmienia się na lepsze, o ile wszyscy zdołamy się tam utrzymać i przetrwać trochę dłużej. ”

$config[ads_kvadrat] not found