Co zrobić, aby postacie w grach były bardziej realistyczne? Sięgnąć po sztuczną inteligencję

Maksym SłomskiSkomentuj
Co zrobić, aby postacie w grach były bardziej realistyczne? Sięgnąć po sztuczną inteligencję
Projektowanie realistycznych postaci umieszczanych w grach jest ogromnym wyzwaniem. To wyzwanie jest szczególnie duże w przypadku gier sandboksowych, w których gracz ma sporą swobodę. Trudno jest bowiem przewidzieć absolutnie wszystkie interakcje, w które gracze wejdzie ze światem, a więc zaprojektować je wszystkie tak, aby były realistyczne – jak najdokładniej odwzorowywały to, w jaki sposób porusza się chociażby ludzkie ciało. Na szczęście, w tej kwestii niezwykle przydatna okazuje się sztuczna inteligencja.

Skoro ręczne animowanie postaci z gier, a zwłaszcza trójwymiarowych, jest czasochłonne i często nie daje zadowalających rezultatów, deweloperzy często sięgają po technologię „motion capture”. Polega ona na wykorzystywaniu kamer i mnóstwa czujników do rejestrowania przeróżnych ludzkich czynności – biegania, skakania, chodzenia – i tak dalej. Następnie wszystko to przekłada się na zachowanie postaci w grach, dzięki czemu ich ruchy są stosunkowo realistyczne. Stosunkowo, bo jako że jak wspomnieliśmy twórcy gier nie są w stanie przewidzieć wszystkich interakcji postaci z cyfrowym światem, muszą korzystać z niedoskonałego oprogramowania, które wypełnia te luki za nich. Te luki często są jednak wypełnione tak, że ruchy postaci, na przykład gdy ta podchodzi do krzesła, a następnie na nim siada, wydają się okropnie nienaturalne, przez co negatywnie wpływają na immersję.

Badacze z Uniwersytetu w Edynburgu oraz Adobe Research opracowali rozwiązanie, które powinno stanowić rozwiązanie opisanego problemu. To rozwiązanie polega na wykorzystaniu sztucznej inteligencji, a dokładniej mówiąc – sieci głębokiego uczenia maszynowego. Podejście to ma wiele wspólnego z tworzeniem deepfake’ów.

Aby twórcy deepfake’ów mogli otrzymać realistyczne zmanipulowane zdjęcia czy materiały wideo, które nie sposób wykryć, najpierw muszą wytrenować sieć neuronową z użyciem bazy danych zawierającej dziesiątki tysięcy zdjęć. Te zdjęcia powinny przestawiać twarz osoby, która znajdzie się w deepfake’u, pod każdym możliwym kątem i z każdą możliwą miną. Podobnie jest w przypadku metody dotyczącej gier, jednak ta polega na trenowaniu sieci neuronowej nie z użyciem zdjęć twarzy, a z użyciem przeróżnych zarejestrowanych technologią „motion capture” ruchów całego ciała.

Dla najlepszych rezultatów baza danych sieci neuronowej powinna być naprawdę ogromna. Niemniej, nie musi ona przedstawiać absolutnie każdego rodzaju ruchu. Sieć neuronowa potrafi bowiem wykorzystać to, czego już się nauczyła, i dostosować to niemal do każdej sytuacji i każdego rodzaju środowiska, w realistyczny sposób. Dzięki niej lepiej powinien prezentować się chociażby podany wcześniej przykład z krzesłem.

Co ciekawe, na jeszcze większym realizmie zalety nowego rozwiązania się nie kończą. Przede wszystkim pozwoliłoby ono postaciom z gier na wchodzenie w o wiele bardziej skomplikowane interakcje niż dotychczas. Czy kiedykolwiek, w jakiejkolwiek grze, widzieliście bójki z udziałem wielu osób poza cutscenkami? No właśnie.

Źródło: EurekAlert

Maksym SłomskiZ branżą dziennikarstwa technologicznego związany od 2009 roku, z nowymi technologiami od dzieciństwa. Pamięta pakiety internetowe Telekomunikacji Polskiej, czyli Internet na godziny i granie z kumplami po lekcjach w kafejkach internetowych. Na Instalki.pl newsman, tester oraz "ten od TikToka". Miłośnik ciągłego ulepszania swojego komputera stacjonarnego, czochrania kotów, Mazdy MX-5, siatkówki i biegania na średnich dystansach. Wyznawca filozofii xD.