Виртуальных персонажей научили копировать движения людей

Татьяна Новак

Исследователи из Университета Британской Колумбии и Калифорнийского университета в Беркли с помощью обучения с подкреплением научили виртуальных персонажей реалистично имитировать движения людей, животных и роботов. Препринт исследования опубликован на arXiv.org.

Чтобы показать виртуальным персонажам цель, к которой нужно стремиться, учёные использовали видеоинструкции, созданные с помощью технологии захвата движения. Вознаграждение зависело от того, насколько положение «ученика» в пространстве совпадало с положением «инструктора» в каждом элементе выполняемого движения.

В среднем на изучение каждого движения с помощью алгоритма DeepMimic требуется месяц. За этот период персонажи успевают сделать миллионы попыток повторения трюка, при этом алгоритм быстро прекращает явно неудачные попытки, заставляя их отрабатывать наиболее близкие к оригиналу. Сейчас персонажи освоили около 25 движений, среди них есть как простые — например, метание ядра, так и сложные акробатические трюки, такие как сальто назад.

Помимо движений людей, персонажи научились имитировать движения льва, робота Atlas, а также тиранозавтра и дракона — инструкции с их движениями были созданы с помощью компьютерного моделирования.

По словам разработчиков, этот алгоритм можно использовать не только для создания видеоигр с более реалистичными персонажами, но и для обучения человекоподобных или звероподобных роботов.

Ранее программисты из DeepMind с помощью обучения с подкреплением научили агентов с искусственным интеллектом преодолевать препятствия в виртуальном мире. Также в прошлом году исследователи из Канады и Сингапура на конференции по компьютерной анимации Siggraph 2017 представили алгоритм глубокого обучения с подкреплением, позволяющий двуногим виртуальным роботам методом проб и ошибок научиться ходить, бегать и вести мяч.

Загрузить еще