Нейросеть от Google научилась играть в футбол
Искусственный интеллект от Google научился манипулировать виртуальным мячом. Этот эксперимент — часть масштабного проекта DeepMind по глубинному обучению нейросетей, пишет Wired.
Виртуальный игрок, которого разработчики назвали «муравьём», выглядит как шар с четырьмя конечностями. Под управлением нейросети он может передвигаться по полю, пинать мяч и направлять его в сторону «цели».
В компании утверждают, что этот эксперимент важен для дальнейших разработок в области непрерывного управления, роботизированного передвижения и манипулирования объектами. Так, например, в будущем антропоморфные или звероподобные роботы смогут учиться ходить и манипулировать предметами в процессе, без предварительных исчерпывающих инструкций.
Как сообщает блог компании, компания DeepMind недавно создала несколько 3D-игр Labyrinth, в котором нейросеть учится преодолевать трёхмерные препятствия. Программа интерактивно взаимодействует с картой лабиринта и ищет на ней награды. Такой метод называется обучением с подкреплением.
Программы, созданные DeepMind, уже освоили с компьютерные игры Atari, такие как Space Invaders или Breakout. В этом году программа AlphaGo, разработанная компанией Deepmind, обыграла мирового чемпиона Ли Седоля со счетом 4:1.