Top.Mail.Ru

Искусственный интеллект DeepMind победил профессиональных геймеров в StarCraft II

Искусственный интеллект DeepMind победил профессиональных геймеров в StarCraft II

Компания Google усовершенствовала свой ИИ, чтобы он смог играть в культовую компьютерную игру StarCraft II. Нейросеть AlphaStar уже продемонстрировала свои навыки в поединке с профессиональными геймерами. ИИ удалось одержать 9 побед над профессионалами StarCraft II с никами TLO и MaNa - в двух отдельных сериях из пяти игр, которые проходили в декабре.

Профессионалы и AlphaStar играли свои битвы на карте Catalyst, используя слегка устаревшую версию StarCraft II, предназначенную для исследования искусственного интеллекта. Несмотря на то, что игрок TLO вначале был определен как фаворит над машиной, в конечном счете проиграл, так как каждый раз ИИ использовал абсолютно уникальную стратегию игры.

Однако, для достижения этого впечатляющего результата, AlphaStar играл с небольшим преимуществом перед TLO. Во-первых, для игры использовалась армия протоссов, которая определенно не является любимой для геймера. Во-вторых, AlphaStar видит игру иначе, чем обычный игрок. Он видит карту гораздо более подробно, то есть ИИ может обрабатывать как информацию о видимых вражеских отрядах, так и собственную базу, не перемещая внимание на разные части карты по мере необходимости, как это делает обычный человек.

С другой стороны, AlphaStar не пользовался преимуществами, которые, по мнению большинства, он должен был использовать в своей игре против человека. Хотя TLO и MaNa теоретически ограничены в количестве кликов, которые они могут физически совершать за минуту, в отличие от искусственного интеллекта, AlphaStar фактически выполнил меньше действий, чем противник, и значительно меньше, чем средний профессиональный игрок выполняет за единицу времени. ИИ также имел время отклика около 350 миллисекунд, что медленнее, чем у большинства профессионалов. На самом деле, ИИ тратит время на создание более разумных и эффективных решений, что в конечном итоге дает ему преимущество.

Визуализация процесса обработки информации AlphaStar

Опыт AlphaStar в игре во многом основан на углубленной программе обучения, которую DeepMind называет AlphaStar League. DeepMind берет записи человеческих игр и начинает тренировать нейронную сеть на основе этих данных. Эта сеть, основываясь на данных, была впоследствии скопирована, и использована для спаррингов.

AlphaStar League проводится в течение недели, в каждой игре создается новая информация, помогающая улучшить стратегию ИИ. На этой неделе AlphaStar сыграл столько игр, сколько вы бы сыграли за 200 лет. В конце сеанса DeepMind выбирает пять отдельных нейросетей, которые имеют наилучшие шансы, и ставит их против профессиональных игроков.

15:45
311
RSS
Нет комментариев. Ваш будет первым!