Искусственный интеллект впервые обыграл профессиональных игроков в StarCraft II
Нейросеть AlphaStar, разработанная подразделением Google по исследованию ИИ DeepMind, обыграла человека в популярной стратегии реального времени StarCraft II.
Почему важно: Этой новости уже несколько дней, но очень хочется вставить свои 5 копеек. Глядя, как робот обыгрывает лучших игроков StarCraft, становится страшно: отвлекаешься на секунду –– и уже не знаешь, где мышкой руководит человеческая рука, а где –– безжалостный ИИ. Предыдущее сражение в Dota, где ИИ управлял сразу 5 юнитами, показало, что его по-настоящему сильная сторона –– скорость реакций. В StarCraft II нейросетка выдавала в моменты боя фантастические 1500 действий в секунду, что далеко за пределами возможностей простых смертных.
Польский чемпион под ником MaNa проиграл со счетом 5:0 отчасти из-за того, что противник обнаружил необкатанные прежде стратегии. И это понятно –– AlphaStar обучался на записях полумиллиона игр между людьми, затем играл с постоянно улучшающимися клонами самого себя и, наконец, эволюционировал в то, что мы видим сейчас (#reinforcement_learning в действии).
А пока с нетерпением ждем летний финал чемпионата мира по Dota, где AI покажет, как справляется с пятью человеческими ролями одновременно во второй раз.
Нейросеть AlphaStar, разработанная подразделением Google по исследованию ИИ DeepMind, обыграла человека в популярной стратегии реального времени StarCraft II.
Почему важно: Этой новости уже несколько дней, но очень хочется вставить свои 5 копеек. Глядя, как робот обыгрывает лучших игроков StarCraft, становится страшно: отвлекаешься на секунду –– и уже не знаешь, где мышкой руководит человеческая рука, а где –– безжалостный ИИ. Предыдущее сражение в Dota, где ИИ управлял сразу 5 юнитами, показало, что его по-настоящему сильная сторона –– скорость реакций. В StarCraft II нейросетка выдавала в моменты боя фантастические 1500 действий в секунду, что далеко за пределами возможностей простых смертных.
Польский чемпион под ником MaNa проиграл со счетом 5:0 отчасти из-за того, что противник обнаружил необкатанные прежде стратегии. И это понятно –– AlphaStar обучался на записях полумиллиона игр между людьми, затем играл с постоянно улучшающимися клонами самого себя и, наконец, эволюционировал в то, что мы видим сейчас (#reinforcement_learning в действии).
А пока с нетерпением ждем летний финал чемпионата мира по Dota, где AI покажет, как справляется с пятью человеческими ролями одновременно во второй раз.
The Next Web
How DeepMind’s AI defeated top players at StarCraft II
In August 2017, DeepMind decided to take on a much bigger and more complex challenge: training an AI to master Starcraft II.