DeepMind AI与人类合做玩夺旗策略游戏,表现与人类玩家至关

DeepMind用强化学习训练AI玩家,在复杂多人连线3D游戏中的夺旗竞赛场景,AI玩家的表现已达人类水准学习

DeepMind最近发表用强化学习训练AI模型的新进展,在复杂多人连线3D游戏《雷神之锤III竞技场》中的夺旗竞赛场景,AI玩家的表现已达人类水准,可以成功地与人类玩家合做,不只如此,该AI模型的研究成果,也能够扩展到《雷神之锤III竞技场》完整的游戏场景中,该研究显示多代理人(multi-agent)训练在AI领域开发上的潜力。

这个研究的目标是多代理人学习,也就是每一个个别的代理人都必须独立行动,并学会与其余代理人互动和合做,DeepMind指出,地球上有数十亿的人居住,每一个人都有本身的目标和活动,可是仍然能够透过团体组织和社会汇集在一块儿,展示出集体智慧,这就是DeepMind指望AI玩家能学会的能力,不过,这也是一个很是困难的任务,由于环境一直在改变。代理

为了研究这道难题,DeepMind利用3D第一视角的多人连线游戏,来训练AI模型,这些游戏可以表明最受欢迎的游戏种类,而且也由于沉浸式的游戏方式,能够收集到数百万游戏玩家的想像,也能使AI学习到策略、技巧、手眼协调和团队合做,对AI玩家来讲,挑战是要直接从原始的像素资料直接学习,并产生动做,这样的复杂度也使得第一视角的多人连线游戏,成为丰富的AI训练资源。cdn

首先,DeepMind训练AI玩家学习像其余玩家同样行动,并且要学会与同队的玩家合做,无论是AI或是人类玩家,夺旗竞赛的规则很简单,可是动态的变化却很复杂,两个队伍各自的玩家要在给定的地图上,抢夺对方队伍的旗帜带回本身的基地,同时又要保护本身队伍的旗帜,若点击持有本身队伍旗帜的敌对玩家,就能将旗帜送回本来的基地,在5分钟内拥有最多旗帜的队伍即获胜。blog

从游戏AI玩家的角度来看,夺旗竞赛须要玩家与团队合做一块儿对抗敌人,为了让研究变得更有趣,DeepMind为夺旗竞赛增添了一些变数,每一个竞赛中的地图配置都不相同,如此一来,AI玩家就被迫要找出通用的策略,而不是靠着记忆地图来完成任务,除此以外,为了确保竞争环境公平,AI玩家和人类玩家是用相似的方式玩夺旗游戏,AI玩家观察像素图像的串流资料,并透过模拟游戏控制器来产生执行动做。游戏

DeepMind所用的强化学习有3大概念,第一,DeepMind训练了一群AI玩家,而不是只有一个,所以,AI之间能够互相学习,提供多元的队友或是敌人,第二,每一个AI玩家都会学习本身的内部奖励讯号,使得AI产生本身的内部目标,像是抢夺旗帜,第三,AI玩家执行游戏的时间区段的分为快和慢两种,来改善AI使用记忆体和产生一致行动序列的能力。资源

获取最新Flink、AI资讯,可关注同名公众号开发

相关文章
相关标签/搜索