据英国《自然》杂志9日发表的一项研究,一种人工智能(AI)在著名对战赛车游戏《GT赛车》中战胜了世界冠军级玩家。这个AI在遵守赛车规则的同时展现出了超凡的行驶速度、操控能力和驾驶策略。研究结果将对自主导航以及基础AI研究具有应用价值。
AI的许多潜在应用都需要一边与人类交互,一边在物理系统中做出实时决策,而赛车正是这类情况的典型代表。赛车手必须进行复杂的战术性操控去超越或阻挡对手,同时还要以极限牵引力来驾驶赛车。以PlayStation的游戏《GT赛车》为代表的拟真类赛车游戏不仅能再现操控真实赛车的挑战,也对机器学习的应用提出了挑战。
索尼AI科学家彼得·乌尔曼及其同事此次让一个名为“GT Sophy”的AI智能体学会利用深度强化学习来玩《GT赛车》。他们训练这个智能体掌握在赛车比赛中高效加速和刹车的艺术,并学习如何在不同情况下或在对手挡路时替换行驶路线。想要训练出一个成功的AI,最大的挑战之一是要确保它不会因为触犯赛车规则而受罚,这里的赛车规则是一组由外部人类裁判判决的宽松规则。
最后,“GT Sophy”利用代表不同赛车挑战的三组赛车与路线组合——包括时速超过300公里的赛车——在对战比赛中成功击败了4位全球顶级电子竞技赛车手。
以上结果是计算机战胜最强人类对手的一项最新竞技任务,其他竞技任务还包括国际象棋和扑克。研究人员认为,这一结果不但让赛车游戏变得更有意思,还能提供用来训练职业赛车手和发现新赛车技巧的高水平比赛。这种方法还有望应用在真实世界的系统中,比如机器人、无人机和自动驾驶汽车。
总编辑圈点:
赛车的目标是什么?人们总是很容易下定义:在更短时间里超过所有对手,你就赢了。但如果仅仅是这样,一级方程式赛车不会被称为现代运动里最鬼斧神工的工程学展示。赛车实际上是一场人类最大限度利用物理学进行的复杂战斗和策略风暴,轮胎的摩擦力、过弯的速度、刹车的时间点……专业选手对赛车的精准操控,专业团队每一步战术的制定,正是人类身体和智慧的最佳发挥。作为一个AI,“GT Sophy”却没有运用物理显式计算,它所用的是神经网络模型学习,以及足够的数据“修炼”自身,最终,在与人类冠军的正面交锋中,它一骑绝尘。
编辑/范辉