皇冠博彩官网(www.huangguan.us)是皇冠体育官方信用网线上直营平台。皇冠博彩官网开放信用网和现金网代理申请、信用网和现金网会员注册、线上充值线上博彩、线上提现、皇冠官方APP下载等业务。皇冠博彩官网提供皇冠官网管理端登录线路、皇冠官网会员端登录线路,皇冠官网手机网址、皇冠官网最新网址导航等服务。

首页科技正文

澳洲幸运5(www.a55555.net):人类又输了!这次玩《 跑车浪漫旅》开赛车也开不过AI

admin2022-05-0964

ADVERTISEMENT

人工智慧(AI)的很多潜在应用,涉及与人类互动时做出更优化的即时决策,而竞技或者博弈类游戏,便是最佳的展示舞台。 

今天,发表在《Nature》杂志上的封面文章报告称,AI 在赛车对战游戏 Gran Turi *** o(跑车浪漫旅)中战胜了世界冠军级人类玩家。这个 AI 程式名为「Gran Turi *** o(GT)Sophy」,是一种神经网路驱动程式,它在遵守赛车规则的同时,展现出了超凡的行驶速度、操控能力和驾驶策略。

完成这项 AI 程式研发的核心团队来自索尼 AI 事业部(Sony AI),《跑车浪漫旅》系列游戏是日本 Polyphony Digital 公司开发,忠实再现了真实赛车的非线性控制挑战,封装了复杂的多智慧体互动,该游戏在索尼 PlayStation 及 PSP 等游戏主机平台上皆有发行,是一款极具拟真感操纵体验的热门赛车游戏。 

假如有此 AI 程式的加持,人类玩家应该再也跑不赢加强版的单机程式了吧?

研究人员认为,此项成果或让赛车游戏变得更有意思,并能提供用来训练职业赛车手和发现新赛车技巧的高水准比赛。这种方法还有望应用在真实世界的系统中,比如机器人、无人机和自动驾驶汽车等。 

赛道里的玩命关头 

驾驶赛车需要极大的技巧。现代一级方程式赛车展示了惊人的工程精度,然而,这项运动的受欢迎程度与其说与汽车的性能PK有关,不如说与顶级车手在将汽车性能发挥到极限时所表现出的技巧和勇气有关。一个多世纪以来,赛道上的成功一直充满著速度和 *** 。

赛车比赛的目标很简单:如果你比竞争对手在更短的时间内跑完赛道,你就赢了。然而,完成这一目标需要极其复杂的物理战,驰骋赛道需要小心使用轮胎和道路之间的摩擦力,而这种摩擦力是有限的。

为了赢得比赛,车手必须选择让汽车保持在不断变化的摩擦极限内的轨迹上。转弯时煞车太早,你的车就会慢下来,浪费时间。煞车太晚,当你接近转弯最紧的部分时,你将没有足够的转弯力来保持你想要的路线轨迹。煞车太猛,可能会导致车体旋转。

因此,职业赛车手非常擅长在整个比赛中一圈接一圈地发现并保持赛车的极限。

尽管赛车的操纵极限很复杂,但它们在物理上可以得到很好的描述,因此,它们可以被计算或学习是理所当然的。

近年来,深度强化学习(DRL)已成为 Atari、《星海争霸》和 Dota 等领域 AI 研究里程碑的关键组成部分。为了让 AI 对机器人技术和自动化产生影响,研究人员必须证明能够成功控制复杂的物理系统,此外,AI 技术的许多潜在应用要求在接近人类的情况下相互作用,同时尊重不精确的人类规范,汽车比赛正是充满这些挑战的典型领域。

近年来,利用全尺寸、大规模和模拟车辆,自主赛车的研究不断加速。一种常见的方法是预先运算轨迹,并使用模型预测控制来执行这些轨迹。然而,当在摩擦的绝对极限下行驶时,微小的建模误差可能是灾难性的。

与其他车手比赛对 AI 建模精度提出了更高的要求,并引入了复杂的空气动力学相互作用,进一步促使工程师改进控制方案,以不断预测和适应赛道的最优轨迹,有朝一日,无人驾驶汽车下赛道与人类车手一决高下,也并非空谈。 

「AI赛车手」的训练 

在 GT Sophy 的开发过程中,研究人员探索了各种使用机器学习来避免建模复杂性的方法,包括使用监督学习来建模车辆动力学,以及使用模仿学习、进化方法或强化学习来学习驾驶策略。

为了取得成功,赛车手必须在四个方面具备高度技能:(1)赛车控制,(2)赛车战术,(3)赛车礼仪和(4)赛车策略。 

,

澳洲幸运5www.a55555.net)是澳洲幸运5彩票官方网站,开放澳洲幸运5彩票会员开户、澳洲幸运5彩票代理开户、澳洲幸运5彩票线上投注、澳洲幸运5实时开奖等服务的平台。

,

为了控制汽车,车手们对他们的车辆动力学和赛道的特性有详细的了解。在此基础上,驾驶者建立所需的战术技能,透过防守对手,执行精确的演习。同时,驾驶必须遵守高度精炼但不精确的体育道德规则,最后,车手在模拟对手、决定何时以及如何尝试超车时,会运用战略思维。

类比赛车是一个需要在具有高度真实、复杂物理环境中进行即时、连续控制的领域,GT Sophy 在这种环境下的成功首次表明,在一系列汽车和赛道类型中,有可能训练出比顶尖人类赛车手更好的人工智慧代理。

这一结果可以被视为是电脑在西洋棋、围棋、冒险、扑克牌和《星海争霸》等竞争性任务持续发展的另一个重要步骤。

 

值得注意的是,GT Sophy 在短短几个小时内就学会了绕道而行,并超过了资料集中 95% 的人类选手,它又训练了九天时间,累计驾驶时间超过了 45000 小时,跑圈时间减少了十分之一秒,直到圈速停止改善。

单凭进步奖励还不足以激励AI程式赢得比赛。如果人类对手的速度足够快,AI程式将学会跟随,并在不冒潜在灾难性碰撞风险的情况下尝试积累更多奖励,完成超车。

为了评估 GT Sophy,研究人员在两项赛事中让 GT Sophy 与顶级 GT 车手进行了较量,GT Sophy 在所测试的三条赛道上都取得了超人的计时表现,它能够执行几种类型的转弯,有效地利用漂移,扰乱后面车辆,拦截对手并执行其他紧急操纵。

尽管 GT Sophy 展示了足够的战术技能,但仍有许多方面有待改进,尤其是在战略决策方面。例如,GT Sophy 有时会在同一条跑道上留出足够的空间,让对手有机可乘。 

竞技游戏外更值得关注 

关于电子竞技、博弈类的游戏,AI 能战胜人类早已经不是什么稀奇事,而且可以确定的是,AI 还会越来越强,即便是人类顶尖选手也只能甘拜下风,但能赢电子比赛并没有太多悬念和意义,关键还是看这些超越人类的 AI 程式如何切实攻克产业瓶颈,真实造福人类生活。 

1996 年 2 月 10 日,超级电脑 Deep Blue 首次挑战西洋棋世界冠军 Kasparov 以 2:4 落败。1997 年 5 月再度挑战,最终Deep Blue 以 3.5:2.5 击败了 Kasparov,成为首个在标准比赛时限内击败西洋棋世界冠军的电脑系统。 

但 Deep Blue 的缺陷是没有直觉,不具备真正的「智慧灵魂」,只能靠超强的运算能力弥补分析思考方面的缺陷,赢得比赛的 Deep Blue 很快也退役了。

2016 年 3 月,Google AI 的 AlphaGo 在四场比赛中击败了围棋世界冠军李世乭,被认为是 AI 真正意义上的里程碑,AlphaGo 当时使用了蒙地卡罗树搜寻与两个深度神经网路相结合的方法,在这种设计下,电脑可像人类大脑一样自主学习进行分析训练,不断学习提高棋力。

自此之后,各类 AI 程式新秀层出不穷,2018 年 12 月 10 日,DeepMind 针对即时战略游戏《星海争霸》开发的人工智慧 AlphaStar 能完虐全球 99.8% 的人类职业选手。

无疑,现在的 GT Sophy 又是一个 AI 胜利的延续。

来自史丹佛大学机械工程系教授 J.Christian Gerdes 认为,GT Sophy 研究所带来的影响也许能远远超出电子游戏范畴,随着许多公司致力于完善运送货物或乘客的全自动车辆,关于软体中有多少应该使用神经网路,以及有多少应该仅基于物理,值得进一步去探索。

总的来说,在感知和辨识周围环境中的物体时,神经网路是无可争议的冠军。然而,轨迹规划仍然是物理和优化领域,GT Sophy 在游戏赛道上的成功表明,神经网路有一天可能会在自动化车辆的软体中发挥比今天更大的作用。

更具挑战性的可能是每圈的变化。真实情况下,赛车的轮胎状况在每圈之间都会发生变化,人类驾驶必须在整个比赛过程中适应这种变化。GT Sophy 能用更多的资料做同样的事情吗?这些资料从何而来?这将使得人工智慧有更多进化空间。 

资料来源: 

网友评论

3条评论