星际apm测试器(星际争霸:APM重要吗?星际玩家如何快速提升自己的APM?)
星际apm测试器文章列表:
- 1、星际争霸:APM重要吗?星际玩家如何快速提升自己的APM?
- 2、DeepMind作弊?被质疑干翻星际2顶尖高手全靠手速
- 3、重制前的预热!星际争霸更新1.18补丁PTR版本
- 4、是时候提高APM了 D.Va即将加入星际争霸2
- 5、星际2玩家们,你们很快就会在天梯上为DeepMind的论文做贡献了
星际争霸:APM重要吗?星际玩家如何快速提升自己的APM?
文接上回。前几回囧王者先是讲了星际争霸中各兵种的特点和八卦故事,也讲了三族中比较常见的战术和打法。其中在讲战术和打法的时候,囧王者提到过一个专业词语APM(手速)。有许多小伙伴来问,要如何有效的提升AMP,甚至还有想入坑星际争霸的小伙伴在问AMP是什么?
今天囧王者就来统一讲讲AMP是什么和如何提升APM吧。老规矩,这一次咱们以星际争霸一为基础来讲,玩懂了一代,再上手二代也就不在话下了。
首先,名词解释,什么是APM
名词解释,APM:全称是Actions Per Minute,翻译成中文就是每分钟操作的次数,我们简称为“手速”。APM这个词以往多见于星际争霸,魔兽争霸这样的RTS游戏;近年来,随着MOBA游戏的崛起,APM也常见于DOTA和英雄联盟这样的团队竞技游戏中。APM数值的高低,在一定程度上可以反映玩家的操作速度和竞技水平。APM高意味着玩家在单位时间内,可以完成更多的操作,即在游戏中准确的操控每一个作战单位(英雄),使其每一个技能和走位达到最优化。
其次,囧王者个人理解的APM
囧王者最开始是从星际争霸一代开始玩,打过CPGL,然后在魔兽争霸3出来后,又去玩过魔兽争霸3。在星际争霸二出来以后,我个人还是喜欢大舰巨炮,星辰大海的感觉,最后还是偏爱星际多于魔兽。因此,对于APM还是有点发言权的。我认为操作和APM应该包含多个方面:速度,准确和微操。APM提供的是对速度的不完全考量,而速度直接决定APM的数值。可以说速度对于操作很关键。
对于我个人来说,APM只要大于100,在200左右就足以完成绝大多数的微操了。APM100和200差别很大,而300和400之间的区别反而不大,普通玩家没有必要追求高于200的APM。而且大家也不要轻信什么什么大神的APM平均在300做左右,巅峰瞬发400的鬼话(职业选手除外,这是他们的赚钱吃饭的技能)。对于普通玩家来说,APM只要能高于100就可以完成绝大多数的操作和打上足够高的段位了。
接着,我们来谈一谈,何为微操
在谈微操之前,我们先明确一下微操的目的,为什么去微操?微操的目的只有两个,第一,有效的保护自己;第二,有效的打击敌人,仅此而已。前面说了那么多APM和微操的关系,那么具体来说微操有哪些分级吧?以囧王者十多年的星际争霸生涯来看,我个人将微操分为三档:
第一档,精确程度要求低的微操。第一档的微操对于精度要求不高,只要能保证迅速不出错的完成既定目标即可。例如开局迅速的将初始农民同时分到4片矿,让他们同时采矿提升效率;又比如在短时间内把建筑物放到你预期的位置上(这里涉及到建筑阵形摆放问题,有时间我再专门来写);将建筑物编队,能隔空盲操造兵等。这都是最基本的微操,看起来虽然不难,但是如果能在对战的时候行云流水般的施展出来,也是萌新玩家和初级玩家的分水岭。
第二档,精度要求高的操作。第二档的微操,对于精度要求就比第一档来说要高得多了。因此这一档微操可以看成是高手和初级玩家的分水岭。第二档的微操讲求是尽量快,尽量零修正或者少修正。例如,快速,正确的的点击小地图,分辨一个星际玩家最方便的办法就是,看他点小地图的功力了;操作地面单位往高地边缘或者另一单位身边去的时候,如何尽量接近而又不让他兜圈子(最典型的就是操作歌莉娅机器人和攻城坦克了),这种微操可以直接影响你调控阵形的能力;单体魔法对于特定单位的施放准确与否,(目标单位越小难度越大),比如微操科技球,给混杂在一堆50块好兄弟中间的特定鬼兵加保护罩的操作。如果大家能达成第二档微操的话,基本上就可以说是一个星际争霸的高手了,APM绝对不会低于150。
第三档,精度要求极高,且不可修正。第三档微操,就是高手和顶尖高手(职业选手)的差别了。第三档微操,不仅要求准确,迅速,甚至还是不可修正没有容错率的。例如,囧王者之前讲过的那些神级操作, Grrr自杀机克隆;Boxer6雷车围杀8龙骑;NADA3枪兵秀地刺;Boxer4隐飞螺旋飞行躲避射杀8自杀飞机 ;Boxer1运输机2坦克不驾开杀死4龙骑;boxer7枪兵1mm与对手4潜伏,6刺蛇周旋,最终无伤亡获胜等。这一档操作已经脱离了日常的排位,绝大多数的玩家基本上看看就好了。囧王者个人最巅峰的时候,也只能完成3个鬼兵,同时锁定3艘航母的操作。勉强算得上是2.5档次而已。
最后,如何提升APM?
那么如何有效的提升自己的微操能力呢?囧王者在这里抛砖引玉,以自己最开始打CPGL的时候,自己练习微操的方法给大家讲一讲。以我的本命种族人族为例:
第一步,咱们先开一局The Hunter的PVE,开局后首先将基地编队为1,然后把四个scv依次编队为2,3,4,5,然后咱们拼命反复按键121212,232323,343434,454545,11,22,33,44,55。在咱们左手手指疯狂切换的时候,咱们的右手还不能停,要按照正常的步骤去发展。下一步,当我们左手习惯了不停切换时,是时候让我们的右手也疯狂起来了。我们可以疯狂的点 框,疯狂的右键mov集结,疯狂的强制A过去等。
看到这里,也许有许多玩家说,这样搞没意思啊,真正跟人一打比赛的时候,Apm还是会掉下来啊。不慌,吃口药,这只是第一步,这一步是让咱们习惯高APM的感觉,而且这并不是没有意义的。有意识的来回切换的目的是观察自己状态,例如切换到兵营就是察看造兵状态;切换到部队就是察看部队状态(还记得电竞玩家不需要视力的梗吗?);切换建筑则是察看建造进程;不停的切换,其实还有一个作用,就是热手保持手和脑的高速状态。就和现在MOBA游戏中,咱们操控的英雄在泉水里面不停的乱转是一个道理。
第二步,让高速APM常态化,自己习惯高APM的感觉。在习惯了左右手不停的切换后,咱们还需要习惯更多的使用热键。哪怕这些热键多么的繁琐和布局不合理,也要习惯,在星际争霸的世界里面,不会用热键,基本等同于半残。例如,咱们要习惯给屏幕编号,囧王者习惯于将主矿设为Shift F2,分矿设为Shift F3;兵营区设为Shift f4。习惯了屏幕编号之后,对于敌人的各种空投,咱们就有了应对措施。给屏幕编号的另外一个好处就是,可以腾出大量编号给探路部队或者打游击骚扰的部队。这样就可以和咱们上面讲到的切屏和编队相呼应上了。
第三步,熟练的战术流程可以提高咱们的Apm。在练习APM的时候,囧王者强烈建议一定要循序渐进,先玩PVE,然后再用小号打排位赛。因为你要练习APM的话,你就是新手,甚至有时候你连新手都不如。一旦我们好高鹜远,选择了高端局的话,我们会被高手一直被骚扰和打乱练习节奏的。这样不仅无助于我们练习APM,甚至还会被高手劝退也说不定,为了自己好,咱们还是从低到高,循序渐进的来吧。
最后囧王者想说的是,练习高APM需要克服惰性,勤加练习让咱们的手热起来,快起来吧。高Apm是玩好任何游戏的利器,包括不限于星际争霸,魔兽争霸,Dota和英雄联盟哦,没有高手速,你还想玩好只狼和黑魂?想都不要想。好了,今天先讲到这里,大家有什么问题,可以评论留言,我一定会知无不言言无不尽的。
DeepMind作弊?被质疑干翻星际2顶尖高手全靠手速
乾明 铜灵 编译整理
量子位 出品 | 公众号 QbitAI
几天前,DeepMind开发的AlphaStar以10-1的战绩打败星际2职业高手,引发了极大的关注。
DeepMind表示,自己能够赢,全靠策略。
但这个说法,遭到了大量的质疑,无论是的Reddit和Twitter上,还是知乎和微博上,大多人都持有的观点是:
AlphaStar能赢,全靠手速。
比赛中的一些时间段,AlphaStar的APM能够达到1000 ,而最顶级的人类选手不过500 。更何况,AlphaStar的有效操作也几乎是炸裂的。
虽然这种情况没有持续多久,但手速快慢以及精确度,对于星际2太重要了。
在这些质疑中,有一篇文章引发了很多人的关注,Medium上的鼓掌超过了1.3K,Reddit上的Vote也已经逼近700。
这篇文章的作者是一名来自芬兰的小哥,名为Aleksi Pietikäinen,目前在芬兰最大的金融公司OP Financial Group工作,自称是星际2粉丝,对开发AI也有研究。
他在文章中以充分的论据指出,在比赛中,AlphaStar在操作速度和精准度上远远超过了人类,这在很大程度上影响了战局。DeepMind声称已经限制AI执行超越人类能力的行为,但他们没有成功做到这一点。
AlphaStar的超人手速
通常情况下,APM是反映玩家水平的一个重要标准。
目前,星际2中公认的顶尖人类高手是芬兰的职业选手Serral,在2018年WCS上,9场重要比赛赢得了7场,一举夺冠,创造了历史记录。
他的手速很快。很多人都认为他应该是世界上最快的。有多快呢?看下面的动图:
但即便如此,Serral也不能够长时间将APM维持在500以上。虽然有个800 的爆发,但也只是持续了几分之一秒,也很可能是垃圾操作。
AlphaStar呢?爆发后APM能够达到1500 ,有时候能够在APM达到1000 的时候维持5秒钟,而且大部分是有效操作。
一分钟1500个操作,就相当于一秒钟25个操作。这对于人类来说,是不可能做到的。
而且,5秒钟的时间在星际2中,也是一段非常长的时间。尤其是在重要的场景中,5秒的高效快速操作,将会为后期赢得胜利奠定关键的基础。
下面的动图,是第三场比赛中,AlphaStar对Mana的一场交战场景,AlphaStar的APM达到了1000 ,并维持了5秒。
在第四场比赛中,APM达到了1500 :
虽然不乏有人说,AlphaStar的平均APM只有277,仍然是可以接受的。但无论如何,它持续的爆发,是人类远远做不到的。
AlphaStar的超人精确度
如果把有效操作和垃圾操作考虑在内,AlphaStar就更逆天了。
人类玩家的APM中,有很多都是无效操作,这些操作并不会游戏产生有效影响。
考虑了这些因素之后,衡量一个玩家手速与精确度时,就有了一个新指标:EPM。
剔除掉无效操作之后,Serral的EPM能够达到344,每秒钟有5-6次有效操作。这几乎是闻所未闻的,以至于很多人都不敢相信这是真的。
如果,AlphaStar能在没有垃圾操作的情况下进行游戏的,这就意味着它的峰值APM就等于它的EPM了。速度能达到最顶尖的人类选手的4倍!
虽然AlphaStar团队表示,这些APM并不全是有效操作。但无论如何,人类都是没办法复制AlphaStar这些操作的。
在败给AlphaStar之后,MaNa谈到了比赛的感受。他说,AI最好的一面是单位控制,在我们情况差不多的时候,AlphaStar能轻松获胜。
但最糟糕的一面也是如此,AI非常确信自己能够通过单位控制获胜,以至于没有做其他任何事情,导致最后一场失利,比赛中没有多少关键的时刻,它能赢在于机制。
这也不是DeepMind想要看到的情形。
AlphaStar团队也致力于开发不超越人类操作能力的智能体。联合负责人David Silver反复表示,AlphaStar不会超过人类选手的表现。
首席设计师也说,让系统能够“像人一样”训练是可取的,如果只是通过很高的APM来将游戏推向极限,听起来可能很酷,但这并不能用来评估智能体的真实能力。
“对人类不公平”
如上所述,AlphaStar的研发团队对AI系统的APM进行了限制的。Aleksi Pietikäinen推测,
可能会限制以下方面:
1、整个游戏中的平均APM。
2、短时间内的爆发APM。将APM限制在每秒4-6次是一个合理值。Serral有效操作每秒钟还不到6次。
但与Mana对战的AlphaStar最高每秒操作25次左右,这比人类选手最快情况还要高,因此Aleksi Pietikäinen认为出现这种情况是不合理的。
3、点击间隔。即使AI的点击速度被限制了,它仍然可以在瞬间执行完动作,不用去考虑人类面临的鼠标点击间隔问题。
三个原则确定后,接下来需要去训练模型了。DeepMind的方法是,下载了上万条人类高级玩家打游戏的视频,开始模仿学习。
在这个阶段,AI会试图模仿人类在游戏中所做的一切,包括无效操作。因为在输入给模型的视频中,人类确实进行了很多无效操作,AI也会学到。
AlphaStar的最大爆发APM,最初与人类在同一起跑线。上面也说到过,因为此时AlphaStar执行的大多数操作都是无效的,因此在对战中没有有效的APM支撑,并不占优势。
但无效操作太多会一直拖慢训练进度,为了加速开发,DeepMind团队改变了对APM的限制,允许出现高爆发,Oriol Vinyals在Reddit的AMA中也提到了这一点:
5秒的时间段内APM最大为600,15秒内APM为400,30秒时间内为320,60秒内为300。如果AI在此期间内执行了更多操作,系统会选择删除/忽略操作。
乍一看DeepMind对星际2的AI的设置合情合理,但如果细想前面讨论过的人类的爆发速度及操作精确度与点击间隔时间,又不是那么回事。
举个人类无效操作的最典型例子:想指挥单位移动、攻击,就要用鼠标点击地图上某个位置,这时候,人类的点击速度会尽可能最快,这些点击中也就有很多是无效的。
AI也会跟着学到这些无效操作。
而人类的点击速度是有限的,所以AI一开始学到的操作速度也会受到同样的限制。而它后来表现出的超人手速和这个人类速度相比,之间差了很多额外的“自由”APM。AI可以在这些自由APM上随意实验。
在交战的时候,AI就会拿这些自由APM来实验,从中学会能得到更好成绩的新行为模式,舍弃原本的无效操作。
这对人类来说,似乎是非常不公平的事情。
既然AI学会了更有效的操作,为什么DeepMind没有重新启用推出SC2LE环境时的180 APM严格限制呢?
这可能是因为,AI偶尔还是会有无效操作出现,这会明显吃掉它的APM资源,在交战时伤害到它的表现。
在DeepMind给出的官方资料中还有一些疑点。
在APM统计中看出,虽然Mana的APM平均值更高,但AlphaStar的“长尾”远远高于人类,在这些情况下AI用人类无法企及的精确度完成任何操作足矣。
可以看到,TLO的APM甚至到了2000,这个数值高得似乎有些离谱,这种情况可能是通过加速键盘实现的,这也会带来无效操作。
但DeepMind并没有解释TLO的APM是怎么来的,但这样会让人误以为AlphaStar的操作是合理的。
最后需要说明的一点是,这篇文章只是Aleksi Pietikäinen的观点。
也有一些人认为,就算AlphaStar的APM爆发突破了人类范畴,但它带来的突破性进展及其背后的意义,也是毋庸置疑的。
你怎么看?欢迎在留言区跟我们互动。
— 完 —
诚挚招聘
量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。
量子位 QbitAI · 头条号签约作者
վ'ᴗ' ի 追踪AI技术和产品新动态
重制前的预热!星际争霸更新1.18补丁PTR版本
查尔星港独家整理报道,转载请注明出处!
暴雪官方今日上线了《星际争霸》1.18补丁的PTR版本,玩家可以免费下载这款经典的即时战略游戏进行测试。本次补丁进行了多项改动,游戏语言并未支持中文。PTR版本还开放了天梯战网测试,1.18正式版本将于北美时间3月30日发布。
下载地址:折跃门(容量1.5G)
本次补丁并未支持中文
《星际争霸》1.18补丁改动:
UTF-8编码,除聊天窗口外支持中文输入:
新增热键修改:
战网布局(PTR版本暂时只有加利福尼亚的服务器):
观战模式,不需要OB地图即可OB:
窗口模式:
游戏时间显示板与apm显示板:
除以上较大改动外,1.18补丁支持调整鼠标灵敏度,支持垂直同步与帧数锁定,添加自动保存录像。游戏还更新了一个新的OpenGL后端,提升反作弊能力与安装补丁性能。最后,新补丁还改善了与Windows 7、8.1和10的兼容性。
是时候提高APM了 D.Va即将加入星际争霸2
D.Va即将加入《星际争霸II》,是时候提高APM了!
D.Va将加入《星际争霸II》作为语音播报员,她也是首位不属于星际世界而加入这款游戏的人物。D.Va的语音和头像将加入2016年暴雪嘉年华的虚拟门票奖品,D.Va本人也将出席本届嘉年华。玩家们可以在现场听到全新的D.Va语音,比如“你的基地正遭到攻击”等等。
虽然《守望先锋》和《星际争霸II》的世界没有明显的交集,但是D.Va在游戏中的背景设定就是星际高手。
二十年前,韩国遭到一台从东海出现的巨型机甲怪兽的攻击。这台怪物在被击退前对多个沿海城市造成了毁灭性的破坏。为了应对这一威胁,韩国政府部署了一支机械化无人机部队“MEKA”,用以应对未来的智能机械威胁、保卫城市。
随着一系列袭击事件的不断发生,韩国政府最担心的事情还是发生了。每过几年,那台巨型机械怪兽就会从海中出现袭击韩国和邻国。这台智能机械可以从每一次的遭遇战中学习,使用新武器和能力并且以不同形态出现。尽管韩国每次都能成功将其击退,但这台智能机械并未被彻底摧毁。
随着智能机械不断进化,它最终干扰了MEKA的无人机控制网络,迫使军方派驾驶员驾驶这些机甲。由于难以找到合适的候选人,政府开始向那些拥有足以操控机甲尖端武器系统的必要反应和本能的国内职业玩家寻求帮助,其中就包括顶尖玩家之一的“D.Va”宋哈娜。作为一名为了获胜不惜一切代价的精英玩家,D.Va从来都不会对对手表现出丝毫的仁慈。
D.Va将这次新任务视为一款全新的游戏,无所畏惧地和其他MEKA机甲冲向战场,随时准备保卫自己的国家。
星际2玩家们,你们很快就会在天梯上为DeepMind的论文做贡献了
雷锋网 AI 科技评论按:昨晚,暴雪联合 DeepMind 发出一则新闻,DeepMind 开发的星际 2 AI「AlphaStar」很快就会出现在星际 2 欧洲服务器上的 1v1 天梯比赛中。人类玩家们不仅会有机会匹配到它们、和它们展开标准的比赛,比赛结果也会像正常比赛一样影响自己的天梯分数。
在星际 2 上做科研实验
正如人尽皆知的围棋 AI AlphaGo,DeepMind 喜欢的强化学习 AI 研究过程是在某个比赛(博弈)环境中进行技术探索,在新技术的辅助下让智能体从历史数据中学习、从自我博弈中学习,然后与人类高手比赛,评估 AI 的水准。樊麾、李世石、柯洁都光荣地成为了「人工智能测试高级工程师」。
在此次星际 2 AI「AlphaStar」的研究过程中,DeepMind 继续沿用这个思路,但这次他们更大胆一点,让大批不同水准的普通玩家参与到 AI 表现的评估中来,最终的比赛结果会写到论述星际 2 AI 科研项目的论文里,向期刊投稿。这就是暴雪和 DeepMind 联手把 AI 送上天梯比赛的最重要原因。
进入星际 2 游戏,在 1v1 比赛设置了允许接入 DeepMind(DeepMind opt-in)之后,参加 1v1 天梯比赛的玩家们就可能会遇到 AlphaStar。为了控制所有的比赛都尽量接近正常的人类 1v1 天梯比赛,以及减小不同比赛之间的差异,AlphaStar 会随机匹配到一部分玩家的天梯比赛中,并且 AI 会在游戏保持匿名,匹配到的玩家和星际 2 后台都无法知道哪些比赛是有 AlphaStar 参与的。不过,设置了允许接入 AI 之后,相信玩家们立即就会开始对匹配到 AI 对手产生期待,而且在比赛开始之后也可能很快就会发现自己的对手有一些不寻常之处。
一月的比赛中,AlphaStar 会建造大量工人,快速建立资源优势(超过人类职业选手的 16 个或 18 个的上限)
一月的比赛中,AlphaStar 控制的两个追猎者黑血极限逃生
今年一月时 AlphaStar 就曾与人类职业选手比赛并取得了全胜。相比于当时的版本,此次更大规模测试的 AlphaStar 版本进行了一些改动,其中一些改动明显对人类有利:
一月的版本可以直接读取地图上所有的可见内容,不需要用操作切换视角,这次需要自己控制视角,和人类一样只能观察到视野内的单位,也只能在视野内移动单位;
一月的版本仅使用了神族,这次 AlphaStar 会使用人族、虫族、神族全部三个种族;
一月的版本在操作方面没有明确的性能限制,这次,在与人类职业选手共同商议后,对 AlphaStar 的平均每秒操作数、平均每分钟操作数(APM)、瞬时最高 APM 等一些方面都做了更严格的限制,减少操作方面相比人类的优势。
参与测试的 AlphaStar 都是从人类比赛 replay 和自我比赛中学习的,没有从与人类的对局中学习,同时 AlphaStar 的表现会在整个测试期间保持不变,不进行训练学习;这样得到的测试结果能直接反应 DeepMind 目前的技术水准到达了怎么样的水平。另一方面,作为 AlphaStar 技术方案的一大亮点,参与测试的 AlphaStar 也会是 AlphaStar 种群(AlphaStar league,详见下文)中的多个不同个体,匹配到的不同 AlphaStar 个体可能会有迥异的游戏表现。
AlphaStar 技术特点
在今年一月 DeepMind 首次公开 AlphaStar 与人类职业选手的比赛结果时,雷锋网 AI 科技评论就结合 DeepMind 官方博客对 AlphaStar 的技术特点进行了报道。这里我们再把 AlphaStar 的技术特点总结如下:
模型结构 - AlphaStar 使用的是一个长序列建模模型,模型从游戏接口接收的数据是单位列表和这些单位的属性,经过神经网络计算后输出在游戏中执行的指令。这个神经网络的基础是 Transformer 网络,并且结合了一个深度 LSTM 网络核心、一个带有指针网络的自动回归策略头,以及一个中心化的评分基准。
AlphaStar league 中的个体形成了明显的策略分布
训练策略 - AlphaStar 首先根据高水平人类比赛进行监督学习训练(模仿学习),然后进行自我对弈。自我对弈的过程中使用了群体强化学习的思路:AlphaStar 自我对弈过程中始终都同时记录、更新多个不同版本的网络,保持一个群体,称作 AlphaStar league;AlphaStar league 中不同的网络具有不同的对战策略、学习目标等等,维持了群体的多样性,整个群体的对弈学习保证了持续稳定的表现提升,而且很新的版本也不会「忘记」如何击败很早的版本。
训练结果输出 - 当需要输出一个网络作为最终的训练结果时,以 AlphaStar league 中的纳什分布进行采样,可以得到已经发现的多种策略的综合最优解。
算力需求 - 为了支持大批不同版本 AlphaStar 智能体的对战与更新,DeepMind 专门构建了一个大规模可拓展的分布式训练环境,其中使用了最新的谷歌 TPUv3。AlphaStar league 的自我对战训练过程用了 14 天,每个 AlphaStar 智能体使用了 16 个 TPU,最终相当于每个智能体都有长达 200 年的游戏时间。训练结束后的模型在单块消费级 GPU 上就可以运行。
操作统计 - 在今年一月的版本中,AlphaStar 的平均 APM 为 280,峰值 APM 超过 1000,计算延时平均为 350 毫秒;切换关注区域的速度大约是每分钟 30 次。
此次在 AlphaStar 中测试的大行动空间下的长序列建模,以及群体强化学习的训练策略,都是对提升强化学习算法表现上限、应对复杂环境长期任务的积极技术探索。我们期待早日看到 DeepMind 的这篇论文成文,更早日看到基于强化学习的决策系统整个领域都发展得更成熟。当然了,喜欢星际 2 的读者,可以准备起来,为 DeepMind 的这篇论文贡献自己的一分力量吧!
雷锋网 AI 科技评论报道。