随着科技的发展与现代化,机器人极有可能代替人类的大脑和思维,去完成一些事情,这不,智能围棋手机器人阿尔法竟然战胜了人类,下面来跟小编看下吧。
阿尔法围棋(AlphaGo)是一款围棋人工智能程序,由位于英国伦敦的谷歌(Google)旗下DeepMind公司的戴维·西尔弗、艾佳·黄和戴密斯·哈萨比斯与他们的团队开发,这个程序利用“价值网络”去计算局面,用“策略网络”去选择下子。2015年10月阿尔法围棋以5:0完胜欧洲围棋冠军、职业二段选手樊麾;2016年3月对战世界围棋冠军、职业九段选手李世石。
为什么alphago 这么厉害,从目前来看alphago确实有几分实力,但是人工智能也毕竟是工程师设计的,终究还是人类的作品。不过要谈过alphago为什么这么厉害,此次推出的alphago,将高级搜索树与深度学习算法结合在一起,甚至能够让机器做到“左右互搏”实现自我学习。在较短的时间内变得越来越聪明,量变必然会引起质变,而量变正是计算机最容易实现和最擅长的东西。
AlphaGo是怎样模拟人类“思考”的
1、AlphaGo棋力如何
在围棋人工智能程序方面,除了开源程序Pachi和Fuego,还有**的Zen、韩国的DolBaram和法国的CrazyStone。按照以往的战绩来看,AlphaGo和Crazy Stone、Zen的战绩为495战,494胜,而且在让四子的情况下(让对方先下四个子),与Crazy Stone、Zen的胜利为77%和86%。虽然还没有AlphaGo与韩国DolBaram交手的具体战绩,但这并不妨碍AlphaGo成为现阶段顶尖水*围棋人工智能程序。
职业棋手的段位是根据比赛成绩来确定的——根据胜、负、和的成绩计算积分,按照积分高低将棋手分为1-9段,而且段位会根据棋手在一定时间内的比赛成绩而上升或下降。根据2014年12月31日公布的**围棋职业棋手等级分排名,在让4子和5子的情况下战胜DolBaram的**棋手(七段)连笑排名为第12位,而作为棋坛宿将的李世石(九段)的棋力则更胜一筹。
被AlphaGo击败的**职业二段棋手樊麾,在棋力上与即将和AlphaGo交手的李世石,以及战胜DolBaram的连笑有着非常大的差距,但毕竟具备职业棋手的基本素质和水*。就现今的战绩来看,AlphaGo基本具备不低于职业初段棋手的棋力。
如果AlphaGo的棋力与韩国DolBaram的水*相当,或仅仅是略优于DolBaram,那显然是无法战胜李世石的。若是AlphaGo具备能在让6子的情况下战胜DolBaram的棋力,那么和李世石的比赛就有可能存在一定悬念了。笔者在此斗胆做一个推测,也许在将来AlphaGo能与李世石一较高下,但就现阶段而言,AlphaGo战胜李世石的可能性并不高。
2、AlphaGo获胜的秘诀何在
在国际象棋上,因为王、后、车、相、马、兵的重要性不一样,程序员可以对不同的子设定不同的分值,比如王10分,后8分.....让计算机以判定分值的高低来指导计算机计算和落子。但围棋的棋子没有大小之分,使得计算机很难做出取舍,只能以穷举法的方式进行计算。而围棋的另一个特点是非常复杂——下棋时可能会遭遇3^361 种变化,在过去计算机性能相对有限的情况下,又没有一个良好的算法进行辅助,使用穷举法计算自然导致人工智能虽然在国际象棋上战胜了卡斯帕罗夫,但在围棋领域一直处于业余棋手的棋力水*。
AlphaGo战胜樊麾的秘诀在于神经网络系统、蒙特卡洛算法和深度学习。
神经网络系统是以人类大脑为原型的信息处理模式,使神经网络可以根据特定的输入产生特定输出,并实现图片识别、语音识别等功能。谷歌做了两个神经网络,一个神经网络用于动态评估——计算对手下一步棋落子的各自可能性,依靠计算机远远超过棋手的计算能力,在某种程度上会占据一定优势。另一个神经网络用于静态评估——评估棋局交战双方总体态势。 因为围棋的各个棋子很难用数值进行打分量化,也不存在精确描述棋局的“围棋定律”,使得计算机在静态评估方面,单纯的高计算能力未必会强于职业棋手“棋感”之类的抽象思维。
此外,谷歌还输入了海量棋手对弈的棋谱,并让AlphaGo以棋谱的数据为基础进行了3千万局自我对局,充分丰富了数据库,并将预测对手下一步棋落子的准确率提升到57%。 在下棋的过程中,辅以蒙特卡洛算法——通用性的围棋盘面静态评估函数曾经是围棋人工智能的瓶颈,在引入蒙特卡洛算法后则很大程度上解决了这个问题。蒙特卡洛算法构造了一个随机的过程,并对过程采用进行统计评估,从而得出一个最优的解法。
简单的说,蒙特卡罗算法对计算进行了筛选,对数据库中低胜率的选择直接抛弃,放弃了穷举法中那些大量消耗计算资源,但却没有意义的计算。明确了计算的主攻方向,使其对具有高胜率的选择有更加精确的计算和分析。特别是在选择策略中加入更多和围棋相关的专业知识,使得基于蒙特卡洛树搜索的围棋弈棋系统水*拥有和职业其较量的能力。
3、AlphaGo并非只会复制人类棋手的招数
有一种观点人为,只要下AlphaGo棋谱中所未记载的招数就能获胜,哪怕这些下法根本不符合围棋棋理。但笔者认为,这种做法的可行性并不高。
AlphaGo并非是对人类棋手弈棋棋谱记忆后的简单再现,而是具备了一定模拟人类神经网络的“思考”能力,既不是像过去那样采用穷举法寻找最有选项,也不是复制棋谱中所记载的定势或手筋。而是会对选择进行“思考”,删除那些胜率低的选择,并对具有高胜率的选项进行深度“思考”,最终从无数个落子的选择中基于自己的“思考”选择一个最优项。 因此,若是人类棋手想凭借下几步不符合围棋棋理,或未被棋谱记载的围棋下法,就轻而易举战胜AlphaGo的可能性并不高。因为AlphaGo是人工智能,而不是一台只会复制人类棋手招数的机器。
AlphaGo依靠精确的专家评估系统(value network)、基于海量数据的深度神经网络(policy network),及传统的人工智能方法蒙特卡洛树搜索的组合,已经至少达到了与标准业余6段棋手,或**职业棋手等级分200位之后的棋手实力相当的地步,如果有人类顶尖棋手长期陪伴AlphaGo对弈,AlphaGo的棋力还会进一步提高。
因此,AlphaGo已经不再是可以依靠程序漏洞就可以战胜的围棋程序,正如连笑在让6子的情况下负于DolBaram的那场棋赛,在比赛中连笑被吃掉一条大龙。对此,连笑表示,“我知道那块棋要死,但是以为它看不出来,没想到它很快就下出来了,后面打劫的地方他也下得很好。”
4、展望人工智能
目前,限制人工智能发展的核心因素有两个:一是算法上还没有达到完善,人类对智能计算的过程理解不够,目前的算法依旧有很大的改进提升空间。二是计算机硬件瓶颈。虽然计算机技术在过去30年中突飞猛进,但目前的集成电路相对于人类大脑有千亿神经元,数百**突触构成的复杂网络,还是有着多个数量级差距。
但人工智能并非遥不可及,在很多方面已经有了非常广泛的应用,比如已经商用化,或已经走入寻常百姓家的语音识别,图像识别,自动翻译,广告推荐,数据挖掘等。
除了上述提到的理解外部输入感知智能。更高级的智能如推理想象决策涌现等被称为认知智能。谷歌围棋可能是认知智能方面的突破,相关的技术突破不仅仅限于围棋人工智能一隅,还可能会带来一系列的这方面的新技术和产品。使人工智能在影响着社会生产的同时,充分服务于人民生活。
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z