如果给吴老足够多的赛前训练棋熟悉,那我押吴老获胜,起码是过半胜率。如果只是穿越时空把他拉来直接比赛,那我觉得吴老很可能全败,表现比李世石更差,毕竟李世石水平的绝对高度早已超越吴老巅峰时的高度了。AlphaGo Master和AlphaGo Zero其实就不用多说了,吴老胜率应该接近于零。如果给出足够长的时间熟悉和学习,而程序的版本固定不再提高,那么吴老的胜率应该会慢慢提高,下多了之后赢个一两盘不是没可能。
阿尔法元(AlphaGo Zero)为什么能无师自通?
Master版的阿尔法狗,怎么说都应该算是人类的学生,只不过青出于蓝而胜于蓝,现在被“纯自学野路子版”的阿尔法元吊打,的确颇有点让人情何以堪的滋味。要解释为什么阿尔法元(AlphaGo Zero)能无师自通,那答案取决于两个因素:首先是围棋的本质,其次是算法。即围棋这类完全信息博弈并且胜负判断精确且规则明确的问题,在本质上可以不依赖前人的探索,而完全从零开始在足够巧妙的算法和硬件配合下,既能在短时间内到达相当的水平和高度。
这依赖的是首先可以进行自对弈,其次能从自对弈中提取分析胜败的相关因素和特征,并投入到下一轮自对弈中去进行检验。对比一下人类的自学能力所需要的前置条件:首先,得有一个合格的人脑,即一个大约由数百亿神经元组合连接而成的硬件系统,其次得有一个基本的初始输入,包括认字脱盲拥有基础阅读理解能力,这可以类比为人类的算法系统。
在这两者配合之下,至少部分人就拥有了不依赖老师,而自己学习新知识甚至开拓新领域的能力。而AlphaGoZero并非一无所有,它有两大神经网络架构,供它从每一局的自对弈中提取分析胜败的特征算法,即自我反省能力,自我总结能力,并且将这种反省和总结立即投入到下一局的实战中进行校验的能力。而之所以能只通过490万局自对弈就能胜过从前三千万局的成果,我想这主要是因为算法的改进,尤其是特征提取方面的改进造成的,要知道从前的AlpahGo的一些基础特征,比如虎口之类的认知靠的是外界输入设定的,这说明老版本的特征提取能力不强,当然在能够利用人类经验的情况下,许多棋型特征都可以作为先验知识输入,这样在初期显示出来的水平较高,但在后期则可能受制于这些权重较高的经验而误入歧途。
这就是为何阿尔法元的成功,证明了两件事。其一,围棋是可以完全从零开始进行AI化的游戏,其二,人类经验在一定程度上是有局限的,会限制AI在极高水平时候的提高和成长。但我们还是得看到,阿尔法元 vs Master版本时候,并未到达全胜,总还是给人类经验留下点颜面了。另外,看到阿尔法元的成长史,也颇为有趣,万丈高楼也得有个地基啊。
AlphaGo是如何下棋的,它真的能“理解”围棋吗?
【以AlphaGo为例扒一扒人工智能的“思想”】如果你想了解AI的能力,AlphaGo可以是个不错的开始的地方。那么,AlphaGo到底是如何下棋的,它真的能够看透对手的想法,真的理解围棋吗?我们先从围棋开始说起。围棋,就十秒钟围棋的规则很简单。玩家轮流在棋盘上放置白色或黑色的石头。如果一群石头被对手的石头包围,它就被捕获并移除。
用周围的棋子捕捉棋子。像白棋一样包围着大部分区域的其他棋子,就赢了:在比赛之后得分。黑色的左侧,右侧和顶部都有领地。白色的底部和左上角有领土。基本上就是这样。为了理解为什么这样一个简单的游戏几十年来一直困惑人工智能的研究,把围棋与国际象棋对比是有帮助的。几十年来,有人说只要能下棋,计算机就是聪明的。然后,在Alan Turing发表第一个象棋算法半个世纪之后,IBM(NYSE:IBM)Deep Blue超级计算机击败了世界冠军Gary Kasparov。
深蓝的成功令人印象深刻,但是IBM的算法与图灵1950年的计划基本相似。自从图灵(Turing)发表第一个国家象棋算法以来,深蓝(Deep Blue)的计算能力已经增加了三百万倍。一个小小的注意到的事实是:在深蓝击败世界上最伟大的棋手的同一年,最先进的GO只达到了体面的初学者的技术水平。为什么围棋是最好的测试场地?这是一种“不同的思维方式”。
深蓝是以蛮力击败卡斯帕罗夫:因为它记住了大量的游戏,它运用了战术和战略经验法则,并且它比卡斯帕罗夫(尽管几乎没有)使用优越的处理能力可以更深入地预测未来的移动可能性。但是电脑无法掌握灵活的处理能力。国际象棋的可能性受到8×8棋盘和规则的限制,这些规则定义了你可以在哪里移动特定棋子。相比之下,全尺寸的棋盘尺寸为19 x 19,你可以在任何地方使用围棋。