阿尔法围棋(AlphaGoZero跟完美的围棋之神有多大差
你好,很高兴回答你这个问题!
个人认为阿尔法狗就是围棋之神。他的能力是人类无所匹及的。如果是人,他就不可能完美。
阿尔法狗旧版算法原理
Alphago的原理并非基于穷举,而是基于两个神经网络所一起作用作出的决策。神经网络如果简单来看,可以算作是人类对于神经系统的一种模拟。定义好神经元的数量和层级,初始化权重和偏移,并通过训练数据对其进行训练。即观察它的输出和预期结果之间的差异,并改进网络本身的参数等。之后神经网络就可以提高自己在解决问题时的表现。
这很类似人类神经系统能够从不断输入的外界数据和反馈中提高自己的表现,比如学会手握住东西、学会走路、学会说话一样。Alphago采用两个神经网络、一个叫作价值网络,另一个是策略网络。两个网络共同决定了它的决策。而它最初的设计。而它最初的训练数据,则是人类对局中海量的围棋棋谱。Alphago通过学习棋谱到达比较高的水平,之后在进行自我对弈。并用3000万盘自我对弈棋谱来进行训练,就如同一个可以左右互搏的大师,上下数千万局不会疲劳,并最终获得了提升。而人类终其一生也就数千盘棋,是无法望其相背的。
阿尔法围棋系统主要由几个部分组成为
策略网络(Policy Netork),给定当前局面,预测并采样下一步的走棋;
快速走子(Fast rollout),目标和策略网络一样,但在适当牺牲走棋质量的条件下,速度要比策略网络快1000倍;
价值网络(Value Netork),给定当前局面,估计是白胜概率大还是黑胜概率大;
蒙特卡洛树搜索(Monte Carlo Tree Search)。
把以上这三个部分连起来,形成一个完整的系统。
不过这件事,并没有走向终点。因为就算是战胜了所有人类选手。Alphago最早仍然是基于人类对于围棋的理解而训练。也就是说人类其实用之前所积累的智慧给了Alphago关键性的智慧。
阿尔法狗新版算法原
很快,AlphaGo Zero来了,在2017年10月19这天,Alphago zero发布了,他融合了价值网络和策略网络。只所以叫zero,因为这是一个从零开始的人工智能。它不需要任何人类棋谱的输入,完全靠自我对弈进行训练。而且因为算法的优化,它的效率高得惊人。
最早的时候,它就如同一个普通的围棋初学者,比如在3小时的时候几乎是乱下,十几个小时后,他就学会了一些简单的招式。随后就学会了更多的围棋知识。而经过72小时的训练,这个不需要人格化人类棋谱输入的AI,经过大约500万局对局。已经达到饿了击败李现石Alphago的程度,也就是达到了人类最顶级高手的程度。也就是说,人类数千年的围棋知识,人工智能3天已经走过了。40天的训练后,Alphago zero已经可以完全战胜对战柯洁的Alphago master。也就是接近无人望其项背的围棋之神。这个版本的zero对初版的对初版的对局是100:0胜,对柯洁版的比分是89:11胜,令人赞叹不已。
AlphaGoZero使用新的强化学习方法,让自己变成了老师。系统一开始甚至并不知道什么是围棋,只是从单一神经网络开始,通过神经网络强大的搜索算法,进行了自我对弈。随着自我博弈的增加,神经网络逐渐调整,提升预测下一步的能力,最终赢得比赛。更为厉害的是,随着训练的深入,阿尔法围棋团队发现,AlphaGoZero还独立发现了游戏规则,并走出了新策略,为围棋这项古老游戏带来了新的见解。
AlphaGoZero并不使用快速、随机的走子方法。在此前的版本中,AlphaGo用的是快速走子方法,来预测哪个玩家会从当前的局面中赢得比赛。相反,新版本依靠地是其高质量的神经网络来评估下棋的局势。
无论人类有多勤奋!跟机器比起来不值一提。
无论人类有多聪明。始终打败不了机器的勤奋!
无论人类有多完美。他还是有无数瑕疵的。
机器永远会保持完美,聪明,勤奋!