关于 AlphaGo 论文的阅读笔记( 二 )


而 AlphaGo 固然体现出一定的大局观 , 但从具体算法看来 , 它在为了宏观优势做出局部牺牲这方面的能力和人类完全不能相提并论 。 AlphaGo 引入整体盘面评估确实是它胜于许多别的围棋 AI 的地方 , 但从根本上来说 , 这只是人们让 AI 具有「战略思维」的尝试的第一步 , 还有太多可以改进的可能性 。
最后 , 和很多别的围棋 AI 一样 , 当 AlphaGo 学习盘面判断的时候 , 采用的是图像处理的技术 , 也就是把围棋棋盘当做一张照片来对待 。 这当然在技术上是很自然的选择 , 但是围棋棋局究竟不是一般意义上的图案 , 它是否具有某些特质是常见的图像处理方法本身并不擅长处理的呢?
三、
【关于 AlphaGo 论文的阅读笔记】为什么要让人工智能去下围棋?有很多理由 。 但在我看来最重要的一个 , 是能够让我们更深入地理解智能这件事的本质 。
神经网络和机器学习在过去十年里跃进式的发展 , 确实让 AI 做到了许多之前只有人脑才能做到的事 。 但这并不意味着 AI 的思维方式接近了人类 。 而且吊诡的是 , AI 在计算能力上的巨大进步 , 反而掩盖了它在学习人类思维方式上的短板 。
以 AlphaGo 为例 。 和国际象棋中的深蓝系统相比 , AlphaGo 已经和人类接近了许多 。 深蓝仍然依赖于人类外部定义的价值函数 , 所以本质上只是个高效计算器 , 但 AlphaGo 的价值判断是自我习得的 , 这就有了人的影子 。 然而如前所述 , AlphaGo 的进步依赖于海量的自我对局数目 , 这当然是它的长处 , 但也恰好说明它并未真正掌握人类的学习能力 。 一个人类棋手一生至多下几千局棋 , 就能掌握 AlphaGo 在几百万局棋中所训练出的判断力 , 这足以说明 , 人类学习过程中还有某种本质是暂时还无法用当前的神经网络程序来刻画的 。
(顺便提一句 , 很多评论认为 AlphaGo 能够通过观察一个特定棋手的对局来了解他的棋风以做出相应的对策 。 至少从论文来看 , 这几乎确定是不可能的事 。 一个棋手的对局数对 AlphaGo 来说实在太少 , 无从对神经网络构成有效的训练 。 观察和总结一个人的「棋风」这件事仍然是人类具有完全优势的能力 , 对电脑来说 , 这恐怕比赢棋本身还更难一些 。 )
这当然不是说 , AlphaGo 应该试图去复刻一个人类棋手的大脑 。 但是 AlphaGo 的意义当然也不应该仅仅反映在它最终的棋力上 。 它是如何成长的?成长曲线具有什么规律?它的不同参数设置如何影响它的综合能力?这些不同参数是否就对应了不同的棋风和性格?如果有另一个不同但水平相当的 AI 和它反复对弈 , 它能否从对方身上「学到」和自我对弈不同的能力?对这些问题的研究和回答 , 恐怕比单纯观察它是否有朝一日能够超越人类要告诉我们多得多的知识 。
因此 , 即使 AlphaGo 在三月份战胜了李世乭 , 在我看来也是另一扇大门的开启而非关闭 。 事实上 , 即使就围棋发展本身而论 , 如果把 AlphaGo 的两个大脑以如此简单的方式线性耦合起来就能胜过人类 , 那只能说明人们对围棋的规律还有太多值得探索的空间 。
而对人工智能领域来说 , AlphaGo 和一切神经网络一样 , 本质上还只是个大黑盒 , 我们能观察到它表现出的巨大能力 , 但对它究竟是如何「思考」的这件事依然所知甚少 。 在工程上 , 这是个伟大的胜利 。 在科学上 , 这只是万里长征的第一步而已 。
—版权声明—
来源:Imaginary , 编辑:nhyilin
仅用于学术分享 , 版权属于原作者 。
若有侵权 , 请联系微信号:Eternalhui或nhyilin删除或修改!

特别声明:本站内容均来自网友提供或互联网,仅供参考,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。