人大经济论坛

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
热搜: 活动 交友 discuz
查看: 1257|回复: 9

【问题讨论】如何看待2017年初Master大胜各路围棋高手?

[复制链接]
发表于 2017-1-5 09:27:54 | 显示全部楼层 |阅读模式
讨论范围包括但不限于:
1 AI发展的展望;
2 Machine Learning技术探讨;
3 Machine Learning在经济学研究中的应用;
......
发表于 2017-1-5 09:32:09 | 显示全部楼层
昨天晚上的消息,Master就是AlphaGo的改进版。但是它仍然不是AI,因为它自己没有办法编写程序战胜对方。
 楼主| 发表于 2017-1-5 09:37:16 | 显示全部楼层
本帖最后由 OER 于 2017-1-5 09:49 编辑

ML在经济学中的应用越来越多了。2015年的RFS有一篇文章,讲的是比较人和机器在进行多期有资源约束和风险不确定(即事前不知道风险,需要学习)时的投资决策的绩效。结论很令人惊讶,被试的绩效比使用绩效最高算法的机器的绩效还要高。
发表于 2017-1-5 09:41:35 | 显示全部楼层
machine learning这个领域我正好也在关注。经济学我倒是没有看到很多应用的,但是社会学做的热火朝天呢。Computational Social Science, Computational Sociology这些分支都已经初具规模了。现在我看到做的比较多的,还是放个大数据进计量模型,agent-based modelling也有人在研究,不过目前还属于非常非主流的一小撮人。
发表于 2017-1-5 09:43:03 | 显示全部楼层
所以说做研究不容易啊!刚把数学统计学学了个大概,现在又突然冒出个计算机,果然是要有三头六臂才配说自己是搞研究的。
 楼主| 发表于 2017-1-5 09:47:56 | 显示全部楼层
arcsin 发表于 2017-1-5 09:41
machine learning这个领域我正好也在关注。经济学我倒是没有看到很多应用的,但是社会学做的热火朝天呢。Co ...

社会学的这些研究跟social network更接近吧?machine learning能在这里干什么?
发表于 2017-1-5 11:34:42 | 显示全部楼层
OER 发表于 2017-1-5 09:47
社会学的这些研究跟social network更接近吧?machine learning能在这里干什么?

nonono 你可以关注一下Stanford的社会学,最近有几个教授已经开始开暑期课程给大家科普machine learning了  
 楼主| 发表于 2017-1-5 12:34:16 | 显示全部楼层
arcsin 发表于 2017-1-5 11:34
nonono 你可以关注一下Stanford的社会学,最近有几个教授已经开始开暑期课程给大家科普machine learning ...

嗯,好的,谢谢!
发表于 2017-1-6 12:27:06 | 显示全部楼层
转自知乎的类似问题的答案,回答者 应文。

作者:应文
链接:https://www.zhihu.com/question/54370341/answer/139177091
来源:知乎
著作权归作者所有,转载请联系作者获得授权。

个人小时候学过一点围棋,对现在卷积神经网络、蒙特卡罗树和增强学习也有点粗浅认识,过来试答一下。

目前Master背后是什么还不知道,其行棋风格来看和AlphaGo是类似的,可能是纯机器也可能有人在旁边偶尔纠偏,至少可以肯定其主力是人工智能,而且也极有可能是基于深度神经网络的人工智能。因此后文主要基于AlphaGo的机理来谈。

自16年AlphaGo 4:1 李世石之后,很多人都认为人工智能在围棋项目上的突破式进步对人类围棋是件好事,寄希望于人能通过学习人工智能来提高棋力,刚看了聂老做客腾讯直播,同样谈到这个问题。但如果有了解一点AlphaGo原理的人,很容易想到其实这对人来说有多困难。

首先,对机器来说,赢棋是目的,而下棋只是达到目的的手段。至于赢多少是不在考虑范围内的。因此我们会发现,越是均势甚至劣势,阿法狗越能下出神来之笔。反而是收官和优势的时候下的感觉一般,说明机器觉得往哪走赢的几率都很大所以会表现出一种胡乱走的样子。遇到这种情况对手基本已经离胜利很远了……

阿法狗是怎么下棋的呢?这个问题很多人在各种地方应该也都有谈过。简单讲,阿法狗不会下棋,它只会看图。而围棋可以看成是有三种颜色(黑色、白色和空)的19*19个像素点的图片。每次阿法狗下棋,分解一下就是:1看当前的图;2随便走几步;3对每种随便走之后的棋局进行评估,看是赢还是输;4统计一下往哪走最后的胜率更高,往胜率最高的地方下棋。

先说2,2的背后是蒙特卡洛树搜索算法。简单说就是,我就随便走棋,每次也不多走,比方说走个5步吧,然后用3看看这样走对我有利还是不利,之后再换5步着走走。每次走几步对机器来说是很快的,1秒钟的时间机器就可以尝试大量的走法。重要的是,这样算法可以根据设备数量和时间长短自由调节走的步数,给的计算资源越多,给的时间越多,机器的行棋准确率都会增加。而且这个算法有个特点,如果给的计算资源和时间够多,它会倾向于往两种地方走棋:1)之前没试过的地方;2)之前试过而且用3判断发现这样走赢的概率较高的地方。其中2)和人类棋手所谓的计算是类似的,不过计算能力要远超过人,而1)使得机器能尝试人类想不到的棋。

再说3,3的背后是卷积神经网络算法,以及大量的对弈棋谱和结果数据。算法首先要训练,之后才能用。训练过程类似与人在学棋时的打谱练习,只不过机器训练的时候更简单,但数据量更大。简单指的是,机器只在乎当前的棋局(图片)最后是谁赢的。AlphaGo在前期已经收集了所有可能收集到的棋谱,还是不够就靠自己和自己下棋,创造棋谱。当然开始的时候下的棋水平肯定很低,但就像一个勤奋的笨小孩,每秒钟都在大量的下棋,记录输赢。数据足够之后,统统扔到卷积神经网络里。给卷积神经网络喂足够多的数据进行训练之后,再拿到新的棋局(图片)让网络判断谁能赢的时候,准确性就会大得多。这和人学棋是一样的。提高棋力不是老师讲讲“这种情况要怎么走棋,记住就好”这么简单。打谱、复盘、实践在学棋中十分重要。每次下棋基本不会出现和之前一样的棋局,但打谱多了,会有一种叫“棋感”的东西告诉你,现在的局面是好是差。3训练的就是机器的棋感。但这点上机器比人的优势大太多了。它的学习可以靠堆计算资源,达到理论上无限的学习能力。关键是,虽然人家开始笨,但人家学得快啊。同时这也是为什么机器要时不时的和人类棋手过招,因为老是自己和自己下棋,有可能会自己学偏了。

最后说说1和4,我认为这是机器和人最大的不同之处。人类下棋(其实做什么事都一样)讲究的是逻辑性和连贯性。你前面下了一手靠,就说明你打算在局部开战了,因此后面几手棋很可能会围绕这一块发生战斗。但机器通过1和4结合,完全切断这一手与之前的联系,每一手都是基于当下的情况做出判断,找出一个能让自己赢棋可能性最大的点落子。因此我们会发现阿法狗(Master也一样)时常会有走一步棋就走别的的情况。这就是下棋的人经常会讲的“大局观”。我们通常会幻想着机器可能在大局观上不如人类,但事实却是,机器在大局观方面比人类棋手做的优秀太多了。人家无时无刻不在考虑大局,反而是人类棋手经常陷入到局部战斗无法自拔……

好吧,有点讲跑题了……总结一下,这一波以AlphaGo设计体系为代表的围棋机器人,和人类棋手一样,有计算能力,有棋感,还有大局观,而且这三方面都可以做到(事实上现在就已经做到了)比人类棋手强很多。这不算是什么新奇特了,毕竟机器超过人是早晚的事情。

人有没有可能通过学习机器的走法而提高棋力呢?我觉得可能吧,不过不期待有什么太好的效果。毕竟机器走出来的一些怪招是它经过比人类下棋打谱多得多的训练总结出来的招法,在某些情况下一定是好招。BUT……这些招法在什么情况下应该走,什么时候不适用?这些背后也是一堆数据,而人是不可能学的过来的。就像罗胖2016跨年演讲中举过的一个例子:人工智能医生通过阅读几千万页的资料,最后告诉你“应该吃片药对你好”,你说你找一人类医生问问该不该吃?他几辈子都看不过来这么多资料……怎么评价这个建议是不是该接受?

所以归根到底,人类只是败给了一个叫时间的玩意儿……一副肉身就能活100年,一副肉脑袋的运算速度又只有这么点儿……
 楼主| 发表于 2017-1-8 19:11:42 | 显示全部楼层
这么火的一个概念居然在论坛上没有人关注。。。。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关于我们|Archiver|手机版|小黑屋|人大经济论坛 ( 京ICP备05066828号-20 京公网安备 11040202430141号 )

GMT+8, 2019-12-12 02:36 , Processed in 0.046703 second(s), 26 queries .

Powered by Discuz! X3.4

© 2001-2017 Comsenz Inc.

快速回复 返回顶部 返回列表