爱吱声

标题: 李喆:这两盘棋 没人会比李世石做得更... [打印本页]

作者: 燕庐敕    时间: 2016-3-11 15:00
标题: 李喆:这两盘棋 没人会比李世石做得更...

棋手们当年一股脑支持李世石,现在改腔调啦。

号称有哲学思考能力的李喆,称没人比李世石做的更好。

引言:  

  我不知道这篇文章要怎么开头。

  没有言语能够形容我现在的心情。

  19年前,围棋入门课,用十个棋子在中腹摆出两眼活棋。

  4年前,挥别围棋赛场,进了大学。

  怎么也想不到,在今天,竟然会为了一张棋谱,我哭了。

  哭得很开心。

  我不知道这世界上还有几人与我此时有同样的感受。或许有,绝不会多。

  我不奢求读到此文的人都能理解我在说什么。

  但是,我要把我看到的记下来。

  不是纪念,而是感激。

  我发现,在情绪中,我只能记录下我的情绪,却无法写出这情绪的由来。虽然我自认为清楚地知道它的由来。

  写一篇抒情的文章很容易,但没有什么太大的价值。我看到的东西,这似乎应该用“美”来表示的这种东西,难以抽象成语言将它描绘。于是,我只好等到情绪消退,从理性出发,试着把因果呈现。

  这样,会有更多人享受到这种美吗?

  我不知道。

  或许可以试试。

  深夜。终于可以动笔。

  2016年3月10日,AlphaGo对阵李世石,人机大战第二局。

  对于这盘棋,虽然分歧远小于上一盘,但职业棋手之间仍然有许多互不相同的看法。

  或许随着时间的前行,这些看法最终会汇流为一。但在今天,在故事发生的当下,面对经验以外的事情,人类观点的多元无法避免。我的观点同样也是这多元中的一元,正是人类思想的多元性丰富了我们的世界。

  在敲完上面这一串字之后,我原本准备神游到中午的状态,从头梳理一遍我的所见所思,将我看到的那无法用语言直接描述的感受的由来渐次呈现。

  然而,事实教育我们不要在写文章的时候刷微信微博新闻朋友圈……

  一个小时之后,我不得不再次改变写法。

  这两盘棋 ,没人会比李世石做得更好!

  是的,这就是我文章的标题。

  我知道我说服不了所有人。这样的标题也不是我一向的风格。

  但是,在铺天盖地的对李世石的质疑声中,我必须把我看到的讲出来。

  因为,我不相信这些质疑是出于恶意。我只能理解为有些我看到了的东西人们没有看到。每个人的认知体系不同,对待事物的态度也不尽相同,对此倒没什么好指责的。

  在小说《冰与火之歌》之中,有一场“黑水河之战”。守方的指挥者是一个侏儒,用尽了各种策略,最后亲上战场被割掉了鼻子,终于抵挡住了对方的进攻,拯救了那座城市。但在战争结束后,他被解除了职位,甚至成为阶下囚。他所做的一切,人们并没有看到。
《冰与火之歌》电影截图《冰与火之歌》电影截图

  没有关系,我把我看到的东西讲出来。

  我只希望,读者能耐心看完这一章,再做判断。

  0、莫须有的“协议禁劫”

  这一节是本文最没有价值的部分,也是我最不想写的部分。谣言自破,本不需我来回应。但一方面我对谣言扩散到圈外而感到羞愧,另一方面也能帮助大家稍微理解AlphaGo的算法。

  关于“协议禁劫”的质疑大概来自“AlphaGo七盘棋都没出现劫争”这一说法。

  或许DeepMind会官方回应此事,或许在接下来的对局谣言自散。

  但不需要这些证明,难道我们就不能分辨了吗?

  由弱到强,我先给出三个回应。

  1,懂围棋的朋友,你真的相信李世石作为一名世界顶级棋士在代表人类出战的历史时刻会签这样的协议?不懂围棋的朋友,你真的相信谷歌团队会签这种改变围棋玩法的协议?

  2,AlphaGo的算法决定了他在不打劫就能获胜的条件下会尽量避免劫争,因为优势下的劫争增加了搜索的不确定性,常常会使他对胜率的估计降低。这也是我在上一篇里谈到的逃避劫争问题的本质。但是,非胜不可的劫,电脑必然会打。可逻辑推断或参考第3条。

  3,难道不能去看一眼去年10月AlphaGo对樊麾的棋谱吗?第三局、第五局,都出现了劫争。其中第三局马上消劫形成转换;第五局劫争过程持续18手,亦形成转换。

  在围棋受到空前关注的时刻,我认为圈内人有辟谣的义务,不助长谣言则是底线。

  1、AlphaGo算法的关键特点

  很多人说发现了AlghaGo的很多失误,不能理解这么弱的一个AI怎么能赢李世石,所以blablabla……

  如果你看过上一篇分析仍然这么认为,那可能是我没有讲清楚。绝大多数对AlphaGo实力的错误估计,都是因为对AlphaGo算法原理的不了解。

  强调一下:

  AlphaGo的算法决定其落子的决策基于“胜率”而不是“最优”!

  所有质疑AI失误的同学请记住这一点。

  这也是这篇文章整个分析的逻辑起点。

  这意味着,我们人类所谓的“失误”对于”AI“而言很可能不是失误。

  2、第一局李世石在做什么?

  第一局下完,有棋手提出”李世石心态不对,太过急躁,电脑计算力肯定强,应该慢慢下跟它拼形势判断,它的判断力肯定不行”。

  说得好。李世石第二局就是这么做的。

  只是,在第一局之前,几乎没有人认为李世石的乱战能力会不如电脑。

  在上一篇中,我谈到在赛前对AlphaGo算法的分析认为,它在面对“开放性复杂局面”的时候可能会变弱,因为深度学习加蒙特卡洛的剪枝和搜索在面对开放式复杂局面时可能会变得失效。

  第一局,李世石上来先试探了无谱布局(你说李世石没用什么策略?好吧),然后马上导入开放式复杂局面,呈现出六七块棋纵横交错的场景。

  结果,第一策略失败。起码下到中盘收兵为止,赛后职业棋手基本上都认为李世石亏损。

  如果是我在场上,或许也会在第一盘选择这样的第一策略,但我只会考虑一盘棋试一个策略,毕竟有五盘棋的空间。

  然而,李世石在中盘及时收手,第77、79手主动停战转向收空,导入细棋局面。

  他在第一盘竟然试探了两个策略!

  那么,你可能会问,如果李世石原本形势不利,怎么能导向细棋甚至反而领先呢?那不是说明AI出现了足以颠倒胜负的错误吗?

  在昨天,对此问题我还不能完全肯定地回答,但在今天我可以确认:

  第一局所谓李世石的领先和细棋都是人类经验带来的错觉!从开局战斗到最后结束,一直是AlphaGo优势!

  这一判断也符合AlphaGo自己的胜率走势。

  在上一篇,我提出AlphaGo对局面的判断是基于一手对方没有算到的严厉手段(102),我们认为它在左上的缓手(80)和左下的恶手(86),确实并不肯定好,但在AI看来却是最接近胜利的选择。观战棋手认为左下之后黑棋已经逆转甚至大胜,是由于

  1) “左下白棋大亏”

  2)对第102手没有充分的准备。

  3)人类的傲慢自负。

  然而,

  1)是一个依靠经验的局部判断,并不具有能构成证明的准确性;

  2)AlphaGo的局面判断基于有102这一手;

  3)人类的情绪降低了判断能力。

  102手一出,李世石长考无果,局部大亏。然而,这个大亏根本就在AlphaGo的判断之中,对它而言,这只是搜索树中可能出现的一个分支。

  至于很多人认为后面黑右下走好还能收——确实是能收,但恐怕不能赢了。当然,跟我下或许你能赢,但对AlphaGo不行,这是从AlphaGo的算法和下法的逻辑推出来的。当然,这个结论的得出依赖于AlphaGo在对阵人类时这套方法不会出现问题。基于这两天它这套方法在对人类时还没有出现任何问题(关于失误问题请看上一章或上一篇),我只能极大程度地相信它。这个信念只有在AlphaGo这套方法在对阵人类出现问题而败北时才会动摇,才会需要去寻找它的问题在哪里,以及人类能够怎么去利用。

  有趣或者说可怕的是,对于人类而言无比闪耀的”胜负手”102,包含了如此多的计算、判断和预谋,对于AI而言却只是它这一局平凡的93手棋中平凡的一手。

  这样的话,李世石的第二策略起到什么作用了呢?

  非常大的作用。对于第一局的80和86手,我们在经验上认为它们可能是不好的棋,但无法严格证明。但对于后面的136手和142手,我们可以严格证明它们肯定劣于另一个选点。这使我们确认了AI的一个弱点,即“缺乏逻辑能力”(见上一篇)。如果再补充一条,可以认为“缺乏局部封闭搜索能力”(这一条是否算弱点可讨论)。

  因为逻辑能力的缺乏,导致AI有时会出现人类看来明显的失误。

  但我们认为的不可理解的失误,只是在它看来不会降低胜率的选择。确实,我们可以指出他的一些基于逻辑的可证明的局部亏损,比如无谓的绝对先手交换,比如目数的白白亏损。在对第一盘的总结中,我认为这可能会是电脑的一个弱点(对AI而言不是失误),即“缺乏逻辑”而导致的局部小损,而这可能是人类仅有的两个突破口之一。AI在优势时会在局部有所退让以确保胜利,在均势时如果也退让岂不是人类就有了领先机会?因此我提出:

  1,我最期待的策略是,李世石按照人类研究很深的套路开局,因为AI并不会背套路。即使不能凭此占优势,也要尽可能保持局面的均势。在这个条件下,AI或许会在一些简单的局部因逻辑缺失而有所亏损,人类牢牢把握住这些微小的利益,最终取得小胜。不过,这似乎并不是李世石常用的风格。

  这是第一局之后我分析认为针对电脑弱点的最优策略。

  3

  第二局李世石在做什么?

  如果是你,在第一局的下法失败之后,第二局你会怎么下?

  我的想法是,通过第一局我意识到AI的强大可能超乎之前的想象,在我认为他最可能失败的地方他居然成功了,但好在我也看到了他可能的弱点。我根据它最可能的弱点制定了一套新的策略,然后严格按照这一策略执行。

  这是因为,我发现可针对AI弱点执行的策略并不多,而第一局我使用两个策略失败了。我可能需要更专注于一个策略的执行,毕竟后面还有三盘的空间。这是我在第一局后会做出的决定。

  或许有人会问:”瞧你说得这么玄乎,你又不是李世石,他又没说,你怎么证其有?”

  是的,我不能证其有。即使他说了也不能完全证其有。我只是用棋谱信息加上AI算法来做的合理推测。当然,李世石有可能并没有制定什么第几策略。如果是这样的话,他就太天才了——别人用知识和推理达到的方案,他仅凭意识就做到了。

  前面说了这么多,总还得用棋谱说话嘛。那么让我们看看第二局到底发生了什么。

  我个人认为,对于这一局,传统的棋评解说意义已经不大了。
先看第13手。右下先虎之后脱先中国流,这又是“职业棋谱中从未出现过的布局”。看到这一步,李世石站起来,出去抽了根烟。  先看第13手。右下先虎之后脱先中国流,这又是“职业棋谱中从未出现过的布局”。看到这一步,李世石站起来,出去抽了根烟。

  下面请允许我趁李世石出去抽烟时暂时代入他来思考。(画风突变如有不适请勿见怪)。

  此局我下决心执行一个策略,这个策略是针对AI弱点的攻击。这个策略简单说是:”熟练开局,争优保平。细微局面,等待失误。“(原因在前面讲得很清楚了)

  于是我开局选择了最普通的布局应对。白方这一布局在历史上经久不衰,没有千局也有几百局实战了(感兴趣可以去搜一下)。经过昨天试探,AI不会背谱,人类整体的经验很可能是最有力的,我要尽可能导入到熟悉的套路中。

  下到12手,我心里还有一点兴奋:这个布局我是见得多了,白棋总是不亏的。

  然后,看到对方落下黑13。

  纳尼?

  定式不下完?

  这还能脱先?

  我勒个去,AI你不会是知道我在想什么,跟我玩心理战吧?

  啥时候通过图灵测试的?

  好吧让我想想。你定式不下玩就脱先我得制裁你啊,夹击如何?
我拆1,你拆2,我攻3,你抢4……这棋失控了啊,这局面没人下过啊?我拆1,你拆2,我攻3,你抢4……这棋失控了啊,这局面没人下过啊?

  我这棋好不好呢?下边会攻成什么样?是否足以抵消黑上边阵势?

  以下省略几十个脑海中飞速出现的变化图……

  判断不清,好像没啥把握。

  怎么办?策略就这么被破了?

  有了!我就当右下黑棋没交换虎那一下不就行了!

  咱谱着该走哪还走哪,机器你能怎么着?

  哈,我咋这么机智呢?

  AlphaGo你有我这么机智吗?

  一盒烟正好抽完,李世石回到了座位上,落下第14手。
这是右下没有虎和拆一交换时最常见的下法,也不知有几百盘。而且这时黑棋虎白棋也多半会拆一。这是右下没有虎和拆一交换时最常见的下法,也不知有几百盘。而且这时黑棋虎白棋也多半会拆一。

  好了,这个小故事告一段落。我并不是说这就一定是李世石的心理过程,而是说,如果是我,我会这么做。

  这盘棋技术上无与伦比的精彩我想留到第二部分再谈,那里有更加精彩的新世界,但在这里暂时先略过。

  再简单回应一下所有认为李世石后来84、146、172这三手棋没选择打劫有问题的观点。

  1)认为李世石不选择打劫是因为签了协议的人。

  您好,再见。

  2)认为李世石不选择打劫实在太怂了的人:

  如果你看完前面的分析还这么认为,那请回答:打劫能赢?

  当然,你可以说84托虎明显优于实战,146应该夹进去才能争胜,172不冲不足以平民愤……

  那句话怎么说来着……你以为你以为的就是你以为的吗?(这句话用来看人和AI真是金句了)

  对AI来说,气势是什么?血性是什么?胜负感是什么?

  AI只看:胜率是什么。

  的确,我这不也是我以为的?

  好吧,请告诉我托虎做劫在当时为什么比实战好,后两处哪一处你认为会对胜负产生影响?给一个有效辩护吧,不要摆几步说个看不清就赢了。

  在我看来,这盘棋李世石完整地贯彻了他的策略。

  可惜的是仍然并未取胜。原本预计在熟练的布局套路下能在前半盘占优或持平,然后在后半盘等待AI因逻辑缺失而造成的局部小亏损。然而,在形势接近的情况下,电脑的局部“失误”变得比第一局更小、更难确认(比如15、117等先手不保留)。

  这可能是一件非常可怕的事情。它告诉我们,在形势接近的情况下,AI的“失误”也会变少,甚至消失(不被人发现)。AlphaGo形势越好,他的”失误”可能越多。我们基于这些”失误“对它进行棋力的判断,只会造成对它无止尽的误解。

  还是把上一篇文章的结语在这里引用一下:

  如果我们只用人类思考围棋的方式来理解AlphaGo,或许我们将永远都不知道是怎么输的。

  读到这里,相信大家对AlphaGo有了更直观的认识。

  或许有人会想到这一点:这么看来,AlphaGo岂不是遇强更强?

  的确是!

  它的目标只有赢,不求最优。

  在对手弱的情况下,它可能选择的类似胜算的点就更多。

  在对手强的情况下,它可能选择的类似胜算的点就更少。

  后者,意味着更精确,意味着在人类思维的意义上更少失误。

  那么,AlphaGo的极限在哪里?我不知道。

  但我认为AlphaGo饶天下一先是指日可待的事情。

  虽然我赛前和现在都无比希望李世石能获胜,因为人机相持的时间越长,可供围棋界反思的时间就越长。

  但是,理智告诉我,AI真的绝尘而去了。

  让我们回顾一下老罗的这段话:

  “人工智能就像一列火车,它临近时你听到了轰隆隆的声音,你在不断期待着它的到来。他终于到了,一闪而过,随后便远远地把你抛在身后。”

  围棋AI,是这段话最好的注脚。

  看完第二盘之后所有认为AlphaGo 只是后半盘强的人,如果你能理解前面提到的知识和逻辑,那你也应该能理解这一点:

  是李世石的强大逼出了AlphGo的后半盘。

  为什么第一盘AI的后半盘”失误“更多?因为”失误”时AI已经胜定。

  第二局赛后的采访中,Demis Hassabis表示程序中间一度认为形势接近(根据胜率显示),而李世石表示自己是完败。

  如果说第一局李世石输棋之后还有曾经领先的错觉,这一局他自己则完全没有了错觉。即使在棋界几乎公认为AlphaGo明显亏损的左下角定型之后,李世石都不觉得自己有过任何优势。正是这种正确(保守?)的认识加上前半盘相对熟练的格局,使得AlphaGo一度认为局势接近(很好奇AlphaGo有没有认为自己落后过)。这也激发出AlphaGo强劲的后半盘,在对阵世界顶尖棋士时,仅仅通过收官就将胜负差距扩大到盘面十多目。

  对于这件事情的夸张程度,棋手们能否正视?人类面对不能理解的事物,总是用固有的知识体系来理解。但是,新时代真的来了。

  4、李世石,直面AI的围棋英雄

  读到这里,我希望有一部分人能够理解在李世石和AlphaGo之间究竟发生了什么。

  这一节,我是对你们说的。

  从古至今,我们从来不知道在围棋技术的浩瀚空间里,人类到底站在了什么位置。是离天只有三尺远?还是仍然站在地平线?

  如果把穷尽看作天,把入门看作地,人类今天对围棋的认识究竟在什么层级?

  藤泽秀行先生曾说:”围棋,我只知百分之五”。相信包括我在内的绝大部分棋手,都曾认为这是谦辞。往正面解,是敬畏心;往负面解,不知是什么心。

  真的是谦辞吗?

  纵向看不清,横向比较一下总可以吧。其他有职业体系的棋类项目,变化比围棋少很多,未知的东西少很多,那么其职业选手是不是很可能相比我们在各自体系中站在更高的层级?

  可是,他们都早已接受了AI的层级在人类之上这一事实。

  诚然,在不短的时间里围棋是仅存的硕果,围棋选手看着用机器训练的同事们,发出”围棋永不会被机器打败”的豪言,似乎在捍卫着什么了不得的东西。

  并不是我想要戳破这种幻象,而是事实摆在眼前,不由你不信。

  国际象棋遭遇深蓝挑战时,人机之间还相持了一段时间。直到今天,在国象和象棋,虽然人不能战胜AI,守和还是可能的。一方面AI的技术层级可能并没有比人类高出太多,另一方面和棋的空间是一个很大的缓冲带。

  围棋呢?确实围棋更难于被AI攻破,可是一旦攻破,会有多少高出人类的空间?围棋AI离天还有多远?人类棋手离天又有多远?没人能给出准确的回答。

  如果没有围棋AI,我们将永远不知道自己在围棋的天地之间究竟处于什么位置。

  围棋AI是我们唯一的参照者。

  虽然在围棋被穷尽之前我们仍然不能准确地定位自己究竟处在什么位置,但是,

  我们不再孤独。

  多年以后,围棋书上将会如何讲述这次李世石代表人类围棋最高水平与新生AI对决时做出的种种努力,又将会如何评价面对忽然之间凌驾于人类之上的围棋AI时李世石的表现,我并不能肯定。

  我只是希望在这个连李世石的职业精神都会受到质疑的时代里,把我看到的事情告诉大家。是不是真相,请自行判断。

  “李世石面对AlphaGo,并未因五个月之前的棋谱而有丝毫轻视,他做了非常充分的准备。他抛开人类的偏见和自负,试图理解AlphaGo运算的机理,并找出其中可能存在的弱点。在比赛伊始,他就对AlphaGo可能存在的弱点进行了直指要害的攻击,并且在失败后迅速调整,继而展开了第二次、第三次针对性攻击。正是他的策略针对性,使人们更好地理解了AlphaGo的强度和特点,以及不同于人类的决策模式。他在第二局中就已经找到了足以在中盘接近甚至抗衡AlphaGo的布局策略,使人类第一次见识到AlphaGo梦幻般的后半盘。”

  ——这是我对李世石在人机大战前两局表现的评价。

  从这两盘来看,我不认为这个世界上还有哪一个人能够代替李世石将这件事做得更好。

  写到这里,天已经亮了。

  但是故事还远没有结束。

  5、在后三盘可以做什么

  第二盘之后,我在上一篇文章中推测得出的最优策略已经被AI强大的实力证明难以取胜。虽然这一策略在最大限度上利用了人类集体的经验,从而能够在中盘取得接近的局势,但在这种情况下AlphaGo的后半盘不是限时人类所能抵挡的。那些认为李世石发挥太差、自己上去可以不失误的选手,既低估了人性的弱点,又低估了AlphaGo的实力。

  昨天给出的次优策略则是关于劫争:

  2,另一个策略是在局面选择中尽可能制造劫争,即制造对方不开劫就不利的局面。当然,AlphaGo目前没展现出复杂劫争的能力并不能证明它没有这种能力,因此这种策略是存在风险的,太过刻意是不行的,还要考虑局面的自然和均衡。

  但是在看完第二盘AlphaGo的表现之后,我认为这一策略实际上也已经破产了。AlphaGo的算法使得它只会去打那些能影响到胜负的劫争,与胜负无关的劫他就不会打了。

  虽然如此,我觉得李世石还是会去试试。我在第一局时只看到了AlphaGo的两个弱点,第二局则基本证明这两个弱点都是人类所无法利用的。AlphaGo在尽可能避开劫争的条件下仍然能完胜李世石,这才是关于劫争方面应该关注的焦点。

  关于弱点,李世石在第二局赛后表示,没找到AlphaGo的弱点。我认为他非常诚实,而且他确实已尽力寻找。

  虽然我非常希望李世石在这次比赛能够获胜,为围棋行业的发展争取时间。但在我看来,后三盘在正常情况下李世石将毫无胜算。

  空中开局是否有效?我认为无效,但或许比较有趣。

  如果不去找bug,剩下的事情就只有——跟AI学棋。

  6

  人类如何跟AlphaGo学棋

  这是个不小的话题,在未来一段时期内会被围棋界的人反复拿出来讨论。在这里我只是简单开个头,或有不确之处。

  首先一句话:AlphaGo的棋既容易学又不容易学。

  为什么不容易学?因为ALphaGo所有的着法都是从全局考虑并基于它认为的胜率,如果只是单纯地模仿它的下法,将会掉入巨大的陷阱。

  陷阱1:AlphaGo的一些下法本身就不是最优,甚至不如人类的选择。例如第一局中的那两个典型”失误“。如果真要学局部的下法,或许只好期待他左右互搏时拿出最强功力(或者对人类的让目对局,总之需要给它增加难度以减少选择。)

  陷阱2:AlphaGo的下法基于全局,全局形势稍有不同可能就不适用。例如第二局AlphaGo在左下的下法,几乎所有人都认为局部明显亏损。但AlphaGo是基于上边和右边的情况而在左下做出的选择(对此我将在第二部分解说……学习),这对棋手思维的拓宽有巨大的好处,但具体的着法却不宜照搬。即使是天外飞仙的第37手,也是在独特的局面下才是当时的好棋,如果对任何高拆二都跑去肩冲就成了东施效颦。

  为什么容易学?因为AlphaGo的围棋技术层级已经在人类之上,它每一盘下出来的招都值得棋手反复思考推敲。仅仅两盘,就已经有这么多的亮点、更多的不解,这绝对是史无前例的棋谱。

  AlphaGo给出选点的思维方式与人类不同,但我们却可以用人类的方式去理解它,这是一件多么美妙的事情!同一个点,AlphaGo通过数据的方式来给出,人类却用道理的方式来接收,围棋的数与道在这种对话中得到完美的呈现。

  此文的第二部分原本准备用棋谱解读的方式来呈现我从第二局中看到的无法用言语来表达的震撼和美,但本文或许已经太长,两部分关联性又较弱,更主要的是,天色已大亮……留在下一篇吧。

  想念吴清源大师。

  喆理围棋沙龙由李喆六段发起,清华围棋文化交流与研究基金主办。旨在以沙龙的形式,吸引志同道合的朋友,从文化、哲学等方面出发,共同思考、交流意见,探寻围棋的价值与本质。希望参与讨论、投稿或参与沙龙延展项目请发邮件至zlweiqi@sina.com,期待您的参与!本公众号发表所有文章,除文中注明出处外,版权均归喆理围棋沙龙所有,如欲转载请注明“转载自喆理围棋”字样。
作者: 山远空寒    时间: 2016-3-11 15:22
这篇写的靠谱,最后阿狗全胜,对,不是全胜一个人,是全胜围棋界。

当然,征服围棋界是迟早的事情。
作者: 四处张望    时间: 2016-3-11 15:57
这篇文章是好文章,比起一堆小人之心好多了。
作者: xlan1976    时间: 2016-3-11 17:36
李喆确实是哲人啊,发了这么多感慨
说了半天,也没说明白李世石为什么不打劫 然后又在后面说李世石应该在之后的对局中尝试着打劫。。其实李世石打不打劫跟阿法狗是否已经看穿了一切有关系吗?没人说过李世石开劫就一定能赢吧,172手往里冲是李世石作为一个人类棋手那个时候能够看得见的唯一机会,而且是显而易见的机会,所以才会质疑他为什么不选择这样做,如果非要说那个时候李世石已经算清了撑劫也是然并卵,那就不是李世石了,那就成另一台阿法狗了
个人觉得,如果把阿法狗看成是一个棋手的话,他的确是一个百年难遇的天才棋士,甚至可以说是划时代的棋手,这两局棋所展现的内容,对于围棋的发展绝对是有意义的。实际上现代围棋理论并不完善,AI程序可以对围棋理论的发展做出很大的贡献,我觉得这事儿对于围棋的发展是有正面意义的。
作者: njyd    时间: 2016-3-11 20:18
我很好奇两台狗狗对下会是什么结果?
作者: code_abc    时间: 2016-3-11 20:55
njyd 发表于 2016-3-11 20:18
我很好奇两台狗狗对下会是什么结果?

和两个高手下一样
作者: xlan1976    时间: 2016-3-11 21:22
njyd 发表于 2016-3-11 20:18
我很好奇两台狗狗对下会是什么结果?

阿法狗据说不就是靠自己跟自己下棋学习吗,这么算来,这种棋已经下过好多次了
作者: 冰蚁    时间: 2016-3-11 21:28
njyd 发表于 2016-3-11 07:18
我很好奇两台狗狗对下会是什么结果?

狗每天不都跟自己下么。
作者: 冰蚁    时间: 2016-3-11 21:30
xlan1976 发表于 2016-3-11 04:36
李喆确实是哲人啊,发了这么多感慨
说了半天,也没说明白李世石为什么不打劫 然后又在后面说李世石应该 ...

我觉得小李要么因为压力看不到,要么算不清而不愿意拼,要么就是觉得肯定输了,不拼了。三者必居其一,甚至共同作用。
作者: xlan1976    时间: 2016-3-11 21:41
冰蚁 发表于 2016-3-11 21:30
我觉得小李要么因为压力看不到,要么算不清而不愿意拼,要么就是觉得肯定输了,不拼了。三者必居其一,甚 ...

很难讲,但他的做法确实难以理解,因为他最后阶段不断通过转换求得胜机,斗志不可谓不旺盛,这种情况下,这样的劫没理由不开。对于人类棋手来说,这种情况其实基本是算不清的,但就因为算不清,才会觉得有机会,这也是小李的风格,如果是阿法狗在这种情况不开劫,我还可以理解,小李这么做就实在说不通了。
这也是展现阿法狗强大控制局面能力的地方,最后的几次转换,每次阿法狗都要稍亏一点,但小李就是翻不过身来。
不过要说看不到,的确有那么一点可能,以前也有职业高手出现过这种情况,但概率实在是太小了,因为这个劫是非常明显的,而且不需要做,就是摆在那里的。
不过吧,其实但凡是公开转播的职业比赛,如果你看赛后的复盘或是解说,都会说如果输棋的怎么怎么样,结果就会如何如何,因为要人类棋手在一盘棋里始终保持最高水准几乎是不可能的,所以在AI的围棋水平再提高一个台阶之前,只要是人机大战,赛后这样的争论和质疑肯定会一直存在的。
作者: 重重无尽    时间: 2016-3-11 22:02
虽然感情上不愿意接受,但这篇文章似乎道出了很多真相
作者: 煮酒正熟    时间: 2016-3-11 22:41
xlan1976 发表于 2016-3-11 08:22
阿法狗据说不就是靠自己跟自己下棋学习吗,这么算来,这种棋已经下过好多次了 ...

自己和自己下只能提高proficiency,但是要拓宽视野,提高自己计算胜率的准确性,必须要和人类高手对弈才能实现。

这就好比你带小孩子去上奥数班,他会有两个收益,一是拓展思路,这个需要的是高人讲解启迪;二是对于已经掌握的知识,能够以最快的速度完成解答,而这一点,需要的是大量做题。

狗狗和自己每天下那一百万盘,其实就是在做题。但你就是下一亿盘,也无法拓展思路。
作者: 燕庐敕    时间: 2016-3-11 22:44
njyd 发表于 2016-3-11 20:18
我很好奇两台狗狗对下会是什么结果?

多机并联的狗对单机狗胜率77%。
作者: 穿着裤衩裸奔    时间: 2016-3-11 23:43
我的观点和他差不多。第二局go是碾压式胜利。大局观比人类高一个层次
作者: 冰蚁    时间: 2016-3-12 00:11
穿着裤衩裸奔 发表于 2016-3-11 10:43
我的观点和他差不多。第二局go是碾压式胜利。大局观比人类高一个层次

我现在有种感觉,围棋反而要进入繁荣时代,各种新的招法,理论在AI帮助下会被开发出来。
作者: 穿着裤衩裸奔    时间: 2016-3-12 00:20
本帖最后由 穿着裤衩裸奔 于 2016-3-12 00:23 编辑
冰蚁 发表于 2016-3-12 00:11
我现在有种感觉,围棋反而要进入繁荣时代,各种新的招法,理论在AI帮助下会被开发出来。 ...


我觉得难。围棋招法是建立在算力基础上。算力不够,招法就成了花架子。举个简单的例子,像我这种水平的棋手,对方定式下一个骗招,就完蛋了,对方如果下出大雪崩,我一定中招。不是看不出来,是算棋不行。
ago第二局开局的手段,和那个飘逸的肩冲,人类学了也没用,后续手段跟不上。
作者: 冰蚁    时间: 2016-3-12 00:22
穿着裤衩裸奔 发表于 2016-3-11 11:20
我觉得难。围棋招法是建立在算力基础上。算力不够,招法就成了花架子。举个简单的例子,像我这种水平的棋 ...

要相信9段棋手的实力嘛。
作者: 武工队    时间: 2016-3-12 02:04
挺有道理的

面对人工智能,乱下更是找死
作者: 煮酒正熟    时间: 2016-3-12 02:42
冰蚁 发表于 2016-3-11 11:22
要相信9段棋手的实力嘛。

九段棋手的脑子终究也是人脑子
那狗可是狗脑子啊
作者: 仁    时间: 2016-3-12 03:34
xlan1976 发表于 2016-3-11 17:36
李喆确实是哲人啊,发了这么多感慨
说了半天,也没说明白李世石为什么不打劫 然后又在后面说李世石应该 ...

如果股沟愿意,可以很容易检验,退回到172手,重新来就是了。
作者: 鳕鱼邪恶    时间: 2016-3-12 03:43
煮酒正熟 发表于 2016-3-11 22:41
自己和自己下只能提高proficiency,但是要拓宽视野,提高自己计算胜率的准确性,必须要和人类高手对弈才 ...

OK 老酒,如果秘密培养一个新棋手,下的棋从来不外传,也不出去比赛。。。现在出场对战狗狗,狗能对付吗?

我有点儿怀疑阿狗不过是把所有的公开高手们下的棋都记住研究过了,对每一个棋手都有预案;来个全新的棋手,阿狗未必能对付。
作者: 仁    时间: 2016-3-12 04:05
燕庐敕 发表于 2016-3-11 22:44
多机并联的狗对单机狗胜率77%。

你的评论可能指出了啊发狗的秘密。我们知道围棋软件的难点是数据量太大,难以穷尽。但是如果把数据分化交给很多狗去做呢?每只狗只负责一小部分数据处理并中止胜率小于某设定值的运算。这样,主机可以用更短的时间算出最高胜率的落子处。股沟有能力使用庞大的机器网络。
作者: 财迷心窍    时间: 2016-3-12 09:10
我非常不喜欢这篇文章。也许李世石确实已经尽力了,但就这两盘棋的质量,李世石是否已经做到了最好的自己?我是看的乐视柯洁的解说,当然柯洁对李世石一向不服。但仅就李喆这篇文章,完全采用他的论据,是否也可以重新论证出新的论点,即李世石面对巨大的心理压力,有点进退失据?第一盘有点上手心态想去欺负电脑反而吃亏,而第二盘又有了明显的下手心态?我喜欢柯洁的评论远胜于李喆的,输棋也要输个明白吧。中盘的战斗不敢评价,但一头一尾还是自以为能看懂的。面对黑脱先走中国流,是不是无论如何也要夹过去?这是完全颠覆认知的东西,死也应该死个明白,能证明以前老师教的全是错的也值了。这种局面太常见非常容易走出来的,今后大家都去学电脑走法也是对围棋技艺的发展。职业棋手的求道精神哪里去了?我是不相信打劫阴谋论的,但李世石没有选择打劫也有心态问题吧?以我的棋力两个打劫都能看到,第一个打劫不敢评价是否一定能优于实战,但第二个打劫太明显了,打赢打不赢另说,但我都能算清这是最后的机会不打劫必输无疑。职业棋手的求胜精神又哪里去了?
作者: xlan1976    时间: 2016-3-12 10:10
仁 发表于 2016-3-12 03:34
如果股沟愿意,可以很容易检验,退回到172手,重新来就是了。

是啊,那为啥不重新来一次呢
作者: 燕庐敕    时间: 2016-3-12 10:26
xlan1976 发表于 2016-3-12 10:10
是啊,那为啥不重新来一次呢

因为:

观棋不语真君子,落子无悔大丈夫

嘛。
作者: xlan1976    时间: 2016-3-12 10:28
穿着裤衩裸奔 发表于 2016-3-12 00:20
我觉得难。围棋招法是建立在算力基础上。算力不够,招法就成了花架子。举个简单的例子,像我这种水平的棋 ...

不是这样的
正因为AI计算能力强,所以它才可以帮助发展围棋理论啊。所谓的围棋理论,就是指那些不需要现场计算的东西,而是在之前的研究中已经算清楚,知道采取什么样的策略是最优的东西。当然,因为人的计算能力毕竟有限,所以原来认为已经算清楚的东西经常会被推倒重来,这个时候就是围棋理论发展的时候。有了AI的帮助,就可以把原来一些说不清楚好坏的棋形搞明白,在对局中再遇见类似的局面下,大家就都知道采用那种方式应对最佳,这不就是围棋的发展吗?
以前的围棋台下的研究少,基本也都是某个天才棋士在某次对局中走出一个新的下法,然后经过研究和对局中的反复使用,确认它的最佳应法,从而形成理论,然后大家都这么做,然后再有人下出新的下法,再研究,理论就发展了。现在大家台下的研究多了,特别是集体研究多了,而且网络围棋的兴起,使得职业棋手之间可以很方便的对局,也加快了研究的速度,所以这几年围棋理论发展的很快,现在棋手的棋力比起80年代以前有了很大的提高,有得职业棋手认为至少提高了一个子,换句话说就是现在的棋手如果跟80年代的棋手下让先都不一定会输,这主要是因为围棋理论提高了,而不是棋手现场计算能力提高了得原因。很明显,AI在这些方面是可以起到很大作用的。其实现在国际象棋就是这样,使用电脑程序进行研究和帮助棋手训练已经是非常普及的事情。
作者: xlan1976    时间: 2016-3-12 10:30
燕庐敕 发表于 2016-3-12 10:26
因为:

观棋不语真君子,落子无悔大丈夫

但起码给个跟阿法狗复盘的机会嘛
作者: 燕庐敕    时间: 2016-3-12 10:31
仁 发表于 2016-3-12 04:05
你的评论可能指出了啊发狗的秘密。我们知道围棋软件的难点是数据量太大,难以穷尽。但是如果把数据分化交 ...

谷歌证实,现在和小李下的是用多机版的阿尔法狗。
作者: xlan1976    时间: 2016-3-12 10:33
财迷心窍 发表于 2016-3-12 09:10
我非常不喜欢这篇文章。也许李世石确实已经尽力了,但就这两盘棋的质量,李世石是否已经做到了最好的自己? ...

我也有点这种感觉,我觉得他这篇文章情怀太多了,跟棋有关的东西太少了。

作者: qyangroo    时间: 2016-3-12 10:33
不明白人类为嘛这么激动。计算本来就是电脑擅长的事情。围棋的算法复杂度比其它棋类高一点,一旦算法上有突破,电脑战胜人类不是很自然的事情么。即使围棋高手找到阿法狗现在的算法缺陷,阿法狗打个补丁又可以继续胜利了。以阿法狗的计算能力,它可以全局计算,很多它的下法都不是人类可以模仿的。
作者: 穿着裤衩裸奔    时间: 2016-3-12 10:37
xlan1976 发表于 2016-3-12 10:28
不是这样的
正因为AI计算能力强,所以它才可以帮助发展围棋理论啊。所谓的围棋理论,就是指那些不需要现 ...

两回事。
请刘翔的教练教我跨栏,我会不会提高成绩?肯定会。
请刘翔的教练教我跨栏,我会不会跑过刘翔?肯定会。
作者: 燕庐敕    时间: 2016-3-12 10:37
xlan1976 发表于 2016-3-12 10:30
但起码给个跟阿法狗复盘的机会嘛

哈哈哈哈,真想知道复盘的时候阿尔法狗怎么评价对手某一招的~~~太期待啦!
作者: 燕庐敕    时间: 2016-3-12 10:40
qyangroo 发表于 2016-3-12 10:33
不明白人类为嘛这么激动。计算本来就是电脑擅长的事情。围棋的算法复杂度比其它棋类高一点,一旦算法上有突 ...

主要是阿尔法狗不是靠穷举计算的---换句话说,有可能真的具有一定的思维--选择能力。是AI的重要突破或者重大实现。

坛子里很多人有过AI的经验或者背景,或者类似的方向,大家关注的比较多就不奇怪了。
作者: xlan1976    时间: 2016-3-12 10:42
燕庐敕 发表于 2016-3-12 10:37
哈哈哈哈,真想知道复盘的时候阿尔法狗怎么评价对手某一招的~~~太期待啦! ...

现在阿法狗不给复盘的啊
不过以后肯定会有类似的功能。
作者: xlan1976    时间: 2016-3-12 10:45
穿着裤衩裸奔 发表于 2016-3-12 10:37
两回事。
请刘翔的教练教我跨栏,我会不会提高成绩?肯定会。
请刘翔的教练教我跨栏,我会不会跑过刘翔? ...

有人说过让AI帮助发展围棋的目的是为了人类能战胜AI吗?
就好像吴清源对围棋的发展作了很大贡献,当时的棋手也都获益匪浅,但当时的棋手有人下得过吴清源吗?这能代表吴清源对围棋事业的繁荣毫无贡献?
作者: xlan1976    时间: 2016-3-12 10:49
燕庐敕 发表于 2016-3-12 10:40
主要是阿尔法狗不是靠穷举计算的---换句话说,有可能真的具有一定的思维--选择能力。是AI的重要突破或者 ...

好像之前有介绍阿法狗的计算原理时说,因为难以穷举,所以阿法狗是对后续的着法随机计算大概一定数量的变化,然后从中按一定策略选取它认为最优的。我不知道这个说法是对是错,但这能解释为啥阿法狗有时也会出现失误。
作者: qyangroo    时间: 2016-3-12 10:55
燕庐敕 发表于 2016-3-12 10:40
主要是阿尔法狗不是靠穷举计算的---换句话说,有可能真的具有一定的思维--选择能力。是AI的重要突破或者 ...

读过的相关介绍,除了搜索算法,机器学习部分对目前的阿法狗来说是它在基于大数据的统计、概率、模式识别、博弈论等基于数学的算法上的突破和整合。
表面看起来有自学习能力,其边界仍然是人类对数学和相关领域的认识边界,其实不能算是战胜人。

这个作者提到的那句什么人工智能超过人类绝尘而去远远没有达到。
作者: 燕庐敕    时间: 2016-3-12 10:59
qyangroo 发表于 2016-3-12 10:55
读过的相关介绍,除了搜索算法,机器学习部分对目前的阿法狗来说是它在基于大数据的统计、概率、模式识别 ...

作者是李喆六段,湖北人,曾经被认为是小豹(中国围棋曾按年龄划分龙虎豹等)里面很有思想的一位,在二十出头还没拿到全国冠军和世界冠军时,转入清华大学读书去了。

此人的确在清华也不是上数学系或者计算机系的。

作为一个棋手的一家之言,可以看看。
作者: 燕庐敕    时间: 2016-3-12 11:02
xlan1976 发表于 2016-3-12 10:49
好像之前有介绍阿法狗的计算原理时说,因为难以穷举,所以阿法狗是对后续的着法随机计算大概一定数量的变 ...

就是选择策略这样比较虚的东西,才像“智能”嘛。

你说的对,就是那么回事。
作者: 仁    时间: 2016-3-12 11:52
燕庐敕 发表于 2016-3-12 10:31
谷歌证实,现在和小李下的是用多机版的阿尔法狗。

没说具体多少机器?其实谷歌还可以同时和其他软件联网,对其他软件推出的棋步进行验算。
作者: 四处张望    时间: 2016-3-12 12:08
仁 发表于 2016-3-12 11:52
没说具体多少机器?其实谷歌还可以同时和其他软件联网,对其他软件推出的棋步进行验算。 ...

之前貌似哪说过,其实也就不到100个cpu/gpu
作者: 穿着裤衩裸奔    时间: 2016-3-12 12:37
xlan1976 发表于 2016-3-12 10:45
有人说过让AI帮助发展围棋的目的是为了人类能战胜AI吗?
就好像吴清源对围棋的发展作了很大贡献,当时的 ...

你打算说啥?
作者: 河蚌    时间: 2016-3-12 12:42
本帖最后由 河蚌 于 2016-3-12 12:46 编辑
煮酒正熟 发表于 2016-3-11 22:41
自己和自己下只能提高proficiency,但是要拓宽视野,提高自己计算胜率的准确性,必须要和人类高手对弈才 ...


觉得这点酒爷有些偏颇了。
任何问题的解答,都依托于两个方面,一个是知识,另一个是推理。就本质上说,知识只是固化的被证明过了的推理过程。所以,阿尔法狗之间的对弈,只要每盘都是不重复,其实就是采用穷举推理的方式来积累知识。这种积累对于计算机来说,远比学习高手对弈来的直接,也就是比学习高手的招数更为有效。
围棋的定式其实就是固化了推理过程的知识,也就是被无数棋手用很多盘棋证明了的下棋方法,如果让机器只是记住这种定式下法,这样的机器的智力是有限的,而如果让机器能够记住此定式过程中所有的变例(也就是亏的算法),并且对每一种变例做出应对,这时机器的智力才可以说很高明。机器每天进行无数次的对弈,然后记住所有的有效的无效的下法,其实就是按照这种思路来做出积累。
不得不承认,一切智力游戏都是数学问题,如果机器无法解决,只是因为我们还没看透这个问题的数学本质。回头想一想,其实围棋是比象棋更为纯粹的数学问题,之所以大多数人认为它是人类的专利机器的禁区,还是因为我们没有找到能够覆盖那么大片数字空间的办法,而一旦找到了,那机器以其比人类高出无数层次的推理和探索能力,必然将人类甩的十分远。
人类在思维上有其严重的局限,其推理的层次其搜索的范围,以心算方式普通人都只有个位数,最强者不过百。以前之所以认为机器不能,主要还是因为推理规则无法计算机程序化。现在看来,只要找到程序化的办法,任何数学问题,都会变成机器的天下。
作者: 河蚌    时间: 2016-3-12 12:50
qyangroo 发表于 2016-3-12 10:33
不明白人类为嘛这么激动。计算本来就是电脑擅长的事情。围棋的算法复杂度比其它棋类高一点,一旦算法上有突 ...

因为以前很多人认为围棋会成为人类思维的永久自留地,会成为机器的禁区,但没想到,这么快,机器就闯进来。
数学,真是一个令人着迷的东西。
作者: 煮酒正熟    时间: 2016-3-12 13:13
本帖最后由 煮酒正熟 于 2016-3-12 00:15 编辑
河蚌 发表于 2016-3-11 23:42
觉得这点酒爷有些偏颇了。
任何问题的解答,都依托于两个方面,一个是知识,另一个是推理。就本质上说, ...


你说的也许是对的。我知道的是,阿法狗最开始被训练的目标是能够像人一样思考判断和下棋,所以在开始的阶段给他喂了多少万局人类高手的棋局。狗有了这些垫底儿,开始自行学习以后,它的思维特点与前面被动受训有什么不同,我就不知道了。但从前天和小李实战第37手那手棋,现在基本上大家都公认是彻底颠覆人类对围棋认知的一手,这就意味着,这种思考和判断,不是狗狗从人类那里学到的,极有可能是它自己在无休无止地自我对弈中,自己“悟”出来的。换言之,狗狗在一定程度上表现出了自己的创造性思维。(好像有不少老大坚决认为电脑现在完全没有创造力的 @晨枫 @老兵帅客 )昨天还有两三手,也是职业棋手和业余好手绝对不会那么下的,虽然效果欠佳,但至少说明狗狗有自己的思考和尝试。所以我觉得小李输掉第一局之后,柯洁显然有点儿着急,忙着为人类辩护的同时,还不忘攻击电脑“即使算得再精,也没有自己的风格”。我觉得柯洁说出这个话很扯。不知道他看完狗狗前天第37手之后是不是还继续坚持说狗狗没风格了。

作者: 河蚌    时间: 2016-3-12 13:36
煮酒正熟 发表于 2016-3-12 13:13
你说的也许是对的。我知道的是,阿法狗最开始被训练的目标是能够像人一样思考判断和下棋,所以在开始的阶 ...

围棋,一直有“金角银边草肚皮”一说,其实这种说法就是基于人类的思维计算能力有限提出来的,而当年的“宇宙流”的提出,就是认为中腹才是围棋最广的天地,也被认为是围棋未来的方向,但武宫最终却越下越差,甚至成为一个笑话,这并不是说方向是错的,只是说明人类思维的局限造成人只能立足于边边角角之地踏实行走,却无法到中腹地带去飞。
围棋的规则简单的3岁孩子花半个小时都能学懂,然后就是许多的棋形许多的定式,这些,就是人类在对弈中总结出的最适合人类记忆的下棋套路。其实很多复杂的定式,会有很多的变例,每种变例都又会有很多分支,记住这些变例就是在增长棋力。当年中国年轻棋手全面超越日本棋手,原因中说的最多的就是中国棋院几十位年轻棋手每天都在集体研究某种定式,摆出各种变例的情况然后集体分享,所以,在实战中能够下出很多意想不到的招法。
真没想到AI来的如此之快,不到二十年时间,几乎所有领域都在突破,语音、视觉、动作,现在围棋如果实现突破,那离突破人类思维禁区就不远了。真希望能够活着看到人类创造出第一个真正的机器人。
作者: zilewang    时间: 2016-3-12 14:49
煮酒正熟 发表于 2016-3-12 13:13
你说的也许是对的。我知道的是,阿法狗最开始被训练的目标是能够像人一样思考判断和下棋,所以在开始的阶 ...

我感觉狗的优势是计算能力。
职业棋手一般最多算20多种变化,100多手棋。今天看了第三局直播,我感觉狗是否可能在限时里计算能力是人脑的N倍,然后选择最优。
所以,看孔杰解说时,一个最大感觉是:人脑对某些过于复杂的形势会简化,或者先放一放来处理,因为人脑算不清,但是狗脑子却可以通过变态的计算看清形势。
作者: 冰蚁    时间: 2016-3-12 19:49
本帖最后由 冰蚁 于 2016-3-12 06:53 编辑

大家要记得,狗其实不算是专用围棋软件。选择围棋是为了验证算法:价值网络, 政策网络。这个是核心。
作者: 燕庐敕    时间: 2016-3-12 19:54
zilewang 发表于 2016-3-12 14:49
我感觉狗的优势是计算能力。
职业棋手一般最多算20多种变化,100多手棋。今天看了第三局直播,我感觉狗是 ...

你错了,赵治勋说过,职业棋手每一手棋的计算是十几种,每种二十几手,因此大约要算三百手棋。

他为啥这么说?是因为有艺术气质的师兄石田芳夫曾经回答记者问时说,一瞥千手。大家觉得不可能,问当时26岁的大三冠获得者,他很认真的给出了答案。

狗能算多少手,恐怕多很多。
作者: 冰蚁    时间: 2016-3-12 20:00
穿着裤衩裸奔 发表于 2016-3-11 21:37
两回事。
请刘翔的教练教我跨栏,我会不会提高成绩?肯定会。
请刘翔的教练教我跨栏,我会不会跑过刘翔? ...

发展围棋理论的人是职业高段棋手啊。又不是普通人。对普通人能长棋力已经可以。而且对普通人还用不到这么高级的狗。
作者: qyangroo    时间: 2016-3-12 20:44
河蚌 发表于 2016-3-12 12:42
觉得这点酒爷有些偏颇了。
任何问题的解答,都依托于两个方面,一个是知识,另一个是推理。就本质上说, ...

河蚌你的这种想法,跟人工智能领域里的“蚁群算法“的思路很一致。

可以把围棋看成复杂的系统,而现代复杂系统理论的研究成果不断得到超出我们直觉和常识的结论。

蚁群算法跟程序猿寻求最优解的遍历思维模式不一样,它通过简单规则导致群体行为的叠加,导致出现复杂系统状态突变(涌现)。 每只蚂蚁没有智能,实际上每只蚂蚁并不像我们想象的需要知道整个世界的信息,他们其实只关心很小范围内的眼前信息,而且根据这些局部信息利用几条简单的规则进行决策,这样,在蚁群这个集体里,复杂性的行为就会凸现出来。这就是复杂系统解释的规律。 只有每只蚂蚁遵循多样性、正反馈的简单规则不断试探局部最优路径,整个蚁群就显示出智能性,逼近全局最优解。

还有其它人工智能方面的算法,神经元网络算法、退火算法、遗传基因算法,都是用多个节点、多个层级来模拟非线性的复杂系统,每个层次和节点遵循简单规则来运行,通过大量节点和层次的堆积模拟复杂非线性系统。并通过大量数据的训练、试错、反馈得到一些参数,向非线性系统的最优解逼近。

由于复杂系统的决策超过人脑的计算力,人多数依赖知识和直觉来决策,这些人工智能算法尽量模拟复杂系统,电脑计算力远超人类,又有无穷精力不断穷举、试错、反馈,所以可以搞出超过人类知识和直觉的决策,看起来很智能的样子。


作者: qyangroo    时间: 2016-3-12 21:24
冰蚁 发表于 2016-3-12 19:49
大家要记得,狗其实不算是专用围棋软件。选择围棋是为了验证算法:价值网络, 政策网络。这个是核心。 ...

Google在人工智能算法上确实有突破,上次有个新闻说google的神经元网络算法通过喂给无数猫的图片,最后自己学会能认出猫。它这个神经元网络是模仿人脑的,就是通过一个网络来学习视觉、听觉等各方面的能力,而不是视觉一个计算、听觉一个计算单元那样的电脑式机械计算。

具体到阿法狗,我猜测阿法狗的价值网络和政策网络应该是人工智能算法模拟人脑的成果,而且其计算能力和能喂给的巨量算例也远超过人类。其搜索算法部分还是机械的电脑计算方式,计算力也远超人脑。阿法狗取胜的关键恐怕还是强大的机械计算能力部分占主导。
作者: 冰蚁    时间: 2016-3-12 21:51
本帖最后由 冰蚁 于 2016-3-12 09:04 编辑
qyangroo 发表于 2016-3-12 08:24
Google在人工智能算法上确实有突破,上次有个新闻说google的神经元网络算法通过喂给无数猫的图片,最后自 ...


搜索算法是传统蒙特卡罗搜索。但如果没有价值,政策网络进行筛选,后再蒙特卡罗搜索,这样的搜索量吃不消。所以狗下的棋就表现出大局观强,主次分明这样的特点。有了这个,再辅以蒙特卡罗的强大搜索能力,狗就给人深不可测的感觉和碾压李世石的结果。小李后两盘能彻底放下包袱了吧,好好拼拼,看看能出什么精彩对局。
作者: qyangroo    时间: 2016-3-12 22:01
冰蚁 发表于 2016-3-12 21:51
搜索算法是传统蒙特卡罗搜索。但如果没有价值,政策网络进行筛选,后再蒙特卡罗搜索,这样的搜索量吃不消 ...

即使是筛选决策网络,也是依赖了巨量的离线计算(所谓的学习过程)和强大的在线计算能力。因为它那个网络模型的节点数和层级的计算量,也不是人脑计算能搞定的。
作者: 冰蚁    时间: 2016-3-12 22:08
qyangroo 发表于 2016-3-12 09:01
即使是筛选决策网络,也是依赖了巨量的离线计算(所谓的学习过程)和强大的在线计算能力。因为它那个网络 ...


你要这么定义,那肯定每步都要计算啊。
作者: qyangroo    时间: 2016-3-12 22:28
冰蚁 发表于 2016-3-12 22:08
你要这么定义,那肯定每步都要计算啊。

我的意思是,一个人对阵一个多节点多层次的计算网络,就像一个人对一个兵团。阿法狗可以分布式计算,多进程多线程,人脑的计算方式,据一个科普片说,是多任务分时共享的单线程模式。
从计算能力上说,一旦电脑开始模拟人脑的神经元网络工作方式,从计算能力上说肯定超过人类,在棋牌类这些规则固定的游戏上人类基本没有优势。
作者: 四处张望    时间: 2016-3-12 22:28
qyangroo 发表于 2016-3-12 21:24
Google在人工智能算法上确实有突破,上次有个新闻说google的神经元网络算法通过喂给无数猫的图片,最后自 ...

这个猫的我也看了报道,从这里来看,已经开始摸到人类思维抽象的边了。
作者: 煮酒正熟    时间: 2016-3-12 22:52
qyangroo 发表于 2016-3-12 09:01
即使是筛选决策网络,也是依赖了巨量的离线计算(所谓的学习过程)和强大的在线计算能力。因为它那个网络 ...

这是我的一个回贴:
传统棋类AI的基础是蒙特卡洛树型搜索 (Monte Carlo Tree Search). 阿法狗自然也有这个。但这个是很低级的计算方法,不是高级算法。阿法狗算法里面的高级部分是价值网络和政策网络,这两个东西合在一起,就是要模仿人类棋手的“棋感"。价值网络和政策网络负责掌控宏观形势,基于对宏观形势的研判,指挥蒙特卡洛做有限的树型搜索。注意有限两个字。如果没有价值网络和政策网络的宏观指导,光靠蒙特卡洛树型搜索去下棋,以围棋10的170次方的近乎无限种的应对方式,阿法狗一步棋会下到地老天荒。

价值网络和政策网络的技术基础,是很高端的所谓深度神经网络技术。这个俺不懂,就不乱说了。

说到底,阿法狗之所以下起棋来比较像人,就是因为它有着相当复杂精妙的价值网络和政策网络。它在实战中的应对之所以屡屡技高一筹,得益于大数据时代的软硬件(比如cloud computing,你说它是硬件还是软件?)

作者: 煮酒正熟    时间: 2016-3-12 23:00
本帖最后由 煮酒正熟 于 2016-3-12 10:07 编辑
qyangroo 发表于 2016-3-12 09:01
即使是筛选决策网络,也是依赖了巨量的离线计算(所谓的学习过程)和强大的在线计算能力。因为它那个网络 ...


阿法狗与90年代末爱必摸搞出来的那个会下国象的深蓝相比,Monte Carlo Tree Search 是它们的共性,所以这个不是吮马新鲜玩意儿。阿法狗比之深蓝真正优越之处是两个,一是大数据时代对海量数据的超高处理能力(这方面,软件比硬件贡献要大得多),二是研发人员基于神经网络技术为阿法狗搞出来的价值网络+政策网络。

后面这两个,才是人工智能最终战胜人类顶级棋手的关键。

但是在后两个因素之间,我得说,二在较大程度上依赖于一,因为没有大数据处理能力,神经网络技术就得不到充分发展,而以它为基础的价值网络和政策网络就不可能表现出我们现在看到的那种大局观。但是(对,但是,必须的),二里面又包含着两个部分,一是domain knowledge,也就是某一领域里面的专业知识。这个专业知识,确实是依靠一定时间里的喂棋谱,以及狗狗自己玩儿老顽童周伯通的双手互搏所积累下来的。二是machine learning,这个东西决定了狗狗可以从喂给它的棋谱以及自己双手互搏之中有效学到专业知识。

作者: 冰蚁    时间: 2016-3-12 23:11
qyangroo 发表于 2016-3-12 09:28
我的意思是,一个人对阵一个多节点多层次的计算网络,就像一个人对一个兵团。阿法狗可以分布式计算,多进 ...

我看以后没什么固定规则的也没戏。拿围棋练手就是固定规则极少,而变化则是天文数字。怎么在这样的组合中选择相对正确的,这次得到了突破。所以这个算法的潜力真的很大。
作者: qyangroo    时间: 2016-3-13 01:31
煮酒正熟 发表于 2016-3-12 23:00
阿法狗与90年代末爱必摸搞出来的那个会下国象的深蓝相比,Monte Carlo Tree Search 是它们的共性,所以这 ...

机器学习就是神经元网络构建知识库、规则库和推理机的过程,主要基于海量数据的输入来统计出知识和规则,数据越多参数越准确。阿法狗短时间能遍历人类十几代也完成不了的算例,所以“悟”出新招是很自然的,因为以前穷人力与有涯之人生根本遍历不了阿法狗所能经历的棋局。

还有除了从大数据里得出基于统计概率和逻辑推理的规则,阿法狗也可以根据自己的程序里给出算法里的统计学和概率定律、运筹学定律、逻辑推理规则等等推导出新规则。看起来就是阿法狗在思考和创造。

其实都是基于强悍计算能力和巨量数据处理和存储能力。

作者: qyangroo    时间: 2016-3-13 01:44
冰蚁 发表于 2016-3-12 23:11
我看以后没什么固定规则的也没戏。拿围棋练手就是固定规则极少,而变化则是天文数字。怎么在这样的组合中 ...

我猜测这个算法的突破是解决了一个大型非线性网络优化算法的收敛问题。

非线性复杂系统的优化计算,最头疼的就是求全局最优解或次优解的时候海量计算,然后不收敛,震荡等等。这个神经元网络算法的适应面肯定很广,因为现实系统大部分都是非线性的复杂的。




欢迎光临 爱吱声 (http://129.226.69.186/bbs/) Powered by Discuz! X3.2