设为首页收藏本站

爱吱声

 找回密码
 注册
搜索
查看: 2359|回复: 10
打印 上一主题 下一主题

[时事热点] 人工智能vs人类智能的关键

[复制链接]

该用户从未签到

跳转到指定楼层
楼主
发表于 2016-3-14 04:02:48 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
本帖最后由 晨枫 于 2016-3-13 16:17 编辑

李世石赢回来一盘,要是接下去再赢回一盘,依然是2:3输给了AlphaGo。Demis Hassabis祝贺了李世石7次,这不光是一种大度,也是真正学者的思维。他用AlphaGo挑战围棋顶级大师的目的不是炫耀,而是探索人工智能的前沿,被李世石打败了,正好暴露了前沿所在,他当然要祝贺。接下来,AlphaGo对把更多棋局输进去,首选就是这输掉的一盘。

人工智能的学习能力现在还不清楚,尤其是实时学习、反手一击的可能性。就现在所知,AlphaGo还没有自我选择输入棋局的能力。任何做过模型或者神经元网络的人都知道,模型拟合或者神经元网络训练最关键的不是数学,而是数据选择。业内有句话:garbage in garbage out。ALphaGo团队最初选择了3000局精彩棋局,作为基本训练,也正是这个道理。如何在浩瀚的真假数据中间挑选真正有用的数据,这对于业内专家来说艺术,而没有严谨的科学,看不出现在AlphaGo有自动筛选数据的能力,也谈不上自动学习,所有学习还是被动的,人工喂的。

但关键不在这里,而是在哲学高度的问题。哲学不光是唯物主义、唯心主义、辩证法、形而上学,还涉及科学范畴的存在性、惟一性什么的。比如说,能量守恒、物质守恒,这就是上升到哲学高度的科学原理。热力学第二定理是另一个,规定了任何闭合系统都是熵只能递增,世界是从有序到无序的单行道,从高能位向低能位的单行道,这是永动机不可能的基本道理。第二定理在哲学界造成过热寂论的恐慌,但现在人们似乎对自然进程的单向性心平气和了,对大爆炸理论的接受就是一个例子。

但第二定理描述的是闭合的物理系统,对于闭合的信息(智能属于信息系统吗)系统是否适用还不知道,至少是没有证明。如果闭合信息系统里也存在第二定理,那人工智能是否能战胜人类智能的问题就解决了。人工智能是人类智能创造的,按照熵增定理,人工智能系统的熵不可能低于创造时刻,因此不可能超过人类智能。但这里面有一个问题:人类智能是一个熵减的过程,更广义的层面上,物种进化也是熵减的过程。现在还没有人能从哲学层次说清楚热力学第二定理为什么不适用于物种进化和人类智能。

在人工智能解决了物种进化问题之前,人工智能还是超不过人类智能的,但人工智能能自我进化吗?说了半天,回到原点,还是不知道,等于没说。

评分

参与人数 2爱元 +10 收起 理由
山远空寒 + 8 谢谢!有你,爱坛更精彩
qyangroo + 2 谢谢!有你,爱坛更精彩

查看全部评分

该用户从未签到

沙发
发表于 2016-3-14 04:37:35 | 只看该作者
是不是说反了,熵在irreversible process里只能加不能减。如果“熵只能递减”,那么世界就变成了无序到有序的单行道了。
  • TA的每日心情
    擦汗
    2023-2-28 12:05
  • 签到天数: 1972 天

    [LV.Master]无

    板凳
    发表于 2016-3-14 04:42:06 | 只看该作者
    人工智能的进步和解密人类大脑的工作机制的进步是相辅相成,互相促进的。等到大脑完全被解密了人类就危险了。

    但问题是,人类能完全认识自己的大脑嘛?这是一个哲学问题。不知道,等于没说。

    该用户从未签到

    地板
    发表于 2016-3-14 04:58:43 | 只看该作者
    “一个系统的熵只加不减”的前提是没有外界对这个系统做功,在有外界做功的情况下熵是可以减少的,电冰箱就是这个原理。如果把地球作为一个系统,生物进化是熵减过程,原因是太阳在不停地向地球做功(当然不是说只要有外部做功熵就一定减少)。

    把这个原理应用到人工智能这个系统上,熵减定理只有在没有外界做功的情况下才成立。所以只要切断电源,“人工智能系统的熵不可能低于创造时刻”这句话就成立了  但是如果不拔插头就不能保证人工智能系统的熵不会自己减下去。

    该用户从未签到

    5#
     楼主| 发表于 2016-3-14 06:15:01 | 只看该作者
    牛腰 发表于 2016-3-13 14:37
    是不是说反了,熵在irreversible process里只能加不能减。如果“熵只能递减”,那么世界就变成了无序到有序 ...

    呃,对,说反了,意思是一样的。

    该用户从未签到

    6#
     楼主| 发表于 2016-3-14 06:18:24 | 只看该作者
    qyangroo 发表于 2016-3-13 14:42
    人工智能的进步和解密人类大脑的工作机制的进步是相辅相成,互相促进的。等到大脑完全被解密了人类就危险了 ...


    “人类能完全认识自己的大脑嘛?”
    个人认为不能,正是因为这个哲学问题,有天然盲点或者认识的循环死区,但只是个人认为而已。
  • TA的每日心情
    慵懒
    2016-1-18 00:00
  • 签到天数: 62 天

    [LV.6]出窍

    7#
    发表于 2016-3-14 06:21:08 | 只看该作者
    虽然不很懂围棋,但是看比赛很精彩,阿狗的战力强大,给对手很大压力,第三局时,看着石头苦苦支撑

    忽然觉得他肩上的担子很重呀,舆论给予他太大的压力。输掉三局后,他放下包袱好一些。

    这里我想到天龙八部里的珍珑棋局,自填一字,死了一片后,才解开。这种置于死地而后生的棋,只怕靠电脑算出来不容易。

    但是,人工智能在围棋上已经可以轻松战胜人类了。

    该用户从未签到

    8#
     楼主| 发表于 2016-3-14 06:21:10 | 只看该作者
    牛腰 发表于 2016-3-13 14:58
    “一个系统的熵只加不减”的前提是没有外界对这个系统做功,在有外界做功的情况下熵是可以减少的,电冰箱就 ...

    对了,第二定理针对闭合系统,把这“闭合”也加进去了。

    太阳对地球做工也解释不了恐龙可以变成石油,但石油变不成恐龙啊。

    用在人工智能上,要把智能和知识区分开来。知识的增加不等于智能的增加,这个量变不能自动导致质变。
  • TA的每日心情
    奋斗
    2024-9-10 21:08
  • 签到天数: 2051 天

    [LV.Master]无

    9#
    发表于 2016-3-14 07:10:51 | 只看该作者
    晨大啊,3000万手的人类对局监督学习,怎么就被你吃掉了个万字?这个要算一局300手的话,那就是10万棋局(其实估计不止,因为很少有下到300手),那基本上是职业比赛的棋局都拿来填鸭了,没有精选。

    然后Demis Hassabis说了,可以跳过监督学习这一步,直接从一张白纸开始强化学习发展到现在的功力

    Is that possible because of where the algorithm has reached now?

    No, no, we could have done that before. It wouldn’t have made the program stronger, it just would have been pure learning. so there would’ve been no supervised part. We think this algorithm can work without any supervision. The Atari games that we did last year, playing from the pixels — that didn’t bootstrap from any human knowledge, that started literally from doing random things on screen.

    评分

    参与人数 1爱元 +6 收起 理由
    煮酒正熟 + 6

    查看全部评分

  • TA的每日心情
    擦汗
    2019-6-16 23:34
  • 签到天数: 1277 天

    [LV.10]大乘

    10#
    发表于 2016-3-14 08:46:55 | 只看该作者
    holycow 发表于 2016-3-13 18:10
    晨大啊,3000万手的人类对局监督学习,怎么就被你吃掉了个万字?这个要算一局300手的话,那就是10万棋局(其 ...

    晨老大对现代科技有点脱节。

    该用户从未签到

    11#
    发表于 2016-3-14 09:33:40 | 只看该作者
    晨枫 发表于 2016-3-14 06:21
    对了,第二定理针对闭合系统,把这“闭合”也加进去了。

    太阳对地球做工也解释不了恐龙可以变成石油,但 ...

    第二定理只说在闭合系统内部熵不会减少,并不是说只要有外部做功就什么都有可能。恐龙变石油是一个非常irreversible的过程,石油要变恐龙,那就要把整个进化过程再走一遍了

    至于人工智能,因为它是基于物质基础(CPU,储存等等),要运行一定要有电。这个电的输入就保证了它不是一个闭合系统,第二定理就不一定适用了。

    手机版|小黑屋|Archiver|网站错误报告|爱吱声   

    GMT+8, 2024-11-5 17:28 , Processed in 0.052487 second(s), 22 queries , Gzip On.

    Powered by Discuz! X3.2

    © 2001-2013 Comsenz Inc.

    快速回复 返回顶部 返回列表