设为首页收藏本站

爱吱声

 找回密码
 注册
搜索
查看: 14653|回复: 82
打印 上一主题 下一主题

[科技前沿] 人工智能会成为人类智能的终结吗

[复制链接]

该用户从未签到

跳转到指定楼层
楼主
发表于 2016-1-29 14:15:35 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
本帖最后由 晨枫 于 2016-1-29 08:39 编辑
% \# ~* ~  P) [: X, B+ ?' q5 W5 A" G) P
. ?2 A# n$ F- h! [6 s& |9 I: m% Y谷歌的AlphaGo战胜欧洲围棋冠军,引起轰动。人工智能是否会成为人类智能的终结,再次成为热门话题。( T/ Z+ K. y, P" Q3 t6 L$ B( f
" J0 I2 y0 ]' {. z) p$ j" X
计算机在国际象棋里战胜世界冠军,这已经是好几年前的新闻了。围棋比国际象棋更复杂,计算的复杂性是高得多的层次,一般认为不可能靠穷举法计算出正确步骤。谷歌AlphaGo在人类专业对手不让子的情况下,5:0大胜,这确实是惊人的成就,但这依然应该放到大框架下来看。围棋尽管复杂,但依然是有限问题,只有有限的棋盘、有限的棋子。靠穷举法已经不可能,但机器学习、深度学习可以看作更“聪明”的穷举法,只是通过学习减少需要穷举的组合,极大地提高了穷举的效率,相当于研究前人的精华棋谱,掌握在一定棋局时的成功应对路数。谷歌AlphaGo还可以自己与自己对弈,快速积累经验,储存更多成功的棋局,用于实战时的指导。这与人类下棋时并无原则不同,好棋手走一步看两步,这看两步其实也是在评估不同走法的优劣,其中经验(包括来自棋谱的间接经验)指导了评估和测试的方向,减少了无效的“胡思乱想”。; d( U/ ~9 |# S# r( `5 L! t# T! z

; a) U- V+ P5 s3 |  [4 K, i! U! V随着CPU速度的提高、内存容量和速度的提高,计算复杂性的门槛越来越高,机器学习使得“智能比较”和“智能穷举”越来越现实,很多过去认定不可能破解的问题现在可以破解了。按某种估计,围棋的复杂度是10的170次方,比国际象棋的10的47次方多100多个0,换句话说,计算机战胜围棋世界冠军也只是一个时间问题。但这就是人工智能吗?究竟什么是智能?事实上,人类对于智能并没有统一、精确的定义。在某种意义上,这和泛泛的“好”一样,只是相对于“坏”。智能只是相对于愚钝而言。
3 [2 Q- ~5 J" m! K, `0 D; D$ X& c! T, s! e9 I
人类智能的最大特点其实在于突变和急智,在于灵机一动、超常思维和创造性。纯经验的思维与条件反射没有本质差异,谈不上智能。在有限棋盘、明确规则情况下,如果能突破计算复杂性的障碍的话,纯经验、穷举法是可以找到最优解的。但换到无限棋盘、模糊甚至动态规则的情况下,纯经验、穷举法就不灵了。赵括的故事人人知道,这不是兵书的错,而是对棋盘和规则的理解错误。熟读唐诗三百首依然只是鹦鹉学舌,单靠这是成不了李白杜甫的。法律是人类智能能做到的最明确无误、最没有歧义的文字,但法庭判决依然不可能由计算机做出,因为再明晰的法律条文依然有模糊的边界,再清楚的被告行为依然有模糊和多义的解释。具体到计算机下围棋上,如果开盘时临时把棋盘加大一倍,棋子增加,人类棋手和计算机棋手都会大吃一惊,但人类棋手会根据经验和原则边摸索边继续下棋,计算机也会,但先前的“机械记忆”的经验就不一定有能力外推到新的棋局了,可能要从头来起。有足够运算速度的话,依然可以边考虑下一步对策,变自我大战3000万个回合,迅速积累经验,但利用前人棋谱这样的学习就难了。
: M/ x7 X# ]" d) [
5 V& [" X4 @- C! F人类对于自身的智能依然缺乏理解,尤其是对于突变思维缺乏理解。人工智能按照人类对智能的理解来实现的话,在本质上无法突破这个极限,就好象在二维空间里怎么划道道,也成不了三维的图像一样。除非人类对于自身的智能有了突破性的理解,人工智能终结人类智能的可能性并不存在。但人类理解自身智能可能有逻辑和哲学上的怪圈,自己不可能真正理解自己。这就像永动机一样。
$ Y" }7 s7 g- j/ J6 s0 F
; y5 d5 |' @( v3 Z0 `* V1 O但纯经验的人工智能依然可以在明确定义、可重复的任务中达到人类的程度。比如说,早已没人试图在心算中打败计算机了。即使是只可意会不可言传的厨艺,只要可重复,人工智能就能做到。可能缺乏点灵性,但口味还是有保证的。这对人类意味这什么呢?这逼着人类向着智能型发展,只有机器想不出、做不到的事情,才是人类的保留地。这和机器时代正好相反,那时是只要机器能做的,都交给机器去做。英文中有一句话,even a monkey can do it,意思就是说,根本不需要懂脑子。在人工智能发达之后,if a monkey can do it, a monkey will do it, there will be no place left for you。/ k, C1 I. l# B8 {, |8 o+ X

) m+ g# }2 R: {5 Y未来社会将高度重视教育和思考,体能、敏捷反而成为修身养性的东西,因为人类的体能和敏捷不可能超过机器,只有人类的创造性思维才是优越性所在。

评分

参与人数 8爱元 +28 收起 理由
希宝 + 2 谢谢分享
煮酒正熟 + 6
坚持到底 + 4 谢谢分享
holycow + 4 淡定
tanis + 2 谢谢分享

查看全部评分

本帖被以下淘专辑推荐:

  • TA的每日心情
    无聊
    2016-1-14 10:34
  • 签到天数: 2 天

    [LV.1]炼气

    沙发
    发表于 2016-1-29 16:23:50 | 只看该作者
    我认为人工智能取代人类的大脑是必然的,这也是科学发展水平所必须的。
    0 h% L  b, [: e+ R) U- |* v- _0 g& W+ ^' D6 D  t+ {
    只不过现在就说人工智能已经和人类的大脑不相上下,为时过早。
    回复 支持 2 反对 0

    使用道具 举报

  • TA的每日心情

    2020-11-20 06:24
  • 签到天数: 1618 天

    [LV.Master]无

    板凳
    发表于 2016-1-29 17:19:35 | 只看该作者
    樊麾根本没有职业棋手的水准了,从国少离开后没在一线混过。
    0 G4 M( M" n# F4 v- f4 u- @
    ; u, U: g- L  c8 n2 z# |9 r这五盘棋也没看到飞刀,打劫这些体现人类急智和判断的东西。
    6 I& s; k8 t. d! {7 F1 h
    1 P1 x# |+ F  b2 H/ z- E3 n, ?飞刀是指开局时定式下发的突然变招,很多都是有陷阱的,对手应对不当,会马上陷入被动。0 g/ `! B' q' I* N

    ! R+ w# K9 a4 {9 Y7 H打劫则是在寻劫材方面,很多虚的判断,比如转换后,实地的变化可以计算,厚薄就比较困难。这计算结果就会影响应手,导致下面的流向变化。" m* H4 ?6 }* r) A- d2 s$ d3 e8 z
    ! s! x& K% S2 a- i7 v
    罗洗河放弃三劫循环大胜崔哲瀚的,不知道谷歌的程序怎么判断。
  • TA的每日心情
    慵懒
    2018-8-13 22:22
  • 签到天数: 188 天

    [LV.7]分神

    地板
    发表于 2016-1-29 17:40:18 | 只看该作者
    感觉人类的所谓智能必须包括会犯错误吧,并且一直以来对物种来说能够承受错误的后果。
    # p# n# x1 ~+ u而人工智能设计的主观目标之一肯定是不犯错误。
    : y9 Y. s( _1 L. U- z如果人工智能的发展仅是超过人类大脑,应该是可以实现的。但人类智能会搭错线的特点也势必会延续,则超强大的人工智能的某钟错误可能是其无法承担的,并将导致人工智能自身的灭亡。$ g" I& ]2 o9 Q. m2 D( i
    于是,超人工智能在某个位面中也许曾大量存在并灭绝过。
  • TA的每日心情
    慵懒
    2016-5-30 10:08
  • 签到天数: 197 天

    [LV.7]分神

    5#
    发表于 2016-1-29 17:50:37 | 只看该作者
    回复

    使用道具 举报

  • TA的每日心情
    慵懒
    2020-1-3 00:51
  • 签到天数: 71 天

    [LV.6]出窍

    6#
    发表于 2016-1-29 17:52:45 | 只看该作者
    自主思考是关键问题。当AI能问出我是谁,从哪里来,到哪里去时,就可以做个合格的高校门卫袅。

    点评

    伙呆了: 5.0
    伙呆了: 5
      发表于 2016-2-1 19:45
  • TA的每日心情
    郁闷
    2016-2-4 15:19
  • 签到天数: 7 天

    [LV.3]辟谷

    7#
    发表于 2016-1-29 18:00:57 | 只看该作者
    以前我在学校上政治课的时候,曾经写过一篇:计算机-人类的掘墓人的文章。被老师传阅,认为说的很有道理。
  • TA的每日心情
    慵懒
    2016-1-18 00:00
  • 签到天数: 62 天

    [LV.6]出窍

    8#
    发表于 2016-1-29 20:03:11 | 只看该作者
    dasa 发表于 2016-1-29 18:00* w/ v1 g; D, I
    以前我在学校上政治课的时候,曾经写过一篇:计算机-人类的掘墓人的文章。被老师传阅,认为说的很有道理。 ...
    7 \) z) s: l# \% }/ ~# f# V
    你好,半仙!
  • TA的每日心情
    开心
    2023-1-5 00:48
  • 签到天数: 2591 天

    [LV.Master]无

    9#
    发表于 2016-1-29 20:44:33 | 只看该作者
    只要文章翻译没有解决鬼话连篇问题,就别扯什么人工智能的伟大前景了。
  • TA的每日心情
    擦汗
    2019-6-16 23:34
  • 签到天数: 1277 天

    [LV.10]大乘

    10#
    发表于 2016-1-29 20:51:02 | 只看该作者
    dingzi 发表于 2016-1-29 04:404 k; y, b: k+ t. S/ ^* ~
    感觉人类的所谓智能必须包括会犯错误吧,并且一直以来对物种来说能够承受错误的后果。+ q0 P; }$ X2 b, O# k
    而人工智能设计的主 ...

    $ d4 S! ~; @1 F3 [9 ]% g* F. Q9 UAI 没说不能犯错。现在早已经是概率判断了。
  • TA的每日心情
    擦汗
    2019-6-16 23:34
  • 签到天数: 1277 天

    [LV.10]大乘

    11#
    发表于 2016-1-29 20:54:32 | 只看该作者
    你这个判断基于早期AI的经验。对未来的AI发展判断没有依据。
  • TA的每日心情
    慵懒
    2018-8-13 22:22
  • 签到天数: 188 天

    [LV.7]分神

    12#
    发表于 2016-1-29 22:01:59 | 只看该作者
    冰蚁 发表于 2016-1-29 20:51. Q6 I! S# M1 K5 k. a' ]# _1 j) K
    AI 没说不能犯错。现在早已经是概率判断了。
    ' q. P5 r1 Z) u1 `" ^* Z
    谢谢。我再想想。

    该用户从未签到

    13#
     楼主| 发表于 2016-1-29 22:31:55 | 只看该作者
    史老柒 发表于 2016-1-29 02:23
    7 x2 _! o, s0 t9 M我认为人工智能取代人类的大脑是必然的,这也是科学发展水平所必须的。
    # W+ ~& V2 Z0 r# K, Q7 f4 ]
    2 s4 Z+ o, P- |2 o# t8 }8 i6 I8 |! \只不过现在就说人工智能已经和人类 ...
    / j: o0 y% R, I' p% V4 B
    我认为从哲学层面上来说就是不可能的,就像永动机一样。不过现在还没有人在理论上证明必然还是不可能,先存着。

    点评

    永动机已经违反了物理学基础了,必然不可能,但人工智能取代人脑我认为不是问题,是肯定能取代。  发表于 2016-1-30 10:33

    该用户从未签到

    14#
     楼主| 发表于 2016-1-29 22:32:58 | 只看该作者
    燕庐敕 发表于 2016-1-29 03:19
    / _( Q0 ^8 B$ b& {; [樊麾根本没有职业棋手的水准了,从国少离开后没在一线混过。
    8 K" e  a4 G+ Z: o; g! X3 m$ [& K- D* ^& R% k' b+ G
    这五盘棋也没看到飞刀,打劫这些体现人类急智 ...
    6 l* ]3 l; A; p/ L; z
    至少在理论上,谷歌AlphaGo可以把飞刀和打劫的情况也考虑进去,这就是穷举法的威力了,通吃!

    该用户从未签到

    15#
     楼主| 发表于 2016-1-29 22:41:58 | 只看该作者
    dingzi 发表于 2016-1-29 03:40+ M9 f; g! Z8 p" V
    感觉人类的所谓智能必须包括会犯错误吧,并且一直以来对物种来说能够承受错误的后果。
    3 u+ L# A% a6 |9 R3 G而人工智能设计的主 ...
    % m; N; s- c/ ?) k
    犯错误是肯定的,赵括不就犯错误了嘛,还有前赴后继的贪官。但正如你说的,对物种来说,能够从错误中学习,适应,所以能够承受错误的结果。人工智能的设计目标是不犯错误,但这与人类思维没有原则差别,人类行为在主观上也不是想犯错误。

    该用户从未签到

    16#
     楼主| 发表于 2016-1-29 22:42:37 | 只看该作者
    dasa 发表于 2016-1-29 04:00
    4 i$ z; b$ o" s3 Y; b+ w& U以前我在学校上政治课的时候,曾经写过一篇:计算机-人类的掘墓人的文章。被老师传阅,认为说的很有道理。 ...

    7 m# F7 Z0 {- ?" m现在还找得到吗?贴出来看看?

    该用户从未签到

    17#
     楼主| 发表于 2016-1-29 22:43:52 | 只看该作者
    冰蚁 发表于 2016-1-29 06:54
    1 h& [4 d' D) s, d9 p你这个判断基于早期AI的经验。对未来的AI发展判断没有依据。

    4 S* [- m5 o( F! {& d同样的话也适用于永动机:“你这个判断基于早期永动机的经验,对未来永动机发展判断没有依据。”
  • TA的每日心情
    擦汗
    2019-6-16 23:34
  • 签到天数: 1277 天

    [LV.10]大乘

    18#
    发表于 2016-1-29 22:48:02 | 只看该作者
    晨枫 发表于 2016-1-29 09:43
    ( M1 ?- R* U$ L2 {同样的话也适用于永动机:“你这个判断基于早期永动机的经验,对未来永动机发展判断没有依据。” ...

    # D5 z. @9 }# \' l9 v永动机是物理定律给限死了。AI 有什么物理上的限制?

    该用户从未签到

    19#
     楼主| 发表于 2016-1-29 22:51:26 | 只看该作者
    冰蚁 发表于 2016-1-29 08:48: K+ y& C0 S+ Z
    永动机是物理定律给限死了。AI 有什么物理上的限制?

    ; K. s  p/ c3 z) ]" Z这不是普通的物理定律,而是哲学层面上的。不理解这个差别,就会钻牛角尖。物理定律还有适用空间呢,能量守恒、物质守恒都是物理定律,但给你来一个能量物质转换,定律哪去了?

    点评

    +1  发表于 2016-1-30 03:29
  • TA的每日心情
    擦汗
    2019-6-16 23:34
  • 签到天数: 1277 天

    [LV.10]大乘

    20#
    发表于 2016-1-29 23:04:14 | 只看该作者
    晨枫 发表于 2016-1-29 09:51
    ) p# {- T- o, W4 T7 M) X这不是普通的物理定律,而是哲学层面上的。不理解这个差别,就会钻牛角尖。物理定律还有适用空间呢,能量 ...

      u: P% N( l  |& E7 j7 ]8 ^. t3 @- X大哥,你在说啥呢?能量物质转换什么时候成哲学层面的东西了?

    手机版|小黑屋|Archiver|网站错误报告|爱吱声   

    GMT+8, 2026-2-20 03:25 , Processed in 0.071759 second(s), 24 queries , Gzip On.

    Powered by Discuz! X3.2

    © 2001-2013 Comsenz Inc.

    快速回复 返回顶部 返回列表