爱吱声

标题: 还有什么是AI不能做的? [打印本页]

作者: 就爱抬杠    时间: 2019-2-7 08:52
标题: 还有什么是AI不能做的?
柏拉图在《理想国》中提到的洞穴囚徒故事,很形象地说明了千百年来人们关于如何认识这个世界的困惑。他把人们在现实世界中的生活比作在阴暗洞穴里的居留。洞穴中的人们戴着镣铐,背向出口,只能勉强看到被火光投射在洞壁上的东西的模糊的影子,这就是人们对现实世界的认识。即便有某个囚徒从洞穴中逃出面对现实世界,他在认识和理解这个世界时也将面临无法克服的困难。* A4 P4 [; _* c( E
事实上,囚徒也根本分不清自己还在洞穴里,还是已经逃出了洞穴;看到的到底是影子,还是真实的世界。但即便他“看到”的确实就是真实的世界,所谓的“看到”也不过是真实的世界所发射或反射的光线通过视网膜和视神经在大脑中形成的认知。谁能说每个人所认知的“红色”都是一样的?人们所能确定的只不过是对于同样的颜色,彼此之间有着同样的语言描述,但同样一种颜色在人脑里的映射以及所带来的感觉和联想,对于每个人来说都是独特的,不一样的。0 ?' `4 T2 X- ?( l# `6 S. C) w
但深究所谓的“一样”究竟是什么含义有那么重要吗?同样的事物,从不同的角度去“学习”,过程可能不一样,总结的“规则”(如果有的话),也可能不一样。但如果依据的判断标准相同,依然可以做到“殊途同归”,做到结果一样。
$ P- D0 ]% c& T: P. g  K5 c例如阿尔法狗学习围棋,输赢的判断标准是十分确定的。阿尔法狗在这里要解决的问题,就是建立一个模型,对每走一步以后的形势进行评估,选择赢面较大的那一步就好。至于这个模型是否够好,则可以通过无数次的“学习”来检验并不断改进。阿尔法狗并不能通过某种逻辑推理来证明该下哪一步,它只要知道哪一步赢得概率大些就可以了。; r: G) a- G3 \
一开始,阿尔法狗还是通过对人类棋谱的研究来校准自己的模型,后来发现这并不是最好的方法,因为人类对于围棋的认识总要归纳为某种“规则”或者“感觉”,但阿尔法狗并不需要这样,它只需要计算概率。所以后来的“超级狗”已经不需要借助人类已有的认识,它完全可以从零开始,而且效果更好。但不管怎么样,这都还是在下围棋,判断输赢的标准还是一样的。这就是AI做事的关键所在,它必须有明确的标准。要么是确定的规则,要么是人为给定的训练数据,总之,依据必须确定。# a% E( ]# O3 w$ \( H+ E
当然,AI也有所谓的“无监督学习”,事先并不设定规则,只是从一大堆看上去杂乱无章的数据中找出分类规律来,这又是怎么回事呢?波普尔在《猜想和反驳》中曾经讲过一个故事:他在上课的时候跟学生们说“拿出铅笔和纸来,仔细观察,写下你们观察到的东西”。学生们都不动,纷纷问波普尔到底要他们观察什么。
/ Q; a7 _' G6 ~$ C! Q所以说,观察(数据)一定是有选择的,必须选定观察的对象,以及相应的任务、兴趣、观点和问题,同时还必须以相似和分类为前提。其实,只要有一堆数据放在那里,这些就都已经确定了。例如把2个苹果和2个香蕉记作2、2,就说明关注的是数量;当然也可以关注颜色,大小,味道,是否能剥皮……如果把能想到的所有性质都输入进去,那AI也没法知道你要干什么,也没法进行分析。总之,即便在这种情况下,依据其实也是确定的,只不过需要再走一步来确定而已。8 u" X' i1 a: a
但人类文明发展到今天,已经脱离了大自然的预期和控制。“适者生存”是自然界的法则,但人类居然发展出了能毁灭自己的大规模杀伤性武器,并且随时有可能使用,完全背离“生存”这一根本目的。同样的,人类也发展出了“道德”和“价值判断”,而这些是没有办法做到“标准确定”的。+ l9 p4 j( A; x' ^3 Y
王小波在《思维的乐趣》中说,“我认为,在人类的一切智能活动里,没有比做价值判断更简单的事了。假如你是只公兔子,就有做出价值判断的能力——大灰狼坏,母兔子好”。当然,王小波的这个例子只是比喻,本质上而言公兔子的这个“判断”还是符合“适者生存”的标准的。在这里,王小波真正的意思是,凡是涉及所谓“美”和“善”等需要作出价值判断的事情,智能活动是无能为力的。究其本源就是因为判断的标准可能因人、因时、因地……而异,并不需要理由,“你高兴就好”。
+ P1 I# g7 V' H8 x2 n/ ?这些方面人类的智能活动都无能为力,AI就更不用提了。阿尔法狗可以轻松战胜任何人类棋手,但如果要求它同时还要模仿武宫正树走出宏大的“宇宙流”,却是难以做到的。那么,未来AI有没有可能也发展出自己的“道德”和“价值判断”呢?很难说。如果真到了那一天,AI和人类也没有什么区别了,我们就很难说他们还是“人工智能”,而不是“智能”。再说,以现在技术的发展速度,会不会在不久的将来,人类就会以更耐用的“硅基”作为生命的基础,而非现在脆弱的“碳基”,以至于人类和“人工智能”完全无法区分呢?谁也不好说。毕竟,生命的本质是信息,而不是其他。) ~2 e! R) P# N& g

作者: 老兵帅客    时间: 2019-2-8 10:36
本帖最后由 老兵帅客 于 2019-2-7 21:37 编辑 ' d- U$ @2 K" L
0 V1 s; R! W; u+ R7 n4 e/ d% I/ Q
没那么邪乎,人类知识以及道德其实就是两条:
' E/ {; ^1 \3 D2 Y
2 ~% m1 A: c( R. f; F第一。需要决定供给。
; E7 c% U: M5 F! n: F
5 ?2 _8 h8 {0 c" C/ V9 a! H第二。有些其实是装逼。
5 N) X- }1 _5 G% Q- s( g7 J2 E! @% a
* D: u) q/ r1 A1 z0 @7 p人工智能只要给其足够的学习时间,一样可以做得到。问题在于足够的学习时间意味着成本,这个在商业上是否合算,如此而已。* u  p8 `! H# c" }  F/ P
9 j  L0 H7 r3 L
人的学习时间可以长达十几年甚至三十年,而对很多事情的真正理解要到四十岁以后。给一个商品四十年的学习时间,哪怕由于技术的进步能缩短到其十分之一,其建造时间成本也将高达四年,这样的成本实在是太高了。4 d, y0 n( S" j- c- q, x- f/ \

9 Q$ f* P+ K0 R. t1 p/ [% ]举个例子,微软曾经弄出来一个机器人对话程序,以实现人机对话。这个实现没有设定学习约束,结果这个程序很快被人带坏,满嘴脏话,使得微软不得不下架这东西,这个就是学习时间和学习限定的问题了。
作者: 就爱抬杠    时间: 2019-2-8 11:08
老兵帅客 发表于 2019-2-8 10:36" K9 L0 R4 u* k# e4 X0 T# e* l. o4 |" `
没那么邪乎,人类知识以及道德其实就是两条:6 j2 e4 e7 ]5 ]& p5 v: Z8 [

9 l" o! ~' j: u第一。需要决定供给。
3 |  |2 O: ^& {; h, z3 \8 b* B! a8 n4 [
时间不是问题,标准才是问题。目前的算法,没有标准就没法往下算。




欢迎光临 爱吱声 (http://129.226.69.186/bbs/) Powered by Discuz! X3.2