神牛说的对。模型只能找出存在相关性的因素来。比如最常见的general linear model,左边一个y,右边一长串x. 人脑的作用就是确定什么是y. 比如我知道我2016年1月份有五百万人买我的医疗保险,我可以做两个预测,一是这五百万人,哪些人会在下个月就跟我说拜拜,哪些人会在三月份说拜拜... 以此类推,这就是所谓的survival prediction. 另一个预测是,这五百万人,人均每月会产生多少医疗和医药费用。
对前一个预测,number of months they'll stay with me 就是我的y. 其他的,他们的年纪,他们已经在我这儿呆了多少个月,他们有没有慢性病.. 等等,就是我的x. 如果一个人,是我多年的客户,而且有慢性病,另一个人今年1月份才成为我的客户,而且年轻,身体健康,那么显然前面那个人比后面这个人更有可能呆的时间更久(因为这个人有病,经常需要看医生,而他呆了这么多年都没换保险公司,说明他对我们公司提供给他的network比较满意,如果硬换保险公司,他没把握新保险公司提供的network和我们的一样好)。谁可能导致谁,这个是人脑做出的判断。建模,是要在人脑做出这些商业性的也是艺术性的判断之后,才能开始的。
哈,这就和我的理解差不多了。我对这些机器学习、人工智能从来不相信,they have their places, but they are no magic。因为自控里50年前就把这路走过一遍,现在已经形成共识:there is no math-magic。任何人要是兜售“我这个先进控制可以不需要对过程的理解,先进数学可以自动形成可靠的控制”,马上把他打出去,骗子一个!自控里有一个东西叫自适应,就是非常初级的机器学习、自我调整,但这条路走得越深,越发现这只是把问题重新包装一下,原来没有解决的问题换了一个形式还在那里。数学控制理论里有一个“不变性”的说法,你可以绕过来绕过去,但问题的本质是“不变”的。我是没有干劲在理论里钻进去,也没有这个金刚钻,但自控里有一个可控性的概念,如果系统是不可控的,不管你用什么控制方法,都不可能控制系统状态。人工智能能做到的是更快,但不可能理解或者超越人类思维的突变性。深刻理解和细微观察的作用在于最终导致突变性思维,灵机一动,这是机器学习不可能做到的。