你的理解是对的。。
AI的结果是没有绝对可靠性的,这是和古典意义函数根本不同的。这个算法不保证正确性 ...
“AI的结果是没有绝对可靠性的”
什么模型不是这样?
“古典意义的函数”到底指什么?蒙特卡罗仿真每运转一次,得出的结果都有些差异。只有大量重复运算,才能得到“统计意义”上的“确定结果”,这与你说的有多少差别?
任何模型的因果性vs相关性都是人类在建模时决定的,这不是AI模型特有的问题。 WiFi 发表于 2025-8-18 13:02
凭什么AI“计算”出来的”王二麻子早上吃烧饼就会日出”的结论不正确?这也说明经过“训练后”的AI的输出 ...
“而传统的计算是不以人的意志为转移的。人要根据计算结果修正自己的认知。”
哈,这个statement的问题实在太大太大啦。{:187:} 本帖最后由 数值分析 于 2025-8-19 15:20 编辑
你的理解是对的。。
AI的结果是没有绝对可靠性的,这是和古典意义函数根本不同的。
作为人类,俺落入了主观主义,以人为唯一中心的非科学的陷阱。。。
你讲的对的。
这转折,要不是早就认识,我都怀疑你是AI了,专门提供情绪价值。。。(手动狗头) 数值分析 发表于 2025-8-19 02:17
这转折,要不是早就认识,我都怀疑你是AI了,专门提供情绪价值。。。(手动狗头) ...
俺现在已经是硅基文明的带路党啦。。。。且称为碳贱(奸)。。。{:191:}
二十多年前,我也在多伦多大学搞图像处理。是辛顿给我介绍神经网络的,就是现在AI的前世。。。当时,俺相当不看好神经网络,一是很耗费计算资源,二是结果不靠谱。。。当然,二十年来,俺被狠狠打脸无数次{:196:}。。。。
所以,俺皈依了。。。{:189:}。。。 赫然 发表于 2025-8-19 21:18
俺现在已经是硅基文明的带路党啦。。。。且称为碳贱(奸)。。。
二十多年前,我也在多伦多大学 ...
啊,原来你直接受Hinton的指导啊,请接受我的膝盖。{:191:}
40年前,读完他的反向传播算法,俺出山就高峰,相关工作接连获得两个省部奖,在学校小小惊艳了一把。
和你一样,俺也不太看好神经网络,不过俺的原因是神经网络只讲拟合,不讲逻辑,不能追根问底,俺不喜欢。{:189:} testjhy 发表于 2025-8-19 09:33
啊,原来你直接受Hinton的指导啊,请接受我的膝盖。
40年前,读完他的反向传播算法,俺出山就高峰 ...
服拜T教授!!!
一边不看好,一边成为人工智能大佬!!!{:222:}
俺觉得神经网络不靠谱,也主要是它不讲逻辑。。。太可怕了。。。俺这个工科生接受不了呀。。。没想到,人类其实和这种不靠谱非常相似,非常和谐。。。这是什么事儿呀。。{:197:}。。。俺还是幼稚了。。。
Hinton是俺导师的老乡和好友,我被介绍过去拜会他,请他给我们项目中图像处理的思路把把关。。。,
俺当年可没觉得他以后会是诺奖的。。。诺奖根本没有计算机的事儿呀。。。{:214:}
没想到呀没想到。。。。
晨枫 发表于 2025-8-19 08:40
呃,“统计意义上的东西就不是依据计算方法和判据的!”这个结论是怎么得出的?
AI训练在本质上和回归模 ...
好吧,我不懂,投降了{:190:} testjhy 发表于 2025-8-19 08:33
啊,原来你直接受Hinton的指导啊,请接受我的膝盖。
40年前,读完他的反向传播算法,俺出山就高峰 ...
“神经网络只讲拟合,不讲逻辑,不能追根问底”。
太同意了。这也是我对AI“多A少I”的基本认知的原因。
页:
1
[2]