类反词典 发表于 2017-8-23 21:41:27

集成电路工艺演进的一些数据分析

本帖最后由 类反词典 于 2017-8-23 21:40 编辑

集成电路工艺演进规律分析。以Intel实现工艺的节点为数据。1、摩尔定律非常可靠,从1971年10um工艺开始到目前,只有1985-1994年的9年偏离了摩尔定律。在这之前和之后的线性度都非常高,而且之前和之后的两条线几乎平行。2、1985-1994年是微米工艺进化到亚微米工艺的门槛,另外应当受到苏联解体的影响,资本市场扑向苏联尸体导致半导体投资下降。3、从1995年开始自今,工艺发展几乎是恒定的2年一代。只有两个例外,2001-2004年130nm到90nm,2014-2017年14nm到10nm,各为3年。两个例外都涉及到跨越尺度数量级,应当不是巧合,而是一代工艺适应范围差不多刚好一个尺度数量级的原因在里面。另外911也可能是2001-2014年例外的重要原因。4、现在2014-2017的趋势有两个参考,一个是1982-1985,一个是2001-2004。两个参考均是夸尺度数量级,两个参考均是在原发展趋势下速度略微下降。5、按照1982-1985的趋势发展,后续过程是粉线。预计约2035年跨越1nm尺度。我乐观认为现有工艺应该可以支撑到1nm尺度而不需要大规模使用量子器件,因为SiO2绝缘层可以做到大致1nm厚度量子效应还可控制,因此做1nm的结构量子效应应当是可以控制的。6、按照2001-2004的趋势发展,后续过程是黄线,大约在2030年达到1nm尺度。1nm再往下,是集成电路发展遇到的第四个数量级尺度,应当无法用当前的工艺解决了。换句话说,现在的CMOS体系大约在2030-2035年之间达到顶峰,离现在13-18年,之后很可能是不可避免的衰落。7、综合各方面的信息,TG可能在2020年量产28nm光刻机。为什么是28nm?有几个原因,一个是28nm及更高级工艺只要适当调整工艺参数就可以生产抗辐照器件,而尺度超过28nm的器件必须采用抗辐照设计。另一个,国内上28nm线也是最近的事,配套研发应该符合预期。如果这个计划成功,后续发展也类比过去的经验,那么国内工艺发展如青线。这里假设国内工艺发展在跨越10nm数量级时也踩到国外同样的坑。
与集成电路工艺高速发展相关的一个热门领域是人工智能,目前很多人对人工智能“超越人类”感到担忧。那么具体看看是否有可能。首先是人类神经系统表观运算速度的估计。1、神经元个数:大脑平均21G,全神经系统平均86G来源https://en.wikipedia.org/wiki/List_of_animals_by_number_of_neurons2、 每个神经元树突数量:通常有数千,最多可达一万,按照5000估算,每个树突相当于一个乘一个加,因此算等效2次运算,故此项以10000估算部分数据来源:https://en.wikipedia.org/wiki/Dendrite3、 神经元运算频率:100Hz这一项比较复杂,各种研究也差异很大。按照http://aiimpacts.org/rate-of-neuron-firing/的说法,神经元平均激活频率约0.1-2Hz。但是,神经元“激活”等效于输出>0,而输出=0的情况都是未激活。在现在的硬件设计下,输出0也是需要消耗等效计算量的。按照神经细胞的“不应期”估计,极限频率在250-1000Hz。另外大脑中有30-70Hz的震荡https://en.wikipedia.org/wiki/Neural_oscillatio,小脑中还有最高150Hz的震荡https://en.wikipedia.org/wiki/Purkinje_cell。综合各种情况采用100Hz这个便于计算的数字。 综合1-3项,大脑表观计算速度约21P,全神经系统约86P。当然,目前的电子计算机系统的计算效率远远不如神经系统,因为神经系统可以高效处理0(无连接即可表示0),而计算机系统必须浪费大量的计算量于0,即使采用了很多优化措施。因此计算机系统要真的达到人类的计算能力,估计计算速度要多2-3个数量级才够。不过,在摩尔定律的魔咒下,2-3个数量级什么的实在弱爆了,不过10-15年时间而已…… 如果进化论成立的话,在大量计算机系统实际运算速度超过人类大脑甚至全神经系统,并且持续不断地给它输出大量数据进行处理,那么很难否定机器进化出“机械灵魂”。这可以参考TOP500榜单。TOP500的数据只有1985-1994“滑坡”之后的数据,还没有遇到集成电路工艺卡壳的考验,因此其线性度非常好。按照这个趋势,TOP500最后一名在约2022年中突破21P,在2025年突破100P。选择关注最后一名,是为了让这个世界有足够多的“机口”。当然,如果集成电路工艺在未来几年卡壳,那么这个时间可能需要延后5-10年。那么,最迟2035年,全世界将最少有500台计算机运算速度超过100P。即使考虑计算机效率问题,那时的TOP1要更高2个数量级,应当可以与人类全系统可比拟了。如果在1nm处没有突破,2035年后计算机发展应当会遇到相当长的一个瓶颈期,除非量子计算取得突破。但是现在的趋势看来2035年前量子计算取得突破似乎希望不大。
这正好处于一个微妙的状态:计算机系统在接近压倒性超越人类计算能力的地方正好遇到发展瓶颈。这是一个巧合,抑或必然,还是根本不会发生?

cloudian 发表于 2017-8-25 02:10:37

我,约翰.康纳,来自2035年……

tanis 发表于 2017-8-25 06:32:47

cloudian 发表于 2017-8-25 02:10
我,约翰.康纳,来自2035年……

请往这个账号!@#¥%……&*()打5000块让我能阻止天网。

冰蚁 发表于 2017-8-26 00:58:28

本帖最后由 冰蚁 于 2017-8-25 13:23 编辑

1nm 我觉得不可能。5nm都够呛。另外,早就不用二氧化硅做绝缘层了。32nm就不用了,intel 更早。你这个二氧化硅做到1nm厚度有点莫名其妙。

28nm用得是193nm的光刻机,不叫28nm光刻机。193nm光刻机可以用到7nm技术上。从7开始EUV光刻介入。“尺度超过28nm的器件必须采用抗辐照设计”也是莫名其妙。器件抗辐射的设计是根据实际应用需求来设计的。和节点没有关系。

研发量产一个节点,一般是要5年时间。之所以现在看着是两年,是因为一般先进的公司里都有两三个组同时在做。而次一级的代工厂会在一个节点上停留很长时间。比如中芯国际的28nm就搞了很久。到现在也没有完全做好。

14nm花费的时间长一点是因为器件类型的转变,从平面转成了鳍式结构,而不是跨越尺度数量级的问题。130nm 到 90nm 是有尺度问题。进入 sub 0.1um 会有一些新的物理现象需要考虑。

江城如画里 发表于 2017-8-26 10:33:23

同意楼上冰蚁的观点,楼主有些地方描述的含混,也存在着技术上的漏洞。不过我觉得楼主的问题提的非常好,我建议可以从另一个角度去分析,就是自然选择与人工制造间的竞争。大脑就是自然选择出来的,而计算机和AI则是人工制造。这种竞争其实已经有多次了。有的成功,比如自然可以制造闪电,而人类有了发电机,能够更高发电;也有的看起来不成功,恒星的聚变方式是惯性约束,或者说引力约束,但是人类现在无法有那么大的空间和质量来搞引力约束,只能退而求其次用磁约束,然而磁约束现在看起来困难重重。
人脑和AI间的竞争有点类似上面说的两个。不过看起来目前人类方状态比可控核聚变还惨点。可控核聚变从理论上认知已经比较清楚了,而目前AI最热门的深度学习,还处在理论空白阶段。楼主提到的神经元数量是一个问题,然而它并不是本质。智能的涌现真的不是增加神经元就能解决的,就跟你用几十亿粒沙子堆在一起,也无法自发形成一片集成电路一样——虽然看起来化学成份类似。关键在于神经元的连接方式,而现在要命的就是没有一个理论指导,用何种连接方式才能让智能从这个结构中涌现出来。所以从现在看,可能真的需要阿西莫夫在银河帝国中提到的奇迹,否则AI比受控核聚变的进度还要差。

loy_20002000 发表于 2017-8-26 17:06:01

江城如画里 发表于 2017-8-26 10:33
同意楼上冰蚁的观点,楼主有些地方描述的含混,也存在着技术上的漏洞。不过我觉得楼主的问题提的非常好,我 ...

早年的心理学专注于研究人类的心智,现在的心理学适用范围越来越窄,最近二十多年都是在神经心理方面出成果。像认知心理学已经成神经心理学的附庸了。不管是认知主义、行为主义、精神分析学派都逐渐显现出其局限性。

我悲观地认为哪怕把所有化学、物理作用研究透彻,依然无法破解人类心智的关键。

有一点是可以确定的,人类的心智不是确定性的。有一些机制保证了人拥有近乎无穷的创造力,其关键在心智物理或化学活动的某些不确定性。破解这个谜题需要运气,某天一个科学家瞎猫碰上死耗子撞上一个奇怪的现象,大家一窝蜂研究几十年,最终明白究竟是什么情况。

类反词典 发表于 2017-8-26 20:02:53

冰蚁 发表于 2017-8-26 00:58
1nm 我觉得不可能。5nm都够呛。另外,早就不用二氧化硅做绝缘层了。32nm就不用了,intel 更早。你这个二氧 ...

1nm 我觉得不可能。5nm都够呛。另外,早就不用二氧化硅做绝缘层了。32nm就不用了,intel 更早。你这个二氧化硅做到1nm厚度有点莫名其妙。最早的集成电路都是用SiO2的,而且还用了很多代工艺。当时就可以做到1nm厚度了,因此我的结论是“1nm左右的量子效应是可以控制的”。至于是否是SiO2的结构,那是另一回事。不用SiO2不是因为量子效应,是因为电磁特性不满足后来的需求。“二氧化硅做到1nm厚度”它是一个历史事实,已经发生很多年了,似乎没有什么莫名其妙的地方。
28nm用得是193nm的光刻机,不叫28nm光刻机。193nm光刻机可以用到7nm技术上。从7开始EUV光刻介入。我权衡了很久,还是保留“28nm光刻机”的名字。因为这个名字普通人一看就懂,专业人士也一看就懂。语言最重要的作用就是交流,只要双方交流无歧义就是好的文字。
“尺度超过28nm的器件必须采用抗辐照设计”也是莫名其妙。器件抗辐射的设计是根据实际应用需求来设计的。和节点没有关系。
抗辐照有强度和单粒子两方面。强度方面,现在的屏蔽材料已经可以做得很好,因此芯片的抗辐照主要就是考虑单粒子。这是我找到的原理:从28nm以下,器件宽度足够小,单个器件积累的单粒子电离效应较难使器件状态翻转,因此器件本身无需特殊设计就有很强的抗辐照能力。从基本物理原理来说是合适的。根据公开的资料是,28nm SOI工艺只要适当设置工艺参数,生产的芯片就有较强的抗辐照能力。而28nm之前的工艺,芯片必须在电路级别采用抗辐照设计(针对单粒子,主要用纠错)。
研发量产一个节点,一般是要5年时间。之所以现在看着是两年,是因为一般先进的公司里都有两三个组同时在做。而次一级的代工厂会在一个节点上停留很长时间。比如中芯国际的28nm就搞了很久。到现在也没有完全做好。你说的是微观的具体工艺的研发与部署,我说的是宏观的全世界整体工艺进展,虽然宏观的结果总是微观的现象叠加出来的,但是二者似乎不是同一个问题。你不能用微观的一个组开发一代工艺需要5年时间否认全世界宏观的工艺2年迭代一代。
14nm花费的时间长一点是因为器件类型的转变,从平面转成了鳍式结构,而不是跨越尺度数量级的问题。130nm 到 90nm 是有尺度问题。进入 sub 0.1um 会有一些新的物理现象需要考虑。跨越出数量级“本身”从来不是问题。如果从微观来说,每代工艺发展必然都会有一些微观的问题需要解决,否则也不需要2年才能进步与代了。多代微观问题的叠加,在某些地方形成比较严重的问题,是事物的一般发展规律。历史数据表明,“某些地方”的周期大致上是一个尺度数量级,这应该是一个非常强的“人择”因素导致的(数量级在人的主观感受中是一个非常强的边界,因此很多经验公式、工程技术的设计指标如果没有特殊要求会考虑1个数量级的适应范围)。

总的来说,你阐述的更多的是微观的细节,我的帖子讨论的主要是宏观的现象,因此感觉关系比较弱。

类反词典 发表于 2017-8-26 21:25:56

江城如画里 发表于 2017-8-26 10:33
同意楼上冰蚁的观点,楼主有些地方描述的含混,也存在着技术上的漏洞。不过我觉得楼主的问题提的非常好,我 ...

同意楼上冰蚁的观点,楼主有些地方描述的含混,也存在着技术上的漏洞。完全同意,虚心接受,但是不准备修改。因为我认为我的文字并没有重大歧义,作为网帖讨论应当是足够了。

不过我觉得楼主的问题提的非常好,我建议可以从另一个角度去分析,就是自然选择与人工制造间的竞争。大脑就是自然选择出来的,而计算机和AI则是人工制造。“大脑就是自然选择出来的”你这么说,应当是准备全面接受进化论了。其实从科学的角度,进化论是一个非常强的假设。这是一个非常深的问题,反正我还没有考虑清楚。
“而计算机和AI则是人工制造”如果你准备接受进化论,这个就完全不成立。从最根本来说,如果人类智能是进化产生的,那么人类制造生产的东西本身也必然是进化产生的。另外,你下面说的“而目前AI最热门的深度学习,还处在理论空”更说明了问题:目前的AI算法并不是“人工制造”的,而是很多AI算法在“自然选择”的机制上脱颖而出产生的。
楼主提到的神经元数量是一个问题,然而它并不是本质。神经元数量本身当然从来不是本质。根据对人类智能的观察,我认为较为本质的一个因素是计算速度,因为计算速度低于一个阈值肯定不能产生人类智能。
智能的涌现真的不是增加神经元就能解决的,就跟你用几十亿粒沙子堆在一起,也无法自发形成一片集成电路一样——虽然看起来化学成份类似。如果你接受进化论,那么从超脱宇宙的视角看现在的地球状态,那就是“用几十亿粒沙子堆在一起”然后“自发形成一片集成电路”。就说从地球上沙子诞生的时候开始,到目前的状态,如果进化论成立,那么我们完全可以忽略之间的所有细节,你必须承认“用几十亿粒沙子堆在一起”然后“自发形成了无数集成电路”。这在哲学上完全没有问题。我前面说进化论在科学上是一个很强的假设,你可以在这里仔细思考一下。
关键在于神经元的连接方式,而现在要命的就是没有一个理论指导,用何种连接方式才能让智能从这个结构中涌现出来。同样,如果进化论成立,那么经过若干代的迭代配以适当的选择函数,“机械灵魂”必然诞生。问题的关键点:(1)需要多高的计算速度,(2)需要多长时间的迭代;(3)是否有适当的选择函数。这方面,显然人类是一个非常好的参考。
    从计算速度来说,我前面的帖子的估算已经给出了丰富的数据。从TOP#1来说,2013年中天河2号33P超大脑表观速度,2016年中太湖之光93P超全神经系统表观速度。考虑要保持一定“机口”数量的话,考虑TOP#500,这就遇到了集成电路工艺发展的问题。如果工艺发展没有遇到1985-1994的问题,那么TOP#500在2025年突破100P,2030年突破1E,2033年突破10E,前提是工艺可以发展到1nm节点。如果工艺发展遇到1985-1994的问题(这是我的预测),所有时间节点不过平移5年而已。10E应当可以实质性超越人类全神经系统表观运算速度了。这里可能有两个主要的问题:(1)工艺发展不到1nm(看起来业界多有这个观点,远不如我乐观);(2)神经元细胞内存在非常大的等效计算量(目前没有任何科学依据,但也没有完全否定)。
    另一方面是迭代代数的问题。人类从“具备灵魂所需运算速度”到真正产生灵魂,用了多长时间?这两个时间点都非常难以估计。现代人类显然很难承认黑猩猩等具有“灵魂”。如果从这点看,那么起点应不早与旧石器时代(250万年前),因为很多黑猩猩和猴子会用石器,只是没有打制能力。旧石器时代早期因为与黑猩猩等的差距较小,作为起点恐怕也是很难令人接受的,但新石器时代(1.2万年前)显然太近。中间的一个比较自然的时间为智人分化时间(20万年前)。从这些数据来说,智人分化时间作为起点(具备灵魂所需运算速度),新石器时代作为终点(产生灵魂)看起来较为合理,总时间为19万年,约1万代。
    现在估算AI的进化速度,即平均1代的时间。现在AI方向最热门的是视觉目标定位与识别,差不多4-6个月1个突破。1个突破意味着性能显著提升,而不是仅仅迭代1代。人类智力水平显著提升平均需要多少代?从历史文献来看,与春秋时期甚至先秦时期比,现代中国人似乎没有显著的智力优势。那是100-200代的时间。就取100代来估算,半年100代,计算机仅需要50年。计算机迭代的起点,比较合适的为1986(BP)、2006(DBN)、2012(AlexNet)。综合而言,在2050-2060年之间是比较合适的估算。
    剩下的最后一点是计算机是否有合适的选择函数可以选出“机械灵魂”。我的观点是计算机的选择函数远好与人类的,因为计算机完全是按照人类智能的模式在被选择,而自然选择完全没有方向。当然,这里可能会出现过拟合,但在数量大到一定量之后,过拟合不是一个严重问题。生物对环境的过拟合发生过无数次了(那么多的灭绝物种),生物整体仍然是在发展的。
    如果上面的估算在数量级上没有错误,如果进化论成立,我预测2050-2060之间会出现“机械灵魂”。当然,上面的很多估算都有可能在数量级上有较大的出入。另外,进化论成立是非常强的科学假设,如果它不成立的话,问题会非常严重......

红茶冰 发表于 2017-8-26 21:29:21

类反词典 发表于 2017-8-26 20:02
最早的集成电路都是用SiO2的,而且还用了很多代工艺。当时就可以做到1nm厚度了,因此我的结论是“1nm左右 ...

赞 回复很专业。
唯一有点不同看法就是国内可能量产的光刻机是22nm而且工作台可能使用磁悬浮控制,光源与镜头国内也自力更生好多年了,说不准啥时候可靠性就过关了。
另外 刚才点支持时误点到反对,你不会介意吧{:201:}

类反词典 发表于 2017-8-26 21:32:38

loy_20002000 发表于 2017-8-26 17:06
早年的心理学专注于研究人类的心智,现在的心理学适用范围越来越窄,最近二十多年都是在神经心理方面出成 ...

我悲观地认为哪怕把所有化学、物理作用研究透彻,依然无法破解人类心智的关键。如果进化论成立,这是无所谓的,人类并不需要破解灵魂的奥秘也可以制造出灵魂:宇宙显然没有“破解灵魂的奥秘”,也制造出了人类灵魂。所以我在前面的回复中反复强调进化论是非常强的科学假设。但是,我们却很难假设进化论不成立,因为如果进化论不成立,那么问题就更严重了......
有一点是可以确定的,人类的心智不是确定性的。有一些机制保证了人拥有近乎无穷的创造力,其关键在心智物理或化学活动的某些不确定性。破解这个谜题需要运气,某天一个科学家瞎猫碰上死耗子撞上一个奇怪的现象,大家一窝蜂研究几十年,最终明白究竟是什么情况。进化论的威力比全人类最夸张的脑洞可能都要大,真的。如果你真的能够客观地考查进化论的话就可以发现这一点。

红茶冰 发表于 2017-8-26 21:35:13

类反词典 发表于 2017-8-26 21:25
完全同意,虚心接受,但是不准备修改。因为我认为我的文字并没有重大歧义,作为网帖讨论应当是足够了。

...

华罗庚表示反对{:193:}
数学的核心价值不是在既定的概念体系下证明几个定理,而是创造一种概念体系,因为概念体系是人类对现实世界理解的进步。

数学机器证明永远不可能创造概念体系。

类反词典 发表于 2017-8-26 21:41:05

红茶冰 发表于 2017-8-26 21:29
赞 回复很专业。
唯一有点不同看法就是国内可能量产的光刻机是22nm而且工作台可能使用磁悬浮控制,光源与 ...

唯一有点不同看法就是国内可能量产的光刻机是22nm而且工作台可能使用磁悬浮控制,光源与镜头国内也自力更生好多年了,说不准啥时候可靠性就过关了。真是这样当然更好了。其实我的内心预测是在2017-2026西方工艺发展一如1985-1994,但TG工艺发展不会掉进同一个坑。1985-1994除了纯技术的原因,资本市场的原因也很大。提供TG真的2020年出28甚至22,那对集成电路工艺资本市场的冲击肯定是一场不亚于1985-1994的冲击。1985-1994是一个孤立事件,而TG工艺发展却是连续一系列重拳出击。因此,2026之后,西方工艺很难如1995年那样恢复,而TG因为坑已经被别人踩过了而幸免于难,对西方可以说是致命一击。

另外 刚才点支持时误点到反对,你不会介意吧http://www.aswetalk.net/bbs/static/image/smiley/tiger/15.gif完全没有关系:)

江城如画里 发表于 2017-8-26 22:35:03

loy_20002000 发表于 2017-8-26 17:06
早年的心理学专注于研究人类的心智,现在的心理学适用范围越来越窄,最近二十多年都是在神经心理方面出成 ...

我没您那么悲观。我倒是觉得人类目前可能已经窥见心智之谜的一角了——当然可能从知道一点到彻底了解要上百年的时间。下面就是我纯粹的猜测了。
我觉得心智这个问题的解决,主要是从物理和数学两门学科着手。
从物理上说,有两个层次,一个是微观,一个是宏观。
从微观上,我现在倾向于认为心智的终极解释可能是量子论和某种高维度理论(比如弦论)。你说的不确定性,在我看来,可能正是由于类似超弦理论中四维以上维度存在导致的。由于高维度下低于普郎克尺度的基本粒子结构单元可以在维度间随意往来,导致目前人类所观察到的测不准或者说不确定性。心智活动可能某种程度上就是这种高维度的一种未知联系导致的动力学过程。
从宏观上看,我现在有点相信,本质上说基本粒子层次,确定性是不存在的,现实世界中的确定性似乎是随机性的系综结果,并非必然。而心智活动的多样性似乎也正是由于这种系综的形成过程的一种表现。
从数学上说,其实现在的深度神经网络似乎并不能很好的表现出类人脑的特性,我更看好的是元胞自动机,利用元胞自动机模拟出的生命现象中,真的有一部分让人感觉到智能的存在。我觉得对于元胞自动机的动力学研究,如果能够增加上某种随机性物理过程的假设,就有希望解决一些心智是如何从结构中涌现的问题。
另,一个题外话,目前深度学习方法基本上关注点都在神经网络上,我倒一直觉得元胞自动机也是一种有希望的候选,没准利用元胞自动机搞深度学习的效率会比现有的神经网络更好呢。

江城如画里 发表于 2017-8-26 22:48:22

类反词典 发表于 2017-8-26 21:25
完全同意,虚心接受,但是不准备修改。因为我认为我的文字并没有重大歧义,作为网帖讨论应当是足够了。

...

我觉得咱们俩的分歧主要还是在于,我认为心智的关键在于结构,你认为心智的关键在于运算速度。这种确实咱俩谁也没法肯定自己是对的,或者肯定对方是错的。我提一个疑问,就是你这个运算速度的指标,其实比较难于衡量。比如说吧,目前比特币特别火,比特币的矿机,是专门为做SHA运算优化过,如果以SHA算力来说。比特大陆推出的矿机算力已经远远超过了天河或者神威了。也就是说,如果是只一个简单的HASH操作算力,神威还及不上比特大陆几千块的一台矿机。但谁也不会认为矿机的算力大于神威吧。
所以我觉得你这个观点一个重要的基础,就是得先建立一个有效算力的指标。神威解微分方程的速度是人类大脑所远远不及的,然而人类大脑做噪杂环境语音识别,任何一个普通人做的都比神威要好。那简单说神威的算力比人强,和人的算力比神威强,似乎都不合适。
另外,就是你说的计算机选择函数远好于人类,这我也不敢确切的相信。就目前来说,人类手中的武器都是大数据学习,这绝对不是因为大数据学习先进,而是因为机器无法实现小数据学习。人类教一个小孩子,拿一本书,告诉他/她,这是一本书,一般反复几遍,就很容易实现泛化。但目前深度学习算法上泛化能力之差令人发指。可能为了教会图像识别一本书,样本就得上千(这还是迁移学习的基础上),而且得仔细的调整正样和负样的比例,人类小孩子要需要这么教的话,人类大概就没法以智能生命的形式存在了。
最后,关于很难承认黑猩猩等具有“灵魂”,这个观点我也跟你不一样。我甚至认为鸡呀、海豚呀都是有心智的。我就不举各种聪明的乌鸦的例子了,从一个大概很少人提的角度去说,这些生物的DNA控制机制,跟人类是完全一样的,这就好像大家都有同样的元器件,游戏机、计算器、手机、电脑,这几样的心智只有泛化能力的不一样,并没有本质的差异。

冰蚁 发表于 2017-8-27 03:58:11

本帖最后由 冰蚁 于 2017-8-26 22:06 编辑

类反词典 发表于 2017-8-26 07:02
最早的集成电路都是用SiO2的,而且还用了很多代工艺。当时就可以做到1nm厚度了,因此我的结论是“1nm左右 ...

怎么讲呢,要做科普,一些概念还是不要自己发明。首先基本概念得对。比如193nm光刻机这个,没必要发明一个新的名词出来。既混淆了概念,又降低了国产光刻机的实际意义,使人觉得好象只能用在28纳米技术上一样。而实际是可以跨越多代,应用到7纳米技术的研发上,所以意义是相当重大的。

至于宏观和微观,半导体技术没隔离的那么厉害。你如果对具体的技术没有一个很好的了解,所谓的“宏观”也是判断不准的,空中楼阁。比如这个二氧化硅层厚度。以前老的节点确实是用了二氧化硅。但是和 “1nm左右的量子效应是可以控制的” 是完全没有因果关系的。你在把二氧化硅的1纳米厚度和沟道的1纳米结构混为一谈,完全不是一个概念。所以你自然得出“乐观认为现有工艺应该可以支撑到1nm尺度而不需要大规模使用量子器件” 这种结论。这就瞎搞了。

抗辐射这上面也是这样。你举了 28nm SOI 工艺,而对28nm之前的工艺就语焉不详。SOI 并不是一个主流工艺。业界主流是 bulk 工艺。而 SOI 是一个 Inherently radiation hardened 的工艺。所以广泛应用于需要抗辐射的器件设计中,不仅仅是28nm。你要比也得比28nm SOI vs. 28nm Bulk,然后再比 28nm bulk vs. 32nm bulk, 45 nm bulk, 65nm bulk, 90nm bulk, etc. 这样才能有一个比较清晰准确的认识。要做比较,必须 apple to apple,才能得到有意义的结论。

"历史数据表明,“某些地方”的周期大致上是一个尺度数量级,这应该是一个非常强的“人择”因素导致的"。这种判断也是不对的。比如你列出的intel 90纳米节点。这是第一个进入亚微米的节点。为了应对90nm的设计,193nm光刻技术是在这个节点引入的。原来的光刻技术不够了。同时300mm晶圆也引入了,生产线进行了升级换代。所以intel花费的时间长了点。而14nm,这是第一个3D结构的节点,intel 的良率被困扰很久,工艺多次被大幅度修改。所以研发时间也相应的延长。这些和人的“主观感受”没什么关系。随着晶体管越来越小,研发成本也越来越高。能独立支撑研发的公司也越来越少。能用得起先进节点的fabless公司也越来越少。7nm的客户目前寥寥无几。摩尔定律说穿了,就是钱支撑的。有可预期的高额利润,芯片设计/制造企业自然会遵循这个定律。当利润不再,摩尔定律也就完蛋了。

逻辑器件的半导体工艺发展到今天,光靠收缩 MOSFET 尺寸也已经无法维持摩尔定律了。随着逼近工艺极限,产品良率也下降得很厉害。为了得到好的良率,一些晶体管设计尺寸参数的限制必然得放宽,不会同比缩小,从而使得晶体管的密度不会同比增加,吃掉部分因为沟道尺寸缩小带来的好处。所以不要被现在的什么10纳米,7纳米忽悠了。拿 pitch 来表示摩尔定律对于现在的先进节点来说已经是错误的了。一般看摩尔定律,使用单位面积集成电路芯片上所集成的晶体管的数目这种概念比较常见。目前两年翻一倍的趋势已经减缓到差不多3年翻一倍。当你对技术有一定了解后,就知道这是必然趋势。所谓的“宏观”和“微观”毫无对立之处,联系是相当紧密的。业界目前维持摩尔定律的应对策略主要是玩立体化。用3D晶体管技术来继续收缩晶体管尺寸,搞3D封装等来增加集成密度。再有就是优化电路,从电路里要性能。

最后说一点,中国目前对逻辑器件技术的策略是28后,直接上14nm,22/20纳米是跳过的。中芯国际号称2019年要量产14nm FINFET。不过看28nm搞的那个艰难样子,我估计很难。说不定也许要到2021年才能真正量产,当然策略上也许2019/2020年就可以宣布点什么。国内搞出来28纳米,14纳米一样是被台积电完全压制的。不会象其它行业一样被中国弄得很惨。台积电的南京厂对中芯国际是个严重打击。国内目前重点投资的技术主要在存储方面。上了好几个fab。这个方面是有可能搞成白菜价和韩国人拼一拼的。

lionliy 发表于 2017-8-27 05:47:58

江城如画里 发表于 2017-8-26 09:35
我没您那么悲观。我倒是觉得人类目前可能已经窥见心智之谜的一角了——当然可能从知道一点到彻底了解要上 ...

没那么玄, 元胞自动机就是一台完备的图灵机。   人工智能的核心问题是,图灵机能否实现大脑的全部运算。

大脑的物理结构是可以实现真正的同时运算, 图灵机只能通过依次计算,模拟同时计算。这之间的差别和有理数与实数之间的差别一样大。   人工智能是想要得到一个类似于“任意实数都可以用有理数序列逼近”这样的结论。
先要知道可能不可能。 时间,物质资源意义上可行不可行倒在其次。

江城如画里 发表于 2017-8-27 11:13:01

本帖最后由 江城如画里 于 2017-8-27 11:18 编辑

lionliy 发表于 2017-8-27 05:47
没那么玄, 元胞自动机就是一台完备的图灵机。   人工智能的核心问题是,图灵机能否实现大脑的全部运算。 ...

啊,这是个大问题了,关于大脑是否图灵完备的问题,争议太多啦。
不过注意啊,我前面没提图灵完备问题,这个靶子是你自己假设的噢。你仔细看看我前面讨论,我提到过一点,我为认的大脑是基于不确定性基础的,也就是说确定性是由不确定性的系综搞成的。在这个机制上,不管是元胞自动机还是哪种形式,其转换都是随机性的而非确定性的,在这种基础上没法讨论图灵完备问题啊。如果你假设是个马尔可夫过程,那样转换链是写死的随机性,还是真正的随机性综合成的几率,这两点间差异是不小的,涉及到一个有没有更高层次的选择的问题,其实在这里就出现了自指问题,怎么处理这个自指,这个恐怕要数学上发展出更高级的工具来解释。所以先要搞清讨论的基础。

另外,你说这句
"大脑的物理结构是可以实现真正的同时运算, 图灵机只能通过依次计算,模拟同时计算。"
我不是特别理解,你说的同时计算是啥意思?我用多台图灵机一块儿算,算不算同时计算呢?大脑结构上的同时计算,为什么不能理解成几十万台图灵机一块儿运作?这不是我说赞同这个观点——事实我前面已经说了,我讨论的不是确定性环境,而是随机性是本质的环境。但是就从你这个观点看,我有点好奇,咱们可以继续讨论一下,就是我把大脑理解为几十万个图灵机并行运作,这样有没有问题?

loy_20002000 发表于 2017-8-27 18:35:53

类反词典 发表于 2017-8-26 21:25
完全同意,虚心接受,但是不准备修改。因为我认为我的文字并没有重大歧义,作为网帖讨论应当是足够了。

...

你的观点有两个假设,一是进化论成立,二是人类智能本质上是图灵机。

一是没问题的,Go下围棋就是进化论的思路。但二就比较麻烦了。我的观点是图灵机可以模拟人类智能中的部分特质,如解决可计算问题。但人与其他动物的主要区别不在硬件体现出来的可计算性与效率性,而是创造力,所以二是有争议的。就拿数学来说,中科大搞过破格录取速算大王念应用数学的事情。而结果却是一个能很好完成速算任务的人不一定是合格的数学家。有些数学工作者的速算能力甚至比不上菜市场的小商贩。

这里的关键是人类思维的不确定性是否可以靠传统的计算机模拟出来。如果计算机的架构发生转变,不再是冯诺依曼、图灵式的结构。是有可能出现智能的涌现的。

loy_20002000 发表于 2017-8-27 19:02:46

江城如画里 发表于 2017-8-26 22:35
我没您那么悲观。我倒是觉得人类目前可能已经窥见心智之谜的一角了——当然可能从知道一点到彻底了解要上 ...

你说的很到位,我没有任何补充。

我的悲观源于未来是不可知的,这里展开讲就玄之又玄了。

类反词典 发表于 2017-8-27 19:28:35

江城如画里 发表于 2017-8-26 22:48
我觉得咱们俩的分歧主要还是在于,我认为心智的关键在于结构,你认为心智的关键在于运算速度。这种确实咱 ...

我觉得咱们俩的分歧主要还是在于,我认为心智的关键在于结构,你认为心智的关键在于运算速度。我没有说心智的唯一关键是运算速度。后面我花了很多篇幅分析算法的进步,那可和运算速度没有关系。我一直的假设是运算速度是心智的必要条件,而非充分条件。

我提一个疑问,就是你这个运算速度的指标,其实比较难于衡量。比如说吧,目前比特币特别火,比特币的矿机,是专门为做SHA运算优化过,如果以SHA算力来说。比特大陆推出的矿机算力已经远远超过了天河或者神威了。也就是说,如果是只一个简单的HASH操作算力,神威还及不上比特大陆几千块的一台矿机。但谁也不会认为矿机的算力大于神威吧。“神威还及不上比特大陆几千块的一台矿机”绝无可能。神威用的也是类似GPU的SIMT,与用显卡挖矿效率基本等同,比ASIC矿机稍差而已。在HASH运算上,算法优化没有你说的那么神奇。事实上,矿机ASIC优化的也不是运算速度,而是运算的能量开销。ASIC矿机速度其实并不快,但省电费。同等电费情况下ASIC矿机快。
“就是你这个运算速度的指标,其实比较难于衡量”这个大家都知道,但是总有些相近的指标可以用。不然TOP500就不用排了。
所以我觉得你这个观点一个重要的基础,就是得先建立一个有效算力的指标。神威解微分方程的速度是人类大脑所远远不及的,然而人类大脑做噪杂环境语音识别,任何一个普通人做的都比神威要好。那简单说神威的算力比人强,和人的算力比神威强,似乎都不合适。科学研究在很多情况下无法解析分析问题的时候,总是探讨各种近似情况,得到一些“上界”、“下界”。神经元在微观上的结构,其结构是非常规整的,可以用于估算运算速度的“界”,这是我前面分析的基础。你可以说这些“界”与实际有偏差,但不能说这些“界”完全无用。在目前没有对人类灵魂的模型有深入了解的情况下,各种“界”是探讨问题的重要方面。
另外请把“算力”和“算法”分开讨论。运算速度如上所述,可以讨论其“界”。“然而人类大脑做噪杂环境语音识别,任何一个普通人做的都比神威要好”是算法的问题,不是“算力”的问题。在具有足够“算力”的硬件上,还需要有足够好的算法才能实现功能。
另外,就是你说的计算机选择函数远好于人类,这我也不敢确切的相信。就目前来说,人类手中的武器都是大数据学习,这绝对不是因为大数据学习先进,而是因为机器无法实现小数据学习。人类教一个小孩子,拿一本书,告诉他/她,这是一本书,一般反复几遍,就很容易实现泛化。但目前深度学习算法上泛化能力之差令人发指。可能为了教会图像识别一本书,样本就得上千(这还是迁移学习的基础上),而且得仔细的调整正样和负样的比例,人类小孩子要需要这么教的话,人类大概就没法以智能生命的形式存在了。算法也是在进步的。10万年前,旧石器时代中晚期,教会一个小孩识别一本书需要多长时间?智人刚诞生的时候又需要多长时间?
最后,关于很难承认黑猩猩等具有“灵魂”,这个观点我也跟你不一样。我甚至认为鸡呀、海豚呀都是有心智的。我就不举各种聪明的乌鸦的例子了,从一个大概很少人提的角度去说,这些生物的DNA控制机制,跟人类是完全一样的,这就好像大家都有同样的元器件,游戏机、计算器、手机、电脑,这几样的心智只有泛化能力的不一样,并没有本质的差异。心智和灵魂还是很不一样的。真的很不一样。

页: [1] 2
查看完整版本: 集成电路工艺演进的一些数据分析