loy_20002000 发表于 2017-8-27 19:28:39

江城如画里 发表于 2017-8-26 22:48
我觉得咱们俩的分歧主要还是在于,我认为心智的关键在于结构,你认为心智的关键在于运算速度。这种确实咱 ...

机器是有可能实现小样本学习的。换个思路比较好理解,可以认为小孩子能够认识书本或字、图画是由于遗传物质累积了大量的历史计算数据。我们说的机器不具有小样本学习一般是指它在一片空白的情况下开始的,或者说历史数据并不充分的情况下。机器在合适的架构下累积了大量数据是否具有泛化能力,是否具有小样本学习能力,这是说不清的。如果一个架构累积了大量数据却不具备弱智能的泛化能力,有可能是架构的问题。

小孩子认识一个事物,是由多个神经中枢共同作用完成的,不仅仅是大脑的工作。所以试图用简单模型模拟或是用机器学习生成一个或多个网络模拟的做法不容易达到人类的水平。现代神经心理学发现人类的认知存在分离现象。也就是说我们认识的一个事物,例如苹果,是由N1、N2、……、Nz加总的。如果用仿生的方法模拟,把Nx统统模拟并且加总难度太大。

如果不用仿生的方法,人类等于是重复上帝的工作。需要自己设计模型解决人类智能中的一些难解问题。类似工作都有重实践轻理论的现象,因为大部分人连理论的轮廓都看不到。用田渊栋的说法是挖矿,是钻到矿还是钻到花岗岩谁也说不清。

类反词典 发表于 2017-8-27 20:13:36

冰蚁 发表于 2017-8-27 03:58
怎么讲呢,要做科普,一些概念还是不要自己发明。首先基本概念得对。比如193nm光刻机这个,没必要发明一 ...

怎么讲呢,要做科普,一些概念还是不要自己发明。首先基本概念得对。比如193nm光刻机这个,没必要发明一个新的名词出来。既混淆了概念,又降低了国产光刻机的实际意义,使人觉得好象只能用在28纳米技术上一样。而实际是可以跨越多代,应用到7纳米技术的研发上,所以意义是相当重大的。
193nm光刻机是一个好的名字,但是不适合我的文字,因为没人知道我要表达的是什么意思。28nm光刻机,它当然只能用在28nm技术上。你不能说它将来可以改进用在7nm技术上,它现在就不能被叫做28nm光刻机。毕竟从可以做28nm到可以做7nm还有很多工作要做,所以现在它只能叫做28nm光刻机。
至于宏观和微观,半导体技术没隔离的那么厉害。你如果对具体的技术没有一个很好的了解,所谓的“宏观”也是判断不准的,空中楼阁。比如这个二氧化硅层厚度。以前老的节点确实是用了二氧化硅。但是和 “1nm左右的量子效应是可以控制的” 是完全没有因果关系的。你在把二氧化硅的1纳米厚度和沟道的1纳米结构混为一谈,完全不是一个概念。所以你自然得出“乐观认为现有工艺应该可以支撑到1nm尺度而不需要大规模使用量子器件” 这种结论。这就瞎搞了。“以前老的节点确实是用了二氧化硅。但是和 “1nm左右的量子效应是可以控制的” 是完全没有因果关系的。”为什么没有因果关系?难道竖直方向的结构尺度不是在1nm左右吗?如果这个尺度附近量子效应不可控,那么怎么可能使用1nm左右厚度的SiO2?量子效应和材料有关,但和结构尺度关系更大。因此,在1nm附近的结构上如果已经验证过其量子效应可控,那么虽然现在要做水平方向的1nm左右的结构,但参照历史,应当存在解决方案。我的逻辑是“历史曾经做过1nm竖直方向的结构”-->“未来可以做1nm水平方向的结构,技术差别不会大到不可跨越”。无论怎么说,在逻辑层面我没有什么致命错误。你不要试图在逻辑层面证明我的错误。你要证明做不到1nm,请给你的证据。
抗辐射这上面也是这样。你举了 28nm SOI 工艺,而对28nm之前的工艺就语焉不详。SOI 并不是一个主流工艺。业界主流是 bulk 工艺。而 SOI 是一个 Inherently radiation hardened 的工艺。所以广泛应用于需要抗辐射的器件设计中,不仅仅是28nm。你要比也得比28nm SOI vs. 28nm Bulk,然后再比 28nm bulk vs. 32nm bulk, 45 nm bulk, 65nm bulk, 90nm bulk, etc. 这样才能有一个比较清晰准确的认识。要做比较,必须 apple to apple,才能得到有意义的结论。
SOI确实不如Bulk主流,但是也不是那么的非主流。AMD做了那么多SOI CPU,好多手机芯片也是SOI的。这些芯片可没有哪个是为了抗辐照才用SOI的。还有就是,28nm光刻机(虽然你强烈反对,但是我越来越觉得这个名字好用)无论SOI还是Bulk,好像都是可以用的,我又没有说那个只能做SOI。我只是说,TG要做,就必须从28nm开始做起,其原因在于抗辐照需要至少28nm以上。你上面要我比较这比较那,和我的论证过程和结论有什么关系呢?
"历史数据表明,“某些地方”的周期大致上是一个尺度数量级,这应该是一个非常强的“人择”因素导致的"。这种判断也是不对的。比如你列出的intel 90纳米节点。这是第一个进入亚微米的节点。为了应对90nm的设计,193nm光刻技术是在这个节点引入的。原来的光刻技术不够了。同时300mm晶圆也引入了,生产线进行了升级换代。所以intel花费的时间长了点。而14nm,这是第一个3D结构的节点,intel 的良率被困扰很久,工艺多次被大幅度修改。所以研发时间也相应的延长。这些和人的“主观感受”没什么关系。真的很困扰,你想表达什么意思?和我说的有什么内在逻辑关系?
另外,从800-600-...-130,为什么偏偏在130-90的环节需要换193nm/300晶元,而不是350/250/130这些节点之间?
同样地,90-...-20,为什么偏偏20-14需要换3D结构,而不在更前面的节点,也不在更后面的节点?
逻辑器件的半导体工艺发展到今天,光靠收缩 MOSFET 尺寸也已经无法维持摩尔定律了。随着逼近工艺极限,产品良率也下降得很厉害。为了得到好的良率,一些晶体管设计尺寸参数的限制必然得放宽,不会同比缩小,从而使得晶体管的密度不会同比增加,吃掉部分因为沟道尺寸缩小带来的好处。所以不要被现在的什么10纳米,7纳米忽悠了。拿 pitch 来表示摩尔定律对于现在的先进节点来说已经是错误的了。一般看摩尔定律,使用单位面积集成电路芯片上所集成的晶体管的数目这种概念比较常见。目前两年翻一倍的趋势已经减缓到差不多3年翻一倍。当你对技术有一定了解后,就知道这是必然趋势。所谓的“宏观”和“微观”毫无对立之处,联系是相当紧密的。业界目前维持摩尔定律的应对策略主要是玩立体化。用3D晶体管技术来继续收缩晶体管尺寸,搞3D封装等来增加集成密度。再有就是优化电路,从电路里要性能。你也可以用数据来说话,画一个单位面积晶体管数目的趋势图来,我相信版上的很多朋友都会很愿意看到的。我们民科收集数据不知道用哪个比较准确,你们业界的有准确数据为什么不做呢?几十个数据也花不了多少时间嘛。能体现出2年周期到3年周期的变化,我相信大家都会感谢你的。
最后说一点,中国目前对逻辑器件技术的策略是28后,直接上14nm,22/20纳米是跳过的。中芯国际号称2019年要量产14nm FINFET。不过看28nm搞的那个艰难样子,我估计很难。说不定也许要到2021年才能真正量产,当然策略上也许2019/2020年就可以宣布点什么。国内搞出来28纳米,14纳米一样是被台积电完全压制的。不会象其它行业一样被中国弄得很惨。台积电的南京厂对中芯国际是个严重打击。国内目前重点投资的技术主要在存储方面。上了好几个fab。这个方面是有可能搞成白菜价和韩国人拼一拼的。28-14是两代,理论上按照以前的规律是4年,但是因为有作业可以抄,中国在2年左右搞出来我觉得也可以理解,1年我觉得比较困难,3-4年,甚至5年我都认为是可以接受的。如果2019年出28,那么2021出14还有可能。2020年才出28,2021就不大可能出14。综合各种信息,我还是预测2020出28,要2024才能出14,不管中间是否有20。留待几年后看吧。

类反词典 发表于 2017-8-27 20:30:36

loy_20002000 发表于 2017-8-27 18:35
你的观点有两个假设,一是进化论成立,二是人类智能本质上是图灵机。

一是没问题的,Go下围棋就是进化论 ...

你的观点有两个假设,一是进化论成立,二是人类智能本质上是图灵机。人脑是不是图灵机?目前的科学证据好像没有明显的证据证明不是。突破图灵机运算能力的模型,现在好像只有量子计算?
量子计算需要使用的量子纠缠态的维持时间太短,需要非常复杂的结构维持。神经细胞内的细胞结构,其尺度很难实现量子计算所需的最低结构尺寸。生理学也没有发现执行量子计算的细胞。
一是没问题的一是很有问题的,真的。进化论真的是一个很强的科学假设,我个人认为甚至比人脑是图灵机这个假设还强。
这里的关键是人类思维的不确定性是否可以靠传统的计算机模拟出来。人类思维的不确定性似乎和计算架构,以及计算能力并没有直接关系?至少目前的计算架构本身,包括图灵机和量子计算,好像和不确定性都没有直接关系。再说:(1)你确定人类的思维确实是不确定的?在宇宙的尺度看也是不确定的?(2)图灵机就一定不能模拟出类似的不确定性?

江城如画里 发表于 2017-8-27 20:59:18

类反词典 发表于 2017-8-27 19:28
我没有说心智的唯一关键是运算速度。后面我花了很多篇幅分析算法的进步,那可和运算速度没有关系。我一直 ...

呵呵,我还是不太习惯您这种一段引文一段意见的回复,看起来好费劲。我还是一总回吧。
1.小问题,关于ASIC在HASH算法上,这不是说相对SIMD方式或者众核方式的小改进。ASIC实质上就已经不是冯诺依曼体系或者哈佛体系了,他用硬连接消除了很多问题,比如并行运算中的锁的问题。所以ASIC方式比其它方式,强调一下,在HASH算法上有巨大的优势。
2.我还是不相信你说的,算力是个问题。首先你的估计中以TOP500最后一名为准,那是不是说TOP1的神威,已经能够模拟人脑了?再者说,按目前计划,中国最快2019年时就有1000P的超算了(按我所知最慢也就是2021年),那已经远远超过你说的这个机械灵魂出现的界了。是否说2019年我们就能搞出这个?我还是相信,如果没有结构方面的突破,单纯的算力增长可能没啥意义。而一旦结构方面出现突破,可能对算力的要求没有你估计的这么高。

3.旧石器时代教会一个小孩识别一本书的时间,我个人认为跟现代人可能不差多少。事实上我记得有一项研究认为人类的平均智商是在公元6000年前最高,后来的人反而平均水平在下降(这个来源是啥我真的忘了,回头查到告您)这恐怕不能用来说明算法的进步。

4.心智和灵魂的差异,我觉得这个问题也挺有意思的,期待您能展开说说。

江城如画里 发表于 2017-8-27 21:11:50

类反词典 发表于 2017-8-27 20:30
人脑是不是图灵机?目前的科学证据好像没有明显的证据证明不是。突破图灵机运算能力的模型,现在好像只有 ...

量子计算,或者更严格说的是目前Deutsch那种量子计算机,目前普遍的观点是图灵机解决不了的问题,他也解决不了。当然了,图录机能解决的问题,它能在不超过客观限制(Bremermann's limit)的情况下,算的比图灵机快。
关于不确定性,这问题太难了。就我目前的观点,还真是这样,我认为宇宙本质上就是不确定的,微观上不确定性非常明显,证据十足,只是人类不知道为什么会存在不确定性而已;而宏观上,你所观察到的确定性,可能只是随机性的系综叠加而已。也就是说随机性是本质,确定性反而是随机性的一种表观。
图灵机模拟出不确定性,那显然就是伪随机啊。这本来就是困扰相关研究人员的重要问题。其实就现实生活中,彩票行业里,所有电子开奖设备的可信性都不如比如吹球之类的方式公平。你应该听说过数学家把老虎机给hack掉的报道,那本质上就是因为老虎机搞不出真随机,用的伪随机方式被人给猜出规律了。

loy_20002000 发表于 2017-8-27 21:49:53

类反词典 发表于 2017-8-27 20:30
人脑是不是图灵机?目前的科学证据好像没有明显的证据证明不是。突破图灵机运算能力的模型,现在好像只有 ...

人类的心智是不是图灵机,这是一个被人们讨论最多的问题。真伪没有定论,我个人的看法为否。

对人中枢神经的研究发现,人的非理性行为或不确定性不仅仅与大脑有关,更与杏仁核一类的边缘器官有关。所以这个问题的主语我认为用“人类心智”比较好,而非某个器官。

人类心智的不确定性问题,我同意江城如画里的观点。靠确定性模型或模式探究人类心智不止一次撞上死胡同,早期用启发式规则研究人工智能的路径已经被证明行不通了。而大数据逼近的概率论方法在机器学习领域取得了一些成果。我的感觉是研究不确定系统才是破解人类思维的正确路径。当然这仅仅是看法,没有多少实证或逻辑上的证据。

你认为进化论是一个很强的科学假设,这点我有些不解。蚁群算法这类多少有些进化论的味道,甚至机器翻译都是。实证已经反复证明其合理性,当然了套在计算机上能否用算力堆出一个智能,目前未知。

还有一个问题是假设算力足够就可以做到,我们能否达到这个算力。毕竟现有的芯片工艺已经逐渐逼近微观尺度的极限。甚至量子计算机也达不到。也就是理论可计算,实际是不可能的。

用算力堆智能不妨换个思路。

我们生活的现实世界由一系列规则组成,是这些规则塑造了人类或其他动物的智能。人造系统不论怎么造一定有人为的规则在其中,哪怕是上面提到的元胞自动机也是如此。人造系统很有可能是规则不完备的,甚至完备规则是无法构造的。

例如构造一个繁衍或生存至上的规则。但现实就有反例,如癌细胞,这条规则会加速自身的毁灭。健康的哺乳动物存在细胞凋亡的现象,我的猜测是通过部分的死亡换取整体的新生。这是与这条规则相违背的。

诚然不需要知道所有规则依然会诞生智能生物,尤其是较为宏观的规则,如上的生存规则。人类自打认识了火星表面的情况到现在依然没有发现地外智能,也就是说在现实的微观物理规则下仅有地球出现了智能生物。由此可见现有规则下孕育智能也是极小概率的事情。当然人造规则有可能加大这个概率,但这也是未知的。

冰蚁 发表于 2017-8-28 00:58:16

本帖最后由 冰蚁 于 2017-8-27 18:04 编辑

类反词典 发表于 2017-8-27 07:13
193nm光刻机是一个好的名字,但是不适合我的文字,因为没人知道我要表达的是什么意思。28nm光刻机,它当 ...

你这个完全是满拧了。半导体生产制造是靠科学原理,技术进步,不是靠主观臆测的逻辑。要说逻辑,也是符合科学技术需要的逻辑。

半导体的生产一直是追求低成本高性能的。晶圆的尺寸变化,193nm光刻在先进节点上的延伸,晶体管结构的变化,节点的持续缩小等等等无一不反应这种追求。

首先你要明白为什么我们要持续缩小晶体管尺寸?简而言之,因为这种尺寸上的缩小直接能带来电性能上的提升,而又不用去费力寻找新材料,新结构。尺寸直接缩小的生产成本最低,同时也保证了晶体管能够达到电路需要的性能指标。这其实就是一种暴力破解问题的方法。但是当尺寸越来越小的时候,生产的工艺也越来越复杂,成本也越来越高。当这种成本高到可比新材料新结构的器件,人们也就没有动力继续缩小晶体管的尺寸了。

再说晶圆尺寸。之所以在90纳米引入300mm,是因为300mm技术在那时候相对成熟了(不光是晶圆生产,还有生产线上配套设备的改造,新的设备引入),并且是能够有效降低生产成本的技术。300mm一直是业界所追求的。300mm 和节点无关。intel 为了分担在90nm第一次引入300mm的成本,intel 后来还把300mm 引入到上一代节点的制造里去。所以intel 上一代节点的CPU是有两个版本的。半导体界曾经还讨论过450mm的晶圆。但整体改造成本过高,生产上无法盈利,现在已经不了了之。

和90nm节点有关的是光刻工艺。90nm需要新的光刻工艺。进入了这个尺寸,就需要这样的工艺,物理决定的。而新的光刻工艺技术又已经基本成熟了。为什么不用呢?新的光刻工艺,新的晶圆尺寸,这些都会导致良率的不稳定。这方面要交学费。所以研发时间自然会长一点。到了14nm,我们其实也需要新的光刻工艺,EUV。可惜EUV的研发一直跳票。直到现在的7nm,终于算赶上,但依旧问题多多。而从14到7,不得已,我们只有用其它方法来延伸193nm光刻技术。

到了14nm,技术路线是出现分岔的。一种是继续以前的平面结构,一种是走鳍式结构的路子。鳍式结构是三维结构,是创新,会导致很多生产制造上的问题。人们倾向于继续用平面结构。但是具体分析工艺复杂程度和电性能后,发现平面结构并不能很有效的减少成本。并且考虑到后续节点的研发(平面结构到10nm 非常困难,更不用说7nm,5nm,所以其实还是成本问题),主流选择了走鳍式路线。14nm作为代工厂第一代三维结构晶体管,业界一样需要花费多一点时间去学习,去交学费。另外,为什么14nm之前的节点不使用鳍式结构?intel的22nm其实已经使用,但业界主流设计没有使用。再往前就不会使用鳍式结构。这是物理原因决定的。更宽的鳍体现不出电性能提升上的优势,反而增加了生产成本。intel 之所以在22nm使用鳍式结构是希望器件能够有更高的电性能,对外宣传好听,同时也减轻其电路设计的成本。综合成本就不会高上去。而代工厂则不会做这个选择,因为代工厂只负责生产,不负责电路设计,成本无处可摊。另外,代工厂大量代工mobile芯片业务。不需要非常高的性能,而是追求低功耗和低成本,所以代工厂要推到14nm才开始做鳍式结构。

soi 和 bulk 的路线选择上也是成本决定。主流之所以用 bulk,而不是soi,是因为一,soi 的晶圆太贵。二, soi 技术本身就一些固有的物理问题,设计电路的时候需要额外的步骤去解决,也就等效于增加成本。所以soi长期使用于一些特定的应用里,比如RF芯片(你提到的手机芯片),抗辐射芯片。近些年随着mobile市场的巨大发展,RF芯片需求量大增,可以说挽救了soi技术。目前有人考虑把数字和RF都放到一块芯片上,做SOC。但soi的成本依旧是个大问题。数字电路芯片基本还是bulk技术为主的。如AMD者都已经放弃了soi技术。目前在14nm,硕果仅存的soi 数字芯片大概只有IBM了。不过那个芯片数量真正可以忽略不计,只是给IBM那点服务器用的。国内一定要做出28nm是因为28nm 用到了high k metal gate 技术,gate last 技术等,这个是进入14nm,7nm,5nm的基石。二是目前芯片市场对28nm芯片需求很大。钱砸进去能看到收益。again,和是否抗辐射无关。既然要突破28nm技术,光刻机能做到自主化那就再好不过了。所以国内一直研发193nm光刻机。目前看有意用于28nm上。所以28nm光刻机的说法本身是很滑稽的,讲清193nm光刻的概念也不难。193nm光刻机做出来,新老节点都受益。当然对老一代节点是否需要更换成国产光刻机,最后也是成本考量。毕竟老节点的产品盈利已经下降。如果盈利不足以支持设备更换,那也是在情理之中的事情。

至于那个二氧化硅1nm的问题,只考虑尺度是不对的。打个不太恰当的比方,你往水下潜100米,和你在水面平移100米,能是一回事吗?虽然我们在90nm的时候栅极绝缘层就做到接近1nm了,不代表我们在栅极pitch 是1nm的时候就能控制沟道的量子效应。完全不是一个概念。别说1纳米,就是现在的鳍式场效应管,鳍宽太小的时候,threshold voltage就控制不好,直接影响良率。量子效应是其中一个重要因素。半导体生产时刻得把良率放在心上。你的想法更象是实验室做法,偶尔做出一个晶体管,但对半导体工业无意义。

至于摩尔定律的图,这满大街都是啊。你随手一搜就知道常见的纵坐标是什么了。和“民科”有啥关系。就以intel 为例吧。https://ietp-web-cdn-eandt-cache.azureedge.net/8/0/c/5/a/6/80c5a66d26cbf32bae05e00be44a35e69e085a5e.jpg
从32到22,intel 用了2年时间,晶体管数目翻了一倍。22到14,2.5年,2.6x(折算依旧是2年一倍)。14到10,3.5年,2.5x(折算3年一倍)。更不要说图里那个“others”了。

28 到14是两代。但是做数字逻辑芯片不是每个节点都必须走一遍的。samsung 直接跳了20。中芯国际也是如此。14的研发已经有两年了。这就是我前面说的大公司里同时会有两三个组同时在做研发。中芯国际再过三年左右做出14nm并进入量产是基本可以实现的。中芯国际的28,你也不能说没做出来,已经可以量产,据说目前是还有一点良率的问题困扰。良率稍低一点没有问题。存储方面的芯片倒是可能不会跳过22nm。存储芯片和逻辑芯片虽然同属于半导体工业,但是工艺迥异,发展路线也很不相同。

amons 发表于 2017-10-9 13:46:05

loy_20002000 发表于 2017-8-26 17:06
早年的心理学专注于研究人类的心智,现在的心理学适用范围越来越窄,最近二十多年都是在神经心理方面出成 ...

那是不是说,机器很难进化出人类的创造性?

抱朴仙人 发表于 2017-10-9 14:14:58

cloudian 发表于 2017-8-25 02:10
我,约翰.康纳,来自2035年……

来不及了!据《终结者》的记录,天网于2017年10月上线

大黑蚊子 发表于 2017-10-9 14:46:17

这帖子翻出来真好

燕庐敕 发表于 2017-10-9 16:57:19

抱朴仙人 发表于 2017-10-9 14:14
来不及了!据《终结者》的记录,天网于2017年10月上线

就是这个月!{:189:}

伯威 发表于 2017-10-9 18:39:56

抱朴仙人 发表于 2017-10-9 14:14
来不及了!据《终结者》的记录,天网于2017年10月上线

不是10月份,是3月份。{:187:}

“天网2017”是2017年3月7日,中央反腐败协调小组国际追逃追赃工作办公室召开会议,宣布启动“天网2017”行动。

lionliy 发表于 2017-10-15 16:47:29

江城如画里 发表于 2017-8-26 22:13
啊,这是个大问题了,关于大脑是否图灵完备的问题,争议太多啦。
不过注意啊,我前面没提图灵完备问题, ...

我不是太明白“这个靶子是你自己假设的”什么意思。 我的思路是关于图灵机有很多现成的结论。元胞自动机既然与图灵机等价,没有道理不使用现成结果。

图灵机是不能产生真随机数-不确定性的, 所以从你说的“大脑是基于不确定性基础的” 可以等价于“大脑不可以由图灵机实现。”当然,有很多确定性过程由于过于复杂呈现出“不确定性”, 大脑是不是这类? 这个问题不好回答。

”同时“的意思是指两个神经元状态互相影响时,它们的状态更新是连续的,互相影响但独立的。 而图灵机所模拟的这样两个状态更新是离散的依次的,互相影响但依赖的。在计算方法上可以举个例子,”同时“ 就是可以做无限短步长的时空上的隐式计算。

多台图灵机一起计算, 这是一个没有明确定义的过程。”一起运算的多台图灵机“可以也可以不等价于一台图灵机。   比方说,如果它们之间有严格的时序同步,等价于一台图灵机。   即使不等价,”一起运算的多台图灵机“ 也只引入了可数无限个随机源。 而大脑结构的随机源是不可数无限个。直觉上这是一个巨大的差别。 在无法证明这个差别不会导致本质差别前, 我的回答倾向与不能。   

当然也可以说”一起运算的多台图灵机“引入的随机源能够很复杂。 但这种没有明确定义的东西无法讨论。 不如说一个人加多台图灵机可以和大脑等价。

随机性是一个很重要的差别。但从整个状态空间的演变来考虑,它肯定不是大脑和计算机之间全部的本质性差别。
页: 1 [2]
查看完整版本: 集成电路工艺演进的一些数据分析