本帖最后由 类反词典 于 2017-8-23 21:40 编辑 0 c& a# c1 i) s1 l$ W
; y4 e5 ]( E4 T集成电路工艺演进规律分析。以Intel实现工艺的节点为数据。 1、摩尔定律非常可靠,从1971年10um工艺开始到目前,只有1985-1994年的9年偏离了摩尔定律。在这之前和之后的线性度都非常高,而且之前和之后的两条线几乎平行。 2、1985-1994年是微米工艺进化到亚微米工艺的门槛,另外应当受到苏联解体的影响,资本市场扑向苏联尸体导致半导体投资下降。 3、从1995年开始自今,工艺发展几乎是恒定的2年一代。只有两个例外,2001-2004年130nm到90nm,2014-2017年14nm到10nm,各为3年。两个例外都涉及到跨越尺度数量级,应当不是巧合,而是一代工艺适应范围差不多刚好一个尺度数量级的原因在里面。另外911也可能是2001-2014年例外的重要原因。 4、现在2014-2017的趋势有两个参考,一个是1982-1985,一个是2001-2004。两个参考均是夸尺度数量级,两个参考均是在原发展趋势下速度略微下降。 5、按照1982-1985的趋势发展,后续过程是粉线。预计约2035年跨越1nm尺度。我乐观认为现有工艺应该可以支撑到1nm尺度而不需要大规模使用量子器件,因为SiO2绝缘层可以做到大致1nm厚度量子效应还可控制,因此做1nm的结构量子效应应当是可以控制的。 6、按照2001-2004的趋势发展,后续过程是黄线,大约在2030年达到1nm尺度。1nm再往下,是集成电路发展遇到的第四个数量级尺度,应当无法用当前的工艺解决了。换句话说,现在的CMOS体系大约在2030-2035年之间达到顶峰,离现在13-18年,之后很可能是不可避免的衰落。 7、综合各方面的信息,TG可能在2020年量产28nm光刻机。为什么是28nm?有几个原因,一个是28nm及更高级工艺只要适当调整工艺参数就可以生产抗辐照器件,而尺度超过28nm的器件必须采用抗辐照设计。另一个,国内上28nm线也是最近的事,配套研发应该符合预期。如果这个计划成功,后续发展也类比过去的经验,那么国内工艺发展如青线。这里假设国内工艺发展在跨越10nm数量级时也踩到国外同样的坑。
) q5 {: i: R) M' n8 @. M与集成电路工艺高速发展相关的一个热门领域是人工智能,目前很多人对人工智能“超越人类”感到担忧。那么具体看看是否有可能。首先是人类神经系统表观运算速度的估计。 1、神经元个数:大脑平均21G,全神经系统平均86G 2、 每个神经元树突数量:通常有数千,最多可达一万,按照5000估算,每个树突相当于一个乘一个加,因此算等效2次运算,故此项以10000估算 3、 神经元运算频率:100Hz 这一项比较复杂,各种研究也差异很大。按照http://aiimpacts.org/rate-of-neuron-firing/的说法,神经元平均激活频率约0.1-2Hz。但是,神经元“激活”等效于输出>0,而输出=0的情况都是未激活。在现在的硬件设计下,输出0也是需要消耗等效计算量的。按照神经细胞的“不应期”估计,极限频率在250-1000Hz。另外大脑中有30-70Hz的震荡https://en.wikipedia.org/wiki/Neural_oscillatio,小脑中还有最高150Hz的震荡https://en.wikipedia.org/wiki/Purkinje_cell。综合各种情况采用100Hz这个便于计算的数字。 综合1-3项,大脑表观计算速度约21P,全神经系统约86P。当然,目前的电子计算机系统的计算效率远远不如神经系统,因为神经系统可以高效处理0(无连接即可表示0),而计算机系统必须浪费大量的计算量于0,即使采用了很多优化措施。因此计算机系统要真的达到人类的计算能力,估计计算速度要多2-3个数量级才够。不过,在摩尔定律的魔咒下,2-3个数量级什么的实在弱爆了,不过10-15年时间而已…… 如果进化论成立的话,在大量计算机系统实际运算速度超过人类大脑甚至全神经系统,并且持续不断地给它输出大量数据进行处理,那么很难否定机器进化出“机械灵魂”。这可以参考TOP500榜单。 TOP500的数据只有1985-1994“滑坡”之后的数据,还没有遇到集成电路工艺卡壳的考验,因此其线性度非常好。按照这个趋势,TOP500最后一名在约2022年中突破21P,在2025年突破100P。选择关注最后一名,是为了让这个世界有足够多的“机口”。当然,如果集成电路工艺在未来几年卡壳,那么这个时间可能需要延后5-10年。那么,最迟2035年,全世界将最少有500台计算机运算速度超过100P。即使考虑计算机效率问题,那时的TOP1要更高2个数量级,应当可以与人类全系统可比拟了。如果在1nm处没有突破,2035年后计算机发展应当会遇到相当长的一个瓶颈期,除非量子计算取得突破。但是现在的趋势看来2035年前量子计算取得突破似乎希望不大。
1 ]0 a0 f7 \* ?8 @% v2 l: b l3 j这正好处于一个微妙的状态:计算机系统在接近压倒性超越人类计算能力的地方正好遇到发展瓶颈。这是一个巧合,抑或必然,还是根本不会发生? |