摩尔定律有没有终结
高性能计算,到了今年,蓝色基因C就要到了1000万亿次,能不能不断上去,有没有极限?在计算机界、半导体界有一个摩尔定律,这是1965年因特尔公司的创始人之一高登·摩尔在观察半导体器件制造状况的时候,归纳出的一个设想。这不是严格的数学和物理基础上的定义,虽然它叫“定律”,但并不是一个严格的定律,而是一个设想。西方社会是商品社会,所以有时候愿意夸大,就是愿意包装。其实,摩尔只是个设想,愣给它起名叫“定律”,也是个包装。最早的设想是一个器件上的数目,每24个月翻一番,过一段时间发现不对,又改成18个月翻一番,这就被人们恭维成“摩尔定律”。这个状况,大体上在30年内是正确的,从1965年提出这个设想,一直到20世纪末,整个发展基本是这个情况。现在的问题是,摩尔定律是永无止境就这样下去,还是有一个终结?
1965年,芯片上只有65个三极管,现在已经做到了一亿五千万个。2010年前后,将达到10亿个。2000年,CPLJ芯片上的线款做到了0.18个微米,或者叫180个纳米。2006年已经做到了60纳米。在芯片上的器件越来越多,器件之间的连线越来越细。现在的问题是,如此下去,有无尽头,有无极限?
大家公认,半导体工业、半导体技术的发展有它的极限,提出了三重极限。
第一个是物理极限,它包括三个部分:
一是材料的物理性能极限。器件越来越多,器件里边的几何尺寸越来越小,小到一定程度,器件的物理性能就要起变化。这里讲到了“隧道效应”,就是我们用半导体器件做一个数字开关,用它来代表1和0,因为数字计算机最基本的就是一个1,一个0,二进制。假定一个器件的导通的状态叫1,关闭状态就叫0,导通和关闭在半导体上就是在门上一个经过的电流大,一个是堵塞状态,电流很小,基本上就说是没有,所以一个是导通,一个是不导通,这两种物理状态才能代表二进制的1和0。
但是现在,当器件即门电路的门的几何尺寸已经小到1至2个纳米了,再小下去,量子物理里边所讲的“隧道效应”就要发生作用了。“隧道效应”就会在器件关闭状态关不住了,照样有电子泄漏过去,而且这个数量和导通状态已经是同样量级了。到这个时候,开关管的二进制性能就不存在了,半导体就变成导体,起不了一个开的稳定状态和一个关的稳定状态,代表数字上的1和0,0就出不来了。所以器件越多,器件尺寸越小,小到一定程度,一个门的尺寸小到1个纳米以下,到时候“隧道效应”要起作用,1和0的表示从根本上就会出问题。
二是延迟和串音。当器件数目越多,器件之间的联系越细,两条连线之间的距离越近的时候,就会有串音。大家知道,两条线离得越近,它们之间的分布电容就大了,这上面传输的信号就会在另一条线上出现串音。而且线越细,它的阻抗也就越大,延迟也就越大。所以,一个延迟和一个串音,本身也是个极限。
三是散热。每一个器件本身是有功耗的,现在一个芯片上的密度已经是1.5亿个器件了,2010年可能到10亿了,这时候器件上的发热和散热就变成了大问题。如果散热器不能把发出的热量散掉,不能达到一个平衡,它的温度就会不断上升,一直到芯片毁掉。
所以,有热的问题,有串音的问题,有“隧道效应”致使半导体性能本身不能再成立的问题,这是物理的极限。
第二个是工艺的极限。
物理上能够站得住了,工艺上能不能做出来?我们现在做大规模的集成电路,很像印刷术,是用光刻腐蚀这套办法。这套光刻的办法,线要做得很细,受到光学规律的制约。现在如果是采用普通光刻,就做到0.15、0.13微米以上,即130纳米以上的线宽。现在要做到100纳米(0.1微米)和它以下的线宽,用的是深超紫外线(DuV),它的波长是240纳米,可以做出分辨率100多纳米的线宽。如果小于100纳米,深超紫外线也不行。现在日本人研究出极度紫外线,可以把线宽做到70纳米,可是要做到小于50纳米的线宽,光的办法就不行了,不管是常规光还是紫外光。从理论上说,x射线可以做到0.6纳米,可那完全是另外一个领域。到做X射线的时候,几何光学用不深,整个工艺设备都要重新换一套。即使物理材料上允许,你的器件密度和线宽进一步发展,在工艺上也有它的局限,工艺上做不到。
第三个是经济可行性局限。
1968年,英特尔刚起步的时候,一个生产线、一个制造车间的投资大概是300万美元,还是当时的钱。到90年代,建立一个0.25微米工艺芯片车间的投入是20亿至25亿。到0.18微米工艺时,是30亿至40亿美元。小于100纳米,估计这个生产车间的投入费用就要超过100亿美元,达到100亿至200亿美元。所以出现了摩尔第二定律。
摩尔定律是1965年的设想,1995年,还是高登·摩尔,在英国的《经济学家》杂志上发表了第二篇文章,被认为是“摩尔第二定律”。他说:“在过去的30年里,我发现,半导体器件的技术的发展、工艺的发展,除了我第一定律讲的每18个月翻一番,还要受着经济学定律的约束。我发现,从1968年到1990年的32年里,工艺设备的投资,每翻一番,产品的性能可以翻三番。可是,从1995年后的几年,我发现,工艺设备、装备投资每增加一倍,提高的性能只有50%。”所以就发生一个问题,即使物理上和工艺上还能把它推上去,经济可行性允许不允许?他当时预计到1998年,新生产线的投资要到百亿美元。所以有人估计,到2000年,英特尔公司投入的新生产线要到150亿元,相当于英特尔整个公司净值的80%。
建一条生产线,要把整个公司的80%净值投进去,这个风险太大了。而且经济学上的可行性有一个问题,投资在一定的预期里能否收回。如果投资在一定的预期里收不回来,谁都不肯去投的,这叫ROI(Return Over Investment)。假定我投下100亿,做出一个新的芯片,比原来芯片的性能提高50%,我就要考虑这个芯片投放市场多少年才能收回钱。这里有一个鸡生蛋、蛋生鸡的互相影响关系。如果定价定高了,比如投进去100亿,要生产一百万片,每片要卖1万美金,那连一百个人都不买,我不是净赔吗?所以,不能想象一次投放市场就能收回,我预计它10年收回。开始的卖价,本来应该卖1万美金,我愣赔了,头几年就准备赔,一块芯片,成本假定是1万美金,我就卖200美金,我是赔了。200美金投下去以后,如果市场培养起来,到了一年销售100万户,那很快就能收回投资。如果到不了,第二年是不是还是按照200美金一片?
有可能这么大的投入永远收不回来。你的价格和培育市场有关系,到一定时期,前几年赔钱,后几年再赚回来,有可能根本就培育不起来,这个市场就根本形成不了。也很明显,最大的市场是个人电脑市场。但是,现在个人电脑在国内已经卖到三四千块钱,一个芯片就1万美金,谁买呢?个人电脑不买你的。超级机一年在全世界也卖不了20台,这个投资永远也收回不了。所以还受第三个限制,就是经济可行性。
所以现在就出现了一个问题,高性能计算要依托芯片性能的提高、处理能力的提高、速度的提高,但是客观上有物理极限、工艺极限和经济极限,怎么办?有人说,摩尔定律到2010年左右就走到了尽头,再也没可能向前发展。也就是说,前50年出现的那个奇迹再也不会发生了,到了尽头了。现在人们在想的就是另辟蹊径。
一门技术的推广有很长的过程
有人提出了生物计算机,生物计算机就是发现的DNA(脱氧核糖核酸),它本身有可能在两种不同的状态下代表二进制的数,而且DNA本身有很强的三自由度的存储空间,有很强的存储能力。人往生物方面想也是有道理的,“紫色”耗电7500千瓦,耗资几十上百亿美元,还比不上我的小脑袋瓜,所以生物有道理,人们在生物上找出路。那么就找到了分子生物学的发展,特别是很多核物理学家都去搞生物,促使生物学科在现代物理的基础上有了新的境界、新的发展,分子物理学、生物物理学都有很大的发展。发现了DNA有一个潜力,有可能用它实现二进制的存储和运算,DNA的能量消耗是普通计算机的十分之一,速度可以达到很快,比电子的办法要快得多,可是现在怎么样?普林斯顿的生物学家,也是生物计算机很有名的科学家劳拉·兰德韦伯,他对这种技术将来可以达到100%准确率的能力持乐观态度,但是他与其他研究人员很快就指出,与传统运算方法相比,他们研究的课题还处于刚刚起步的阶段,而且对许多应用领域来说,硅材料制成的硅芯片总是会略胜一筹。生物分析运算研究协会会长、杜克大学计算机科学家约翰·赖夫指出,硅运算技术不会退出历史舞台,生物计算的前途和希望,很可能会出现在某些适合它优势的领域。
最前沿的,做生物计算机科学研究的科学家认为,生物计算机的前景、未来不是普遍地取代现在的传统计算机,而是在某个特定领域发挥它的特定的、内在的优势,他们特别指出了在军事密码破译方面,有可能用生物计算的装置和传统的电子的装置混合起来,专门针对一些特定的领域、特定的问题,实现比现在纯电子的方法更高的效率和结果,特别指的就是军事密码破译。
还有就是光。人们很容易想到光,因为光的传导不发热。刚才说,物理极限里有散热的问题,而光没有这个问题。同时,光也没有串音的问题。所以,用光来实现更高的计算速度和更高的器件密度的可能性是存在的。电子传输速度是每秒593公里,而光是光速,比电子在导体中传送的速度要快。没有热瓶颈的问题、没有串音和干扰的问题。但是现在进展得如何?1990年1月,美国贝尔实验室做出最原始的光计算机的雏形,用激光器、透镜、棱镜组成,只能进行很简单的运算。到现在为止,光计算技术也在想办法,现在存储技术进展比较快,但整体上光计算机的构成方面还有很多障碍。贝尔实验室在十多年前做的还用激光器、透镜、棱镜组成,这样的组成怎么能做到运算单元的高密度化、小型化、超小型化?太困难了。你要有激光发生器,透镜的几何尺寸要缩到很小,像现在,一个芯片上到了1.5亿个器件,太困难了,所以也只处于探索阶段。
再有就是量子计算机。在1981年,IBM公司的物理学家Charles Bennett和英国牛津大学的研究人员DavisDeutsch在美国德克萨斯州的一次会议上碰头了。上面开大会,两个人底下议论,议论现在的计算机这套办法基本是牛顿力学的办法。因为我们现在做的还是靠电路原理,说得深一点,最多是电动力学,还是宏观上的东西,还没有跳出牛顿力学的范畴。他说,我们有没有可能创造新一代的计算技术的概念和方法,不是以牛顿力学为依据,而是以量子力学为依据。
萌生了这个想法以后,他们开始搞量子计算机。量子计算机最简单的根据是,传统计算机最小的单元是一个电子元件,一个三极管,这个器件要求有两种稳定的物理状态,当然是指在相对某一段时间内的稳定状态。一个状态代表1,一个状态代表2。
在同一个时间,这个器件只能是一种状态,要么是1,要么是2。一个门,在二进制中管它叫一个bit,就是一个二进制的位。一个bit在物理上就是一个门,要么是1,要么是0,同时只有一种可能性。如果是两个位,两个bit,这个bit或是1,或是0,两个都是0,或者是两个都是1,那么有2的2次方,四种可能性:11、00、10、01。但是,同时只能存四种可能性中的一种可能性:要么是01,要么是00,要么是10,要么是11。有四种排列,但同时只能存在一种。如果是3个bit,那就是2的3次方,有八种可能,但同时也只能有一个。
可量子力学不一样,量子bit,现在起名叫qubit,区别于传统的二进制位的bit。