超大号的CPU不是不能做,而是制造成本太高,无论是企业还是普通消费者都难以承受。如果大家留心的话,虽说这么多年来CPU性能和半导体工艺都在迅速进步,但是我们使用的CPU核心面积并没有发生很大的变化,也就是说在晶元晶体管密度成倍增长的同时,晶元本身的面积并没有明显增大,甚至还有越来越小的趋势,这其实就涉及到晶元本身的制造过程和成本。

目前有能力制造CPU晶元的只有英特尔、台积电和GF这些半导体厂商,每一颗晶元的die都是在一片片晶圆上切割出来的,而晶圆面积已经很多年没有变化了,所以你的晶元越大,同一片晶圆上产出的就越少,如果一片7nm晶圆卖8000美元,那你把超级计算机上用的一颗CPU做的很大,只能产出5颗CPU的话那成本可就太高了,无论是企业还是消费者都不可能承受。此外,晶圆上的CPU晶元也是有瑕疵几率的,你的晶元越大,核心越多,上面出现瑕疵的概率也就越大,最后可能就没有几颗能用的成品。

所以这么多年来,业界的高性能CPU还是必须要控制在一个合理的晶元大小范围内,即使是超级计算机也是如此,否则成本和产量都无法控制,最合理、最实际的办法还是做出一些大小适中的高性能CPU,通过并联集成在一起协同工作,从而发挥出超强的性能。

最典型的例子就是AMD的线程撕裂者CPU,它是用好几颗锐龙CPU并联在一起协同工作的,AMD宁愿把四颗CPU合成一颗来卖,也不会去专门做一颗超大的CPU,这里最重要的原因还是成本和良品率的限制,四颗小晶元合一的方案比单独做一颗大晶元风险来的小的多,这个道理放到超级计算机上也是如此。


我觉得可以从以下几个方面来回答这个问题。

1 首先要说的就是集成电路的设计工艺技术,根据摩尔定律,集成电路的密度,每18个月翻一番,所以我们在工艺实现上就有可能让更多的CPU集成在一起,而不是制造一个更大的CPU。题主所说的更大的CPU,其实就是多个CPU集成在一起,而题主所说的更大,我觉得是指整个CPU的集成度更大。因为按照目前的集成电路的工艺以及封装技术,我们不可能制造出一个体积更加巨大的CPU,虽然这在工程理论上是可以实现的,但是在现实中,我们制造集成电路的工艺以及封装技术是无法实现的。

2 另外一点我们需要注意的是,在工程实现上当集成度变的非常高的时候,那么功耗是极其可观的,功耗所带来的问题就是散热如果说散热处理不好的话,那么CPU的性能会急剧下降,而且有可能会影响整个系统的稳定性,所以说我们不会去制造更大或者是集成度更高的CPU,按照目前的理论,我们只能是以及工艺技术,我们只能是制造出18盒或者是36和64盒这样的CPU。

3 还有一点需要注意到的是,超级计算机它是一个系统工程,而不仅仅和CPU有关。对于一个系统工程,我们不仅要考虑它的可靠性,稳定性,还要考虑它的可维护性。按照目前的工业设计流程以及标准,我们将更多的CPU尽可能集成在一起,然后将它们放在不同的机架上,已实现统一的管理,放在不同机架上的CPU有专门的人员进行维护。这样一旦某些CPU出现物理上的故障,比如说焊接点的松动(CPU与主板的焊接),造成该CPU无法正常工作,那么就可以很容易的对它进行替换,而不会增加巨大的成本。


以现在的集成电路原理没有发生本质变化的话,单一处理器的性能是有上限的,主频越高、晶体管和线路越细小,电子的不确定性就会越高,目前的措施是降低工作电压,但工作电压的降低也是有极限的,同时,处理器不同于内存,并不是规模越大越好,而在单一处理器核心的性能与规模上限都被定死了的前提下,再想提升性能自然只能靠多处理并发操作,并通过演算法优化将原本单一复杂的任务转成许多可以并发计算的简单小任务。


英特尔就是要做个超大的CPU,所以现在最高端CPU的核心数赶不上AMD


推荐阅读:
相关文章