超大號的CPU不是不能做,而是製造成本太高,無論是企業還是普通消費者都難以承受。如果大家留心的話,雖說這麼多年來CPU性能和半導體工藝都在迅速進步,但是我們使用的CPU核心面積並沒有發生很大的變化,也就是說在晶元晶體管密度成倍增長的同時,晶元本身的面積並沒有明顯增大,甚至還有越來越小的趨勢,這其實就涉及到晶元本身的製造過程和成本。

目前有能力製造CPU晶元的只有英特爾、臺積電和GF這些半導體廠商,每一顆晶元的die都是在一片片晶圓上切割出來的,而晶圓面積已經很多年沒有變化了,所以你的晶元越大,同一片晶圓上產出的就越少,如果一片7nm晶圓賣8000美元,那你把超級計算機上用的一顆CPU做的很大,只能產出5顆CPU的話那成本可就太高了,無論是企業還是消費者都不可能承受。此外,晶圓上的CPU晶元也是有瑕疵幾率的,你的晶元越大,核心越多,上面出現瑕疵的概率也就越大,最後可能就沒有幾顆能用的成品。

所以這麼多年來,業界的高性能CPU還是必須要控制在一個合理的晶元大小範圍內,即使是超級計算機也是如此,否則成本和產量都無法控制,最合理、最實際的辦法還是做出一些大小適中的高性能CPU,通過並聯集成在一起協同工作,從而發揮出超強的性能。

最典型的例子就是AMD的線程撕裂者CPU,它是用好幾顆銳龍CPU並聯在一起協同工作的,AMD寧願把四顆CPU合成一顆來賣,也不會去專門做一顆超大的CPU,這裡最重要的原因還是成本和良品率的限制,四顆小晶元合一的方案比單獨做一顆大晶元風險來的小的多,這個道理放到超級計算機上也是如此。


我覺得可以從以下幾個方面來回答這個問題。

1 首先要說的就是集成電路的設計工藝技術,根據摩爾定律,集成電路的密度,每18個月翻一番,所以我們在工藝實現上就有可能讓更多的CPU集成在一起,而不是製造一個更大的CPU。題主所說的更大的CPU,其實就是多個CPU集成在一起,而題主所說的更大,我覺得是指整個CPU的集成度更大。因為按照目前的集成電路的工藝以及封裝技術,我們不可能製造出一個體積更加巨大的CPU,雖然這在工程理論上是可以實現的,但是在現實中,我們製造集成電路的工藝以及封裝技術是無法實現的。

2 另外一點我們需要注意的是,在工程實現上當集成度變的非常高的時候,那麼功耗是極其可觀的,功耗所帶來的問題就是散熱如果說散熱處理不好的話,那麼CPU的性能會急劇下降,而且有可能會影響整個系統的穩定性,所以說我們不會去製造更大或者是集成度更高的CPU,按照目前的理論,我們只能是以及工藝技術,我們只能是製造出18盒或者是36和64盒這樣的CPU。

3 還有一點需要注意到的是,超級計算機它是一個系統工程,而不僅僅和CPU有關。對於一個系統工程,我們不僅要考慮它的可靠性,穩定性,還要考慮它的可維護性。按照目前的工業設計流程以及標準,我們將更多的CPU儘可能集成在一起,然後將它們放在不同的機架上,已實現統一的管理,放在不同機架上的CPU有專門的人員進行維護。這樣一旦某些CPU出現物理上的故障,比如說焊接點的鬆動(CPU與主板的焊接),造成該CPU無法正常工作,那麼就可以很容易的對它進行替換,而不會增加巨大的成本。


以現在的集成電路原理沒有發生本質變化的話,單一處理器的性能是有上限的,主頻越高、晶體管和線路越細小,電子的不確定性就會越高,目前的措施是降低工作電壓,但工作電壓的降低也是有極限的,同時,處理器不同於內存,並不是規模越大越好,而在單一處理器核心的性能與規模上限都被定死了的前提下,再想提升性能自然只能靠多處理並發操作,並通過演算法優化將原本單一複雜的任務轉成許多可以並發計算的簡單小任務。


英特爾就是要做個超大的CPU,所以現在最高端CPU的核心數趕不上AMD


推薦閱讀:
相關文章