你的位置:首頁 > 互連技術(shù) > 正文

混合模塊開啟下一場芯片封裝革命

發(fā)布時間:2018-01-17 來源:Jim O''Reilly 責(zé)任編輯:lina

【導(dǎo)讀】計算機主要組件的封裝幾十年來相對穩(wěn)定,但現(xiàn)在正經(jīng)歷一場革命。例如,在內(nèi)存和中央處理器(CPU)之間已經(jīng)達到散熱和帶寬極限的情況下,業(yè)界正在尋求新的方案來提高性能并降低功耗。最近兩年,引領(lǐng)這一追求的是混合內(nèi)存立方體(HMC)構(gòu)想...


計算機主要組件的封裝幾十年來相對穩(wěn)定,但現(xiàn)在正經(jīng)歷一場革命。例如,在內(nèi)存和中央處理器(CPU)之間已經(jīng)達到散熱和帶寬極限的情況下,業(yè)界正在尋求新的方案來提高性能并降低功耗。
 
最近兩年,引領(lǐng)這一追求的是混合內(nèi)存立方體(HMC)構(gòu)想(圖1)。這是美光科技(Micron)提出的概念,業(yè)已被龐大的產(chǎn)業(yè)領(lǐng)導(dǎo)者聯(lián)盟——混合內(nèi)存立方體聯(lián)盟(Hybrid Memory Cube Consortium)所采用。
 

圖1 混合內(nèi)存立方體。
 
這一概念基于用一組高速串行連接取代傳統(tǒng)的DRAM總線,同時使內(nèi)存和運算芯片在物理上非常接近,以便去掉驅(qū)動DRAM總線的功率晶體管。由此產(chǎn)生的模塊可將內(nèi)存的功耗降低70%~90%,目前性能可達160GB/s水平,這是兩項令人矚目的進展。未來的配置目標(biāo)是超過上述指針的兩倍,最終是使用多個內(nèi)存模塊實現(xiàn)1TB/s的吞吐率。
 
硅穿孔(TSV)是使能技術(shù)(enabling technology)。透過在邏輯模塊上堆棧內(nèi)存裸片并使用TSV將頂層連接到邏輯電路,使用大量的并行鏈路,可實現(xiàn)很小的面積占用。今天的產(chǎn)品通常有四個堆棧裸片,所以每個模塊的容量限制在16GB。
 
邏輯層可以是CPU、繪圖處理器(GPU)、現(xiàn)場可編程門陣列(FPGA)或只是控制邏輯,似乎所有這些選項都開始出現(xiàn)。來看一些應(yīng)用,CPU選項看來顯而易見,在CPU之上構(gòu)建DRAM得到的稍厚的混合芯片,應(yīng)用在智能型手機和平板計算機上令人關(guān)注,這是一種節(jié)省寶貴空間的方式,但更重要的是節(jié)省稀少且缺乏的電能。使用16GB容量的方案,已經(jīng)是個可行的建議,而更高密度的封裝將擴大到整個市場。
 
在服務(wù)器中,更高的帶寬是吸引力所在。目前尚不清楚市場是否會跟進CPU/內(nèi)存堆棧路徑,或是選擇多個內(nèi)存芯片的緊密并列封裝,后者可將帶寬提升到500+GB/s范圍并增加HMC容量。舉例來說,英特爾(Intel)的Knights Landing Phi芯片旨在使用堆棧內(nèi)存結(jié)構(gòu)(圖2)。
 

圖2 英特爾Knights Landing代號Xeon Phi處理器。(圖片來源:英特爾)
 
AMD和Nvidia這兩家GPU制造商選擇了采用多通道并行總線不同的模塊化方法(高帶寬內(nèi)存,HBM)。HMB比RAM總線寬得多,可提供更高帶寬。DRAM裸片堆棧和與GPU緊密耦合旨在解決性能和功耗問題,將模塊方法應(yīng)用到GPU引發(fā)了與服務(wù)器相同的封裝問題,因此解決方案的采用可能取決于GPU產(chǎn)品是針對消費類還是針對人工智能(AI)市場。
 
在服務(wù)器系統(tǒng)中用作加速器的FPGA,其本身的故事仍在不斷演繹,盡管像Altera/Intel和賽靈思(Xilinx)這樣的公司已經(jīng)為HMC提供了原型開發(fā)板。
 
這種模塊化方法透露出主要的管道含義。然主導(dǎo)力的天平明顯地倒向內(nèi)存芯片制造商(如美光),而對沒代工廠的DIMM組裝廠商不利,但這并非一蹴可幾,因為系統(tǒng)結(jié)構(gòu)和芯片生態(tài)系統(tǒng)還沒有發(fā)展到可正確使用模塊化方案。可能的情況是,智能型手機的封閉性將使其成為更容易滲透的市場。
 
服務(wù)器市場轉(zhuǎn)向模塊化方法,很可能會因服務(wù)器核心中以結(jié)構(gòu)為中心架構(gòu)的興起而變得復(fù)雜。諸如Gen-Z之類的方法使得串行內(nèi)存連接成為將CPU、GPU、FPGA和外部通訊連接在一起的RDMA結(jié)構(gòu)的焦點,它使所有服務(wù)器單元之間直接使用公共內(nèi)存,以及共享內(nèi)存和接口的跨集群成為可能。未來AMD和Nvidia的計劃將致力于內(nèi)存與GPU之間更緊密的耦合,以使當(dāng)前架構(gòu)將大量數(shù)據(jù)從CPU內(nèi)存?zhèn)鬏數(shù)紾PU內(nèi)存的問題不再困難。
 
主導(dǎo)力的天平倒向芯片制造商不僅傷及DIMM制造商,還同樣殃及插卡制造商。服務(wù)器主板將可能具有針對適配驅(qū)動器或LAN的SoC方案的ZIF插槽,以及用于內(nèi)存和計算組件的更多插槽。
 
但供貨商陣營也并非一團和氣。英特爾在談?wù)撆c業(yè)內(nèi)其他家不同的途徑。業(yè)內(nèi)有討論可更好填補Optane NVDIMM和L3高速緩存之間性能差距的高帶寬、低延遲(HBLL)DIMM方案,而不是用于服務(wù)器的HMC。
 
最后的難題是,雖然這些新的內(nèi)存速度非???,但容量有限,目前為16GB或更小。雖然這與DIMM類似,但其架構(gòu)將當(dāng)今的許多模塊排除在外。隨著對TB容量內(nèi)存的需求, 該問題尚沒有得體的對策。英特爾在NVDIMM中內(nèi)置傲騰(Optane)的HBLL方法很可能是條解決之道。
 
盡管英特爾明顯的離經(jīng)叛道(沒有任何東西正式宣布為產(chǎn)品),但很明顯,系統(tǒng)將變得更快、更模塊化。為實現(xiàn)這種模塊化,以太網(wǎng)絡(luò)NVMe作為一種共享主儲存的方式在市場上備受矚目——這種架構(gòu)可使驅(qū)動器與服務(wù)器分開,盡管它們可能仍然共享封裝。所有這些都將在2018年上半年成為整個產(chǎn)業(yè)的發(fā)展藍圖,并導(dǎo)致系統(tǒng)性能真正大幅度地提升,從而推動整個系統(tǒng)和儲存市場的發(fā)展。




推薦閱讀:
智能手機+人工智能,哪些應(yīng)用會火起來? 
簡單了解電阻器常見的幾種失效模式 
 結(jié)合LED照明的電容式感應(yīng)設(shè)計方案 
深度解析開關(guān)電源雙極性晶體管的開關(guān)特性 
 
要采購開關(guān)么,點這里了解一下價格!
特別推薦
技術(shù)文章更多>>
技術(shù)白皮書下載更多>>
熱門搜索
?

關(guān)閉

?

關(guān)閉