微處理器的原生(Native,並非用封裝技術拼裝而成)多核化發展,最受矚目的開端,當是超微(AMD)於2005年4月推出的雙核版Opteron,雖然在此之前IBM已推出POWER4,同樣為原生雙核設計,但因為已高階商務運算為主,因而較不受重視。
多核設計依然需要,但轉向特定需求、細膩調控需求,不再是單純追求運算效能。 |
AMD推出雙核版Opteron後,即開啟x86處理器的雙核、多核戰役,英特爾(Intel)初期處於落後追趕狀態,但之後逐漸超越。對於Intel而言,除了不期望輸給AMD外,更大的發展動機在於,處理器已難用單純的拉高頻率時脈方式來提升效能,但半導體製程的縮密技術仍持續精進,因此改以多核方式提升效果,更簡單說,是用電路面積空間換取效能, 捨棄過往用時間(時脈)換取效能。
不過,這種提升效能的路子也有極限,不可能無窮無盡,甚至可說在整個處理器效能的提升的長遠歷史中,多核路線的適用時間還短過時脈頻率拉升時間。
多核無法無窮盡提升效能,從其他非x86架構處理器也可獲證,例如PlayStation 3電視遊樂器所用的Cell處理器,其8個核心就少有軟體商能徹底發揮其效能,多數在5、6個左右,又如高階UNIX 系統,雖宣稱最高可達64個處理器,但多數運用在超過20顆處理器後就難再拉升效能,64顆通常只是方便分割、調配運用。
在無法單純用增核提升效能後,Intel長久以來的獲利模式「給客戶更多效能」難以維持,必須另闢他路,因而有了類似GPGPU的Xeon Phi,不過Xeon Phi需要改寫程式才能發揮其效果,並不相容原有x86應用程式。
到了2015年6月,Intel宣布收購FPGA大廠Altera,此舉等於更加宣布Intel採行轉向方式以維持其效能提升策略,Xeon Phi需要改寫程式才能加速,FPGA亦同。事實上,在科學研究的高效能運算領域,早已將繁複使用的函式改以FPGA電路實現,如此與傳統CPU+軟體的運算方式相比,可以快上數十倍,甚至上百倍。
不僅如此,近年來百度(Baidu)、微軟(Microsoft)也在其搜尋引擎機房內使用FPGA,好加速搜尋速度、搜尋準確速度等。
從2005年AMD提出雙核x86,到Intel於2015年購併Altera,加上Xeon Phi等,等於宣布用多核加速效能的時代結束,必須用異質的晶片電路設計來持續提升效能。
所以,從今而後CPU的核數不會再增加了嗎?答案為否,事實上Intel仍持續增加CPU的核數,但主要目標在支援谷歌(Google)、亞馬遜(Amazon)機房的雲端運算服務需求,一個CPU有愈多核,意味可執行更多虛擬機器(Virtual Machine, VM),是針對特有雲端業務而增加核數。
或者,一般手機內的應用處理器(Application Processor, AP)也持續增加核數,例如聯發科(MediaTek)的10核晶片,並不是著眼於以更多核換取更高效率,而是不同的核採行不同的執行組態,或不同的運作時脈等,因應不同的運算負荷(Workload)來啟用、關閉某些核心,達到隨時以最適當的核心來執行工作,讓效能與功耗兩者可兼顧、平衡。由此可知,多核設計依然需要,但轉向特定需求、細膩調控需求,不再是單純追求運算效能。
當然,即便工程人員早已體會增核並不能帶來等同於核數的效能提升,但就行銷著眼仍是很誘人,多數終端消費者仍簡單認定「數大就是美」,看到6核勝4核、8核勝6核,依然屢屢買單,即便門市人員苦心說明勿有過度期望,甚至消費者也知曉其道理,但仍無法擺脫可炫耀的心態,購買更多核的晶片或裝置,換得一季、半年向親友炫耀規格的權利。