對資訊產業稍有了解者多半都知,伺服器是最理智購買的產品之一,筆者也時常以伺服器出貨成長率為風向指標,藉此以了解總體經濟是否改善、復甦?一旦伺服器出貨增加,肯定是復甦成長。不過,近幾年來多數時候,伺服器的出貨成長率低迷,多在個位數的年增率,甚至部分機構的調查還出現微幅衰退。

/news/2015/05/06/1723372690S.jpg

雖然伺服器需求疲軟,甚至平均售價(ASP)大幅降低,意味著伺服器業者的利潤愈來愈少,如此就一般的在商言商角度,在利潤愈來愈少下,未來投入新技術的研發也會連帶減少。然而,伺服器實際上卻出現「市場低迷,但技術卻仍持續變化」的特殊情形。

第一個變化是記憶體容量愈來愈大,過去的企業資料庫要倚賴硬碟來儲存、運作,而今部分情況下,有可能完全用記憶體來儲存、運作。好處是記憶體比硬碟快速,存取執行等運作上更有效率,許多資料庫軟體業者紛紛提出In-Memory Database(IMDB)的新概念,包含IBM、Microsoft、Oracle等三大廠也不缺席。當然,完全用記憶體也有風險,系統一旦出問題資料將會消失,因此還是會盡可能回寫硬碟,以策安全。

第二個是NAND Flash的固態硬碟(SSD)出現,使儲存設備有了新的快取空間,使儲存效能提升,且相同的,在小容量需求下可以完全取代硬碟,許多刀鋒伺服器、超密度伺服器(Ultra Dense Server)都已改用固態硬碟取代傳統機械式硬碟,而儲存設備大廠EMC、NetApp、HDS等也同樣善用此新作法。

第三是GPGPU的繪圖晶片可用來加速科學運算,GPGPU內有許多浮點運算單元,除用於繪圖外也可用於其他計算,最初用於高效能運算(High-Performace Computing)領域,現在也有許多伺服器開始採用,知名的即是Intel Xeon Phi與NVIDIA Tesla。

第四是FPGA的加速運算,同樣初期用於高效能運算,用於將例行運算以邏輯電路方式執行,比起純軟體執行方式快上50-100倍,現在網際資料中心(Internet Data Center)也開始運用FPGA來加速機房運算與傳輸,如Microsoft、Baidu等,而FPGA的主要業者自然是Altera、Xilinx。

第五是以3D疊裝方式加速記憶體傳輸,如Micron發起,Samsung響應的HMC技術,將多個記憶體裸晶以矽穿孔(TSV)方式連接,以獲得更快速、更省電的記憶體,使伺服器能加速運算,目前Intel、Fujitsu合作的新一代超級電腦已確定採行此種技術,若技術可行將擴大採行,目標是適用於所有的伺服器,成為DDR4 SDRAM外的另一選擇。

第六則是ARM架構的伺服器處理器開始展露,如何用更簡單的架構來滿足運算需要,同時達到更整合、更省電、更低廉的目標,目前有AMCC、AMD等業者投入,Qualcomm也在去(2014)年11月宣佈投入。

更有趣的是,為了更適用於各種使用情境,業者也嘗試將ARM與x86融合,例如AMD下一代將推出同時具有ARM與x86核心的處理器,伺服器業者HP則早已推出Moonshot系統,允許同一系統內同時使用ARM與x86架構晶片。

上述的變革,來自半導體的架構、製程、封裝等改變,連帶影響伺服器、超級電腦改變,但其實還有影響更大的,即虛擬機器(VM)、雲端(Cloud)等軟體技術,現在已有所謂的軟體定義網路(SDN)、軟體定義儲存等,後續也將有愈來愈多以「軟體定義」為名的概念及發展,以持續衝擊伺服器、超級電腦,甚至整個資訊機房,且讓我們拭目以待。