隨著AI運算需求持續飆升,從大型語言模型(LLM)、生成式AI到高效能運算(HPC),資料中心面臨的最大瓶頸已不再是單純的晶片效能,而是頻寬、功耗與散熱。傳統電連接逐漸無法滿足AI GPU/TPU所需的龐大資料傳輸,促使 光電整合(Opto-Electronic Integration)成為必然趨勢。其中,CPO(Co-Packaged Optics,光電共封裝)與LPO(Linear Drive Pluggable Optics,線性可插拔光模組)兩種不同架構的方案,正成為全球大廠與台灣光通訊供應鏈的競逐焦點。
AI伺服器的頻寬與功耗挑戰
在生成式AI與超大規模訓練模型驅動下,單一AI伺服器可能搭載多達數十顆GPU,並透過高速互連進行大規模運算。以NVIDIA H100、B100系列為例,每顆GPU之間需要數百GB/s的資料傳輸能力,而未來HBM4/PCIe 7.0世代甚至將突破至數TB/s級別。
...
...
| 使用者別 |
新聞閱讀限制 |
文章閱讀限制 |
出版品優惠 |
| 一般使用者 |
10則/每30天 |
0則/每30天 |
付費下載 |
| VIP會員 |
無限制 |
25則/每30天 |
付費下載 |