AI應用正從雲端逐漸向邊緣和終端設備擴展。微控制器(MCU)作為嵌入式系統的核心,正在經歷一場由AI驅動的技術變革。傳統的MCU主要用於控制和管理硬體設備,但在AI時代,MCU不僅需要滿足傳統應用的需求,還需具備處理AI任務的能力。
滿足邊緣與終端設備的需求
邊緣計算(Edge Computing)是指將數據處理和計算任務從雲端轉移到靠近數據源的設備上進行。這種方式能夠減少數據傳輸的延遲,提升系統的即時性和隱私保護。邊緣設備通常資源有限,因此需要高效且低功耗的AI處理器來支持複雜的AI任務。
為了滿足邊緣與終端設備的需求,AI處理器需要具備以下特點:
● 低功耗:邊緣設備通常依賴電池供電,因此AI處理器必須在低功耗下運行。
● 高效能:AI任務如圖像識別、語音處理等需要高效的計算能力。
● 小型化:邊緣設備的空間有限,AI處理器需要高度集成且體積小巧。
● 即時性:許多邊緣應用(如自動駕駛、工業控制)要求即時響應,AI處理器必須能夠快速處理數據。
傳統MCU主要用於控制任務,而AI處理器則專注於數據處理和模型推理。為了滿足邊緣設備的需求,現代MCU開始集成專用的AI加速器(如NPU,神經網絡處理單元),以實現高效的AI運算。
Arm 物聯網事業部亞太區資深經理黃晏祥指出,邊緣運算跟雲端運算主要的差異應該是應用的最佳化vs.產品的泛用性, 邊緣運算為了更接近使用場景,通常會有功耗與佈建成本的局限性,因此效能與功耗的產品平衡與多重的選擇是最重要的。
例舉Arm 的 AI 處理器專注於實現高效能與低功耗的平衡,尤其是對邊緣與終端裝置的特殊需求進行優化。透過 Arm Cortex 系列處理器和 Arm Ethos 系列類神經處理器,提供多樣化的解決方案,滿足不同應用場景所需效能。同時,也專注於提供靈活的軟硬體架構,以支援 AI 模型得以高效率的執行,並加速產品上市進程。
針對快速崛起的 AI 市場,Arm積極佈局 AI 處理器技術,以滿足邊緣和終端裝置的需求。Arm 提供 Cortex-A、Cortex-M、Cortex-R 與Ethos NPU系列等處理器,這些處理器都可具備 AI 處理能力,可根據不同的應用場景和需求選擇。例如,Cortex-A 系列適用於高效能運算,Cortex-M 系列則針對低功耗和嵌入式應用進行了優化。在選擇處理器時,需要考量效能、功耗和成本等因素,才能做出最佳決策。
專為人工智慧物聯網 (AIoT) 應用設計的 Arm Cortex-M52,是因應更高的數位訊號處理和機器學習效能需求設計,無需負擔專門配置數位訊號處理與機器學習加速器的成本。Cortex-M52 能在低於目前市場的價位優勢之上,充分發揮機器學習在嵌入式運算解決方案的潛能。
Arm Cortex-M85 則為最高效能的 Cortex-M 處理器,採用 Arm Helium 技術,提供 Cortex-M 系列處理器最高的純量、數位訊號處理及機器學習效能。並為需要特高效能和更高安全性的 Cortex-M 架構的應用提供自然升級路徑。
Cortex-M55 和 Cortex-M85 處理器支援 Helium 的處理器。該項技術是 Arm Cortex-M 處理器系列的 M 系列向量擴充方案 (MVE)。
Arm 也積極與開發人員社群合作,提供開發工具、軟體庫和開放原始碼資源,協助開發人員快速開發和部署 AI 應用。Arm Kleidi 函式庫,提供具有彈性的各種核心組合,協助在框架上強化人工智慧。Kleidi 技術已整合到主要的AI框架如 PyTorch 和 ExecuTorch,促使新一代的應用在 Arm CPU 上運行大型語言模型(LLM)。Kleidi 將繼續與 PyTorch 和 ExecuTorch 的各版本以及其他主要 AI 框架進行整合。從雲端資料中心到邊緣端裝置,開發人員現在可以即刻在各類裝置上基於 Arm 平台高效率的運行高效能 AI 工作負載。
在傳統應用與AI之間取得平衡
MCU在傳統應用中主要負責控制和管理硬體設備,例如家電、工業自動化、汽車電子等。這些應用對MCU的要求包括:
● 穩定性:系統必須穩定可靠,能夠長時間運行。
● 即時性:需要快速響應外部事件。
● 低功耗:許多應用場景依賴電池供電,功耗必須盡可能低。
隨著AI技術的普及,MCU需要支持更多的AI功能,例如語音識別、圖像處理、預測性維護等。這些功能對MCU的計算能力和存儲空間提出了更高的要求。然而,MCU的資源有限,如何在傳統應用與AI功能之間取得平衡成為一個關鍵問題。
為了在傳統應用與AI功能之間取得平衡,MCU的設計可以採取以下策略:
● 模組化設計:將AI功能作為可選模塊,用戶可以根據需求選擇是否啟用。
● 資源分配優化:通過動態資源分配,確保傳統控制任務和AI任務都能獲得足夠的資源。
● 多核架構:採用多核設計,將傳統控制任務和AI任務分配到不同的核心上運行,避免資源競爭。
● 軟硬體協同設計:通過優化硬體架構和軟體算法,提升MCU的整體性能。
為了提升AI模型的運行效率,許多MCU開始整合專用的AI加速器。這些加速器針對神經網路運算進行了優化,能夠大幅提升模型的推理速度。例如,Arm的Cortex-M系列MCU已經支持AI加速功能,能夠高效運行機器學習模型。

圖一 : MCU必須在傳統應用與AI功能之間取得平衡。 |
|
Arm主任應用工程師林宜均指出,Arm 的 MCU 產品策略中結合了對傳統應用的深厚技術基礎,與對新興AI 技術發展的積極投入。產品不僅支援傳統的低功耗嵌入式應用,還加入了對 AI 推論的支援,尤其是在語音辨識、影像處理和感測器數據分析等場景。
新一代 Armv8-M 架構為 Cortex-M 處理器帶來更強大的安全性和效能,可更加滿足未來 MCU 應用的需求,包括 AI 功能的導入。 Arm Helium 技術是 Arm Cortex-M 處理器系列的 M 系列向量擴充方案 (MVE)。Helium 為 Armv8.1-M 架構的延伸,可協助機器學習 (ML) 與數位訊號處理 (DSP) 應用大幅提升效能
在 MCU 產品中導入 AI 功能的同時,必須兼顧傳統應用的需求,例如低功耗和即時性。例如Arm 的 Cortex-M 系列處理器,它在提供 AI 處理能力的同時,也保持了低功耗的特性,適合應用於各種嵌入式裝置。
軟體可以釋放硬體的效能與潛力。Arm 除了提供硬體平台之外,也提供軟體庫和開發工具,協助開發人員進行軟體優化。
為了滿足客戶於互聯網市場複雜且多樣化的設計,和署具有智慧又安全的物聯網裝置,Arm提供物聯網參考設計平台 Arm Corstone 系列,藉此協助降低設計複雜度,並加快上市時程。Corstone 提供大量軟體、IP 區塊,以及可配置和可修改的異質化子系統,以達到兼具效能與能源效率的目標。 SoC 設計人員可使用 Arm Corstone 做為框架,以可修改及可配置的異質化子系統建構SOC。軟體開發人員可使用 Corstone 軟體元件和工具,在硬體準備就緒之前就能開始開發軟體,大幅減少開發時的等待時間。

圖二 : 在 MCU 導入AI功能必須兼顧傳統應用的需求。 |
|
未來發展趨勢
未來,MCU將整合更高效的AI加速器,以支持更複雜的AI任務。基於RISC-V架構的AI加速器正在成為一個熱門研究方向。隨著AI技術的普及,MCU將在更多領域得到應用,例如智能家居、智慧城市、醫療設備等。而AI開發生態也將更完善,開發工具和框架將更加成熟,幫助開發者更高效地實現AI功能。
MCU的計算能力和存儲空間有限,直接運行大型AI模型是不現實的。因此,模型壓縮和量化成為優化AI模型在MCU上運行效率的關鍵技術。
為了降低開發難度,許多廠商提供了專門的開發工具和生態系統。例如TensorFlow Lite for MCUs是專為MCU設計的機器學習框架,能夠幫助開發者快速部署AI模型。許多廠商還提供了豐富的示例代碼和開發文檔,進一步降低了開發門檻。
結論

圖三 : 微控制器在AI時代面臨著新的挑戰和機遇。 |
|
微控制器在AI時代面臨著新的挑戰和機遇。透過整合AI處理器、優化資源分配、壓縮和量化AI模型,MCU能夠在傳統應用與AI功能之間取得平衡,並在邊緣與終端設備中發揮重要作用。未來,隨著技術的不斷進步,MCU將在更多領域實現智能化,為AI的普及和應用提供強大的支持。