帳號:
密碼:
最新動態
產業快訊
CTIMES / 文章 /
神經處理/運算為邊緣帶來實時決策
 

【作者: 恩智浦半導體】   2020年12月24日 星期四

瀏覽人次:【4841】

機器學習(Machine learning;ML)技術為家庭、零售、工廠和城市帶來智慧,機器學習在不同環境下檢測模式、偵測異常並啟動回應。


邊緣是部署機器學習應用程式的理想選擇。與雲端處理不同,邊緣處理是即時完成的,更接近使用者,提供洞察和本地化決策允許更無縫、同步、高效的用戶體驗。


神經網路模型效率的提高和高速神經網路加速器的出現,正在幫助機器學習向邊緣轉移。一個可能性的好例示為恩智浦i.MX 8M Plus,為EdgeVerse產品組合的新生力軍。它提供專用機器學習硬體-神經處理單元(NPU),即使在最複雜的神經網路模型中也可以執行推斷。開發人員可以將機器學習推理功能從 NPU中登出,從而允許高性能Cortex-A和Cortex-M內核、DSP和GPU執行其他系統級或使用者應用任務。



圖一 : 神經網路模型效率的提高和高速神經網路加速器的出現,正在幫助機器學習向邊緣轉移。(source:elnfochips)
圖一 : 神經網路模型效率的提高和高速神經網路加速器的出現,正在幫助機器學習向邊緣轉移。(source:elnfochips)

NPU與i.MX 8M Plus的雙圖像信號處理器(image signal processors;ISP) 和GPU相結合,可實現即時圖像處理應用,如監控、智慧零售應用、機器人視覺和居家健康監視器。


對於已經在工業、汽車和醫療領域使用i.MX處理器的工程師來說,使用i.MX 8M Plus處理器(或其他i.MX處理器)在邊緣應用中採用機器學習是很自然的一步。在恩智浦eIQ機器學習開發環境的支援下,工程師可以在CPU、GPU或NPU上運行機器學習模型之間無縫切換。


會在哪裡發現i.MX 8M Plus

i.MX 8M Plus在邊緣進行機器學習,可實現語音、臉部、揚聲器和手勢識別、物體檢測與分類、增強現實(augmented reality)、環境感測器和異常檢測控制。


嵌入式系統中的機器學習和視覺為人機無縫交互開闢了新的可能性。通過邊緣執行機器學習演算法,系統可以分析人們的行為,並檢測臉部細節,以估計人的性別、年齡、甚至情緒。將機器學習數據資料在邊緣進行處理可保護隱私、消除雲依賴性,並提供即時回應時間。



圖二 : 嵌入式系統中的機器學習和視覺為人機無縫交互開闢了新的可能性。
圖二 : 嵌入式系統中的機器學習和視覺為人機無縫交互開闢了新的可能性。

i.MX 8M Plus可實現公共安全、工業機器視覺、機器人、手勢和情感檢測方面的人和物體識別。當我們能使用手勢從自動售貨機中免觸式選擇所要的物品,這一功能的實現在當前COVID-19環境中將變得至關重要。


在醫療市場,基於邊緣的機器學習模組允許自動化、遠端測試和監控,具有快速決策和高可靠性。醫療專業人員可以通過監測呼吸和運動模式等數據,在需要時提供即時?明。


工廠自動化的驅動性不斷增強,整合更多基於視覺的系統是重要發展趨勢,i.MX 8M Plus 可滿足這一需求。在這些環境中,機器學習參與了檢查檢測、分析和處理邊緣數據。i.MX 8M Plus雙攝影輸入可檢查產品的多個角度,機器學習加速器可以經過訓練,以檢測出劣品。它也足以辨識操作者的手勢,也能操作與確定安全參數。


邊緣機器學習的未來

安全地處理在邊緣捕獲的大量數據並消除雲延遲的需求,正在推動從雲端處理導向在邊緣進行機器學習的運用。


相關文章
藍牙技術支援精確定位
從軟體洞察與案例分析塑造的 NPU IP 架構
結合功能安全 打造先進汽車HMI設計
EdgeLock 2GO程式設計簡化設備配置
結合功能安全,打造先進汽車HMI設計
comments powered by Disqus
相關討論
  相關新聞
» 恩智浦提供即用型軟體工具 跨處理器擴展邊緣AI功能
» 奧迪導入恩智浦UWB產品組合 實現免持汽車門禁
» 巴斯夫與Fraunhofer研究所共慶 合作研發半導體產業創新方案10年
» 工研院IEK眺望2025:半導體受AI終端驅動產值達6兆元
» ASM攜手清大設計半導體製程模擬實驗 亮相國科會「科普環島列車」


刊登廣告 新聞信箱 讀者信箱 著作權聲明 隱私權聲明 本站介紹

Copyright ©1999-2024 遠播資訊股份有限公司版權所有 Powered by O3  v3.20.2048.18.218.245.179
地址:台北數位產業園區(digiBlock Taipei) 103台北市大同區承德路三段287-2號A棟204室
電話 (02)2585-5526 #0 轉接至總機 /  E-Mail: webmaster@ctimes.com.tw