全球晶片和软体IP授权厂商Ceva公司推出Ceva-NeuPro-Nano NPU,扩展其Ceva-NeuPro Edge AI NPU产品系列。这些高效NPU可为半导体企业和OEM厂商提供所需的功耗、性能和成本效益以便在用於消费、工业和通用AIoT产品的SoC中整合TinyML模型。
|
用於Ceva-NeuPro NPU系列的Ceva-NeuPro Studio完善AI SDK,支援包括TensorFlow Lite for Microcontrollers和microTVM的开放式AI框架,可加快开发 TinyML应用。 |
根据研究机构ABI Research预测,至2030年, TinyML出货量超过40%将采用专用TinyML硬体,而非由通用MCU驱动。Ceva-NeuPro-Nano NPU解决了TinyML所面临的特定性能难题,加以实现AI,广泛应用於消费和工业物联网应用中的语音、视觉、预测性维护和健康感知等领域。
新型 Ceva-NeuPro-Nano嵌入式AI NPU架构完全可程式设计,可高效执行神经网路、特徵提取、控制程式码和DSP程式码,并支援先进的机器学习资料类型和运算子,包括原生变换器运算、稀疏性加速和快速量化。与需要结合CPU或DSP并且基於AI加速器架构的现有TinyML工作负载处理器解决方案相比,自给自足架构使得Ceva-NeuPro-Nano NPU具有高效能、更小的矽片尺寸及更优异的性能。此外,Ceva-NetSqueeze AI压缩技术可直接处理压缩模型权重,减少80%的Ceva-NeuPro-Nano NPU记忆体占用,从而解决阻碍AIoT处理器广泛应用的关键瓶颈问题。
Ceva-NeuPro-Nano NPU提供两款配置,包括配备32个int8 MAC的Ceva-NPN32和配备64个int8 MAC的Ceva-NPN64,皆借助Ceva-NetSqueeze获得直接处理压缩模型权重功能。Ceva现在已提供Ceva-NeuPro-Nano NPU授权许可。