Ceva扩展智能边缘 IP领导地位 增添用于AIoT 设备的全新TinyML 优化 NPU, 实现无处不在的边缘人工智能

类别:其他  出处:网络整理  发布于:2024-08-21 15:38:50 | 9 次阅读

  ·小巧的Ceva-NeuPro-Nano NPU带来了超低功耗与性能的优化平衡,可在消费、工业和通用 AIoT 产品中高效执行 TinyML 工作负载
  ·用于 Ceva-NeuPro NPU 系列的 Ceva-NeuPro Studio完善了 AI SDK,支持包括TensorFlow Lite for Microcontrollers和 microTVM的开放式 AI 框架,可加快开发 TinyML 应用
  ·Ceva 凭借在物联网连接方面的市场领导地位以及在音频和视觉传感方面的强大知识,开发针对嵌入式设备的优化 NPU,帮助半导体企业和 OEM厂商发挥边缘人工智能的潜力
  帮助智能边缘设备更可靠、更高效地连接、感知和推断数据的全球领先半导体产品和软件IP授权许可厂商Ceva公司(纳斯达克股票代码:CEVA) 宣布推出Ceva-NeuPro-Nano NPU以扩展其Ceva-NeuPro Edge AI NPU产品系列。这些自给自足的高效NPU可为半导体企业和OEM厂商提供所需的功耗、性能和成本效益,以便在用于消费、工业和通用 AIoT 产品的SoC 中集成TinyML模型。


  TinyML是指在低功耗、资源受限的设备上部署机器学习模型,从而将人工智能引入物联网 (IoT)。物联网设备对高效、的人工智能解决方案的需求日益增加,推动了TinyML市场快速增长。根据研究机构ABI Research预测,到 2030 年,超过40% 的TinyML出货量将采用专用 TinyML 硬件,而非由通用MCU驱动。Ceva-NeuPro-Nano NPU解决了TinyML所面临的特定性能难题,以实现无处不在和经济实用的人工智能,广泛应用于消费和工业物联网应用中的语音、视觉、预测性维护和健康感知等领域。
  新型 Ceva-NeuPro-Nano 嵌入式AI NPU架构完全可编程,可高效执行神经网络、特征提取、控制代码和 DSP 代码,并支持的机器学习数据类型和运算符,包括原生变换器计算、稀疏性加速和快速量化。与需要结合CPU或DSP并且基于 AI 加速器架构的现有TinyML 工作负载处理器解决方案相比,这种优化的自给自足架构使得Ceva-NeuPro-Nano NPU具有更高的能效、更小的硅片尺寸以及更佳性能。此外,Ceva-NetSqueeze AI压缩技术可直接处理压缩模型权重,省去中间的解压缩阶段,这减少了80%的Ceva-NeuPro-Nano NPU内存占用,从而解决了阻碍AIoT处理器广泛应用的关键瓶颈问题。
  Ceva副总裁兼传感器和音频业务部门总经理Chad Lucien表示:“Ceva-NeuPro-Nano将TinyML应用集成到低功耗物联网SoC和MCU中,并且以我们的企业战略为基础,通过先进的连接、传感和推理能力为智能边缘设备赋能,为企业开创了难能可贵的机会。Ceva-NeuPro-Nano系列NPU使得更多公司能够将人工智能带入边缘应用,从而制造具有先进功能集的智能物联网设备,为客户创造更多的价值。我们在无线物联网连接方面具有行业领先地位,在音频和视觉传感方面亦拥有强大技术,具备的市场条件,能够帮助客户发挥TinyML的巨大潜力,实现创新的解决方案,从而增强用户体验、提高效率,并为建设更智能、更互联的世界做出贡献。”
  ABI Research 行业分析师 Paul Schell 表示:“对于在智能边缘物联网设备上实现人工智能,Ceva-NeuPro-Nano可以满足电池供电设备对功耗、性能和成本的要求,实现语音、视觉和传感用例在广泛终端市场的始终在线应用,令人刮目相看。从 TWS 耳机、耳塞、可穿戴设备和智能扬声器到工业传感器、智能电器、家居自动化设备、摄像头等,Ceva-NeuPro-Nano可以在能源受限的 AIoT 设备中实施 TinyML。”
  Ceva-NeuPro-Nano NPU提供两款配置,包括配备32个int8 MAC的Ceva-NPN32和配备64个int8 MAC的Ceva-NPN64,两种配置都通过Ceva-NetSqueeze获得直接处理压缩模型权重功能。Ceva-NPN32 针对语音、音频、物品检测和异常检测用例的大多数 TinyML工作负载进行了高度优化;Ceva-NPN64则利用权重稀疏性、更大内存带宽、更多MAC和4位权重支持提供2倍性能加速,从而提供更强大的性能,在设备上实现更复杂的人工智能用例 (如物品分类、人脸检测、语音识别和健康监测等) 。
  这些NPU随附完整的人工智能SDK - Ceva-NeuPro Studio,这是为整个Ceva-NeuPro NPU系列提供一套通用工具的统一人工智能堆栈,支持包括TensorFlow Lite for Microcontrollers (TFLM) 和 microTVM (TVM)的开放式人工智能框架。
  Ceva-NeuPro-Nano 主要特性
  灵活的可扩展NPU 架构
  ·完全可编程,高效执行神经网络、特征提取、控制代码和 DSP 代码
  ·设计具备可扩展性能,满足广泛用例需求
  o具有每周期多 64 个 int8 MAC的MAC 配置
  ·面向未来的架构,支持的 ML 数据类型和运算符
  o支持 4 位至 32 位整数
  o原生变换器计算
  ·利用先进的机制为所有用例提供 ML 性能
  o稀疏性加速
  o非线性激活类型加速
  o快速量化
  超低内存需求边缘 NPU
  ·用于NN计算、特征提取、控制代码和DSP代码的高效单核设计,可让这些计算密集型任务省去配套MCU
  ·通过 Ceva-NetSqueeze 直接处理压缩模型权重,省去中间的解压缩阶段,多可减少 80% 的内存占用
  通过创新能源优化技术实现超低能耗
  ·自动化的即时能源调整
  ·通过使用权重稀疏性加速对计算进行提炼,大幅降低能耗和带宽需求
  易于使用的完备人工智能 SDK
  ·Ceva-NeuPro Studio为所有Ceva-NeuPro NPU (从全新Ceva-NeuPro-Nano到功能强大的Ceva-NeuPro-M) 提供统一的人工智能堆栈,具有简便的点击运行使用体验
  ·加速软件的开发和部署,从而缩短产品上市时间
  ·经过优化,可与包括 TFLM 和 TVM 在内的领先开放式人工智能推理框架无缝协作
  ·Model Zoo包含预训练和优化的TinyML 模型,涵盖语音、视觉和传感用例
  ·灵活适应新的模型、应用和市场需求
  ·全面的优化运行时间程序库和现成的特定应用软件组合
关键词:Ceva

全年征稿 / 资讯合作

稿件以电子文档的形式交稿,欢迎大家砸稿过来哦!

联系邮箱:3342987809@qq.com

版权与免责声明

凡本网注明“出处:维库电子市场网”的所有作品,版权均属于维库电子市场网,转载请必须注明维库电子市场网,https://www.dzsc.com,违反者本网将追究相关法律责任。

本网转载并注明自其它出处的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品出处,并自负版权等法律责任。

如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。

热点排行

广告