Uploads%2farticles%2f13453%2f253. ceva neupro s
|
2019-09-18

CEVA 推出新一代边缘设备 AI 处理器架构 NeuPro-S,性能提高 50%

为定制神经网络引擎提供协处理支持

9 月 18 日,比利时布鲁塞尔 AutoSens 展会上,CEVA 发布了第二代 AI 处理器架构 NeuPro-S,使深度神经网络工作负载的性能提高 50%,内存带宽降低 40%,功耗降低 30%。同时还推出了业界首创的深度神经网络编译器技术 CDNN-Invite API,通过统一接口,优化神经网络推理固件,从而支持 NeuPro-S 内核与定制神经网络引擎的异构协同处理。

NeuPro-S 和 CDNN-Invite API 适用于需要在边缘端进行 AI 处理的视觉终端设备,包括自动驾驶汽车、智能手机、监控摄像头、消费类摄像头、AR/VR 头盔、机器人和工业应用。

NeuPro-S 可以对边缘设备中视频和图像中的物品进行分割、检测和分类神经网络,从而显著提高系统感知性能。通过减少使用外部 SDRAM 的高成本传输,NeuPro-S 可以支持多级内存系统。同时,NeuPro-S 还支持多重压缩选项和异构可扩展性,可在单个统一架构中实现 CEVA-XM6 视觉 DSP、NeuPro-S 内核和定制 AI 引擎的各种组合。

NeuPro-S 系列包括 NPS1000、NPS2000、NPS4000,分别具有 1000、2000、4000 个 8 位 MAC 的预配置处理器。其中,NPS4000 具有最高的单核 CNN 性能,在 1.5GHz 时可达到 12.5 TOPS,并且可完全扩展,最高可达到 100 TOPS。

NeuPro-S 架构中集成的完全可编程 CEVA-XM6 视觉 DSP,不仅可以对 AI 实时处理,还可以同时处理图像、计算机视觉和一般 DSP 工作负载。

在自动驾驶领域,NeuPro-S 还提供了满足安全要求的解决方案,包括质量保证标准 IATF 16949、以及汽车标准 ISO 26262 和 A-Spice。

针对日益多样化的专用神经网络和处理器,CDNN-Invite API 可将客户设计的神经网络引擎无缝集成到 CEVA 深度神经网络(CDNN)框架中。而后,CDNN 将会全面优化、增强网络和层,从而充分利用 CEVA-XM6 视觉 DSP、NeuPro-S、以及定制神经网络处理器的各项卓越性能。CDNN-Invite API 已获大客户采用,他们与 CEVA 工程师密切合作将其部署在商业产品中。

CEVA 视觉业务部门副总裁兼总经理 Ilan Yona 评论道:

CEVA 继续领先扩展边缘设备深度神经网络处理器和优化技术的发展步伐。NeuPro-S 架构解决了这些设备中日益增多的数据带宽和功耗挑战。通过 CDNN-Invite API,我们降低了不断增长的神经网络创新者社群的准入门槛,可让他们从我们的 CDNN 编译器提供的广泛支持和易用性中受益,从而进一步扩展了在神经网络编译器技术领域无可争议的竞争优势。

编辑:森林木 / 深圳湾

资讯来源:CEVA

>>
Back to top btn