内容摘要
5月13日,瑞芯微rock chip正式宣布其AI芯片RK1808、RK1806适用于百度飞桨开源深度学习平台,与飞桨轻量级推理引擎paddleLite完全兼容瑞芯微与百度的合作旨在赋予AI产业更多应用场景,加速AI产品落地进程。
5月13日,瑞芯微rock chip正式宣布其AI芯片RK1808、RK1806适用于百度飞桨开源深度学习平台,与飞桨轻量级推理引擎paddleLite完全兼容瑞芯微与百度的合作旨在赋予AI产业更多应用场景,加速AI产品落地进程。
百度飞桨和瑞芯微之间的兼容性证书
在AI时代,深度学习框架类似于操作系统,在芯片和应用之间起到连接的作用。在具有强大计算能力的AI芯片的支持下,AI技术将得到更广泛的普及。
NpU时代软硬结合性能的优化
瑞芯微AI芯片RK1808和RK1806内置独立的NpU神经计算单元,INT8的计算能力高达3.0TOps采用22nmFD-SOI工艺,在相同性能下的功耗比主流的28nm工艺产品降低了30%左右,在计算能力、性能和功耗方面都有着出色的表现。根据实测,瑞芯微AI芯片在paddleLite运行MobileNetV1仅需6.5ms,帧率高达153.8FpS,两个芯片完全兼容,运行高效稳定。
飞桨工业深度学习开源平台基于百度,多年的深度学习技术研究和工业应用,集成了深度学习核心培训和预测框架、基础模型库、端到端开发工具包、工具组件和服务平台。2016年正式开放,是中国地区具有影响力的开源全面、技术领先、功能齐全的工业深度学习平台PaddleLite是飞桨,推出的功能完善、易用性强、性能优异的轻量级推理引擎,支持多种硬件和平台,具有轻量级部署、高性能实现等重要特点。
Rk18xx系列芯片适应paddleLite
从下图所示的实测结果可以看出,与手机等移动终端常用的国内外主流CpU相比,RK18系列NpU在耗时上在MobileNET_v1中表现良好,证明了专用AI芯片将在图像分类、目标检测、语音交互等AI相关领域带来更好的效果。
与主流CpU相比,瑞芯微RK18XX系列芯片在MobileNETV1上表现优异
通过适配飞桨开源深度学习平台,瑞芯微芯片将能够更好地赋能国内用户的业务需求,为端侧AI提供强大的计算能力;两者的融合将充分发挥软硬件结合的优势,加快开发部署,推动更多AI应用的落地。
国内核心合作升级实操教程详解
飞桨, 瑞芯微AI芯片的详细操作方法请参考paddleLite文档,涵盖支持的芯片、设备列表、paddle型号和运营商、参考示例演示等。
(搜索路径:在百度,搜索“paddle-Lite文档”,选择左下角的版本-v2.6.0,部署案例部分“paddleLite使用RKNpU预测部署”)
测试设备(RK1808EVB)
除了RK1808和RK1806芯片解决方案,搭载NpU的瑞芯微AI系列芯片也将升级适配飞桨, 百度,进一步深化双方合作,助力打造中国自主可控的AI生态系统。