瑞芯微AI芯片加持百度飞桨,携手加快AI运用落地

作者: 来历: OFweek维科网·电子工程 检查谈论 2020/5/14 11:13:20

5月13日,瑞芯微Rockchip正式宣告,旗下AI芯片RK1808、RK1806适配百度飞桨(PaddlePaddle)开源深度学习渠道,充沛兼容飞桨轻量化推理引擎Paddle Lite。此次瑞芯微与百度协作,旨在为AI职业赋能更多运用场景,加快AI产品落地进程。

image.png

百度飞桨与瑞芯微兼容性认证书

在AI年代,深度学习结构和操作体系相似,起着承上启下的效果,衔接芯片与运用。具有强壮算力的AI芯片加持,AI技能将得到更广泛遍及。

NPU年代降临软硬结合功用优化

瑞芯微AI芯片RK1808及RK1806,内置独立NPU神经计算单元,INT8 算力高达3.0TOPs;选用22nm FD-SOI工艺,相同功用下的功耗比较干流28nm工艺产品下降约30%,在算力、功用、功耗等指标上均有优异的体现。经实测,瑞芯微AI芯片在Paddle Lite中运转MobileNet V1耗时仅为6.5 ms,帧率高达153.8 FPS,二者充沛兼容并高效安稳运转。

image.png

飞桨工业级深度学习开源渠道以百度多年的深度学习技能研究和工业运用为根底,集深度学习中心练习和猜测结构、根底模型库、端到端开发套件、东西组件和服务渠道于一体,2016年正式开源,是我国极具影响力的全面开源敞开、技能、功用齐备的工业级深度学习渠道。Paddle Lite是飞桨推出的一套功用完善、易用性强且功用杰出的轻量化推理引擎,支撑多种硬件、多种渠道,具有轻量化布置、高功用完成等重要特性。

image.png

瑞芯微RK18xx系列芯片适配Paddle Lite

如下图所示的实测結果能够看出,与手机等移动端常用的国内外干流CPU比较,RK18系列NPU在MobileNET_v1的耗时体现超卓,由此证明在AI相关范畴,如图画分类、方针检测、语音交互上,专用的AI芯片将带来更超卓的效果。

image.png

瑞芯微RK18xx系列芯片在MobileNETV1上比照干流CPU功用杰出

经过适配飞桨开源深度学习渠道,瑞芯微芯片将能更好地赋能国内用户的事务需求,为端侧AI供给微弱算力;二者的交融,将充沛发挥软硬件结合的优势,加快开发布置速度,推进更多AI运用的落地。

国产芯协作晋级实操教程详解

瑞芯微AI芯片在飞桨上的具体操作方法可参阅Paddle Lite文档,内容包括支撑的芯片、设备列表、Paddle模型与算子及参阅示例演示等等。

(查找途径:百度查找“Paddle-Lite 文档”,左下角挑选版别release-v2.6.0,布置事例板块“PaddleLite运用RK NPU猜测布置”)

image.png

image.png

测验设备(RK1808EVB)

image.png

此外,除RK1808及RK1806芯片解决方案外,瑞芯微旗下搭载NPU的AI系列芯片也将连续晋级适配百度飞桨,进一步深化两边协作关系,携手助力我国自主可控AI生态的构建。

标签:

版权提示】三昇体育倡议尊重与维护知识产权。未经答应,任何人不得仿制、转载、或以其他方法运用本网站的内容。如发现本站文章存在版权问题,烦请供给版权疑问、身份证明、版权证明、联络方法等发邮件至daphnewillage@kuyibu.com,咱们将及时交流与处理。

宣布谈论 点击 登录 微信,亮头像秀观念,已发布 0