强强联合,OPEN AI LAB 边缘AI推理框架Tengine加入ONNX联盟

[摘要]近日,OPEN AI LAB自主知识产权的商用级边缘AI推理框架Tengine再获业界权威认可,正式加入ONNX官方认证。 ONNX的全称为Open Neural Network
近日,OPEN AI LAB自主知识产权的商用级边缘AI推理框架Tengine再获业界权威认可,正式加入ONNX官方认证。

ONNX的全称为Open Neural Network Exchange(开放神经网络交换),它是一种针对机器学习所设计的开放式的文件格式,用于存储训练好的模型,并能使不同的人工智能框架采用相同格式存储模型数据及交互,极大地方便工业部署。其规范及代码主要由微软、亚马逊 、Facebook 和 IBM 等公司共同开发,以开放源代码的方式托管在GitHub上。目前官方支持加载ONNX模型并进行推理的深度学习框架有: TensorFlow,PyTorch, MXNet,ML.NET等,具体支持列表如下图,Tengine近日正式加入ONNX官方支持列表。(https://onnx.ai/supported-tools.html#buildModel)

ONNX能使PyTorch,MXNet等采用相同格式存储模型数据及交互

Tengine是OPEN AI LAB针对于嵌入式终端平台以及终端AI应用场景特点,采用模块化设计为终端人工智能量身打造的高效、简洁、高性能的前端推理计算框架,致力于

打造国内自主可控的端侧深度学习推理引擎。项目自诞生起,便着手支持ONNX生态建设,让Tengine能够运行以ONNX为存储格式的网络模型。日前,ONNX已接受Tengine作为官方认可的推理框架/转换工具(https://onnx.ai/supported-tools.html#deployModel),Tengine在GitHub的地址为https://github.com/OAID/Tengine 。

ONNX可以作为中间格式,衔接PyTorch、MXNet等不同训练框架生成的网络模型(图片来自于ONNX官网)

Tengine是OPEN AI LAB针对于嵌入式终端平台以及终端AI应用场景特点,采用模块化设计为终端人工智能量身打造的高效、简洁、高性能的前端推理计算框架,致力于打造自主知识产权的端侧深度学习推理引擎。Tengine作为一个开放开源的推理框架,对接了很多种训练框架模型格式如Caffe/TensorFlow/MXNet/PyTorch等,同时为了方便ONNX社区的用户使用Tengine,Tengine对ONNX模型进行了适配,让Tengine能够运行以ONNX为存储格式的网络模型。日前,ONNX已接受Tengine作为官方认可的推理框架/转换工具(https://onnx.ai/supported-tools.html#deployModel),Tengine在GitHub的地址为https://github.com/OAID/Tengine

ONNX已接受Tengine作为官方认可的推理框架/转换工具(图片来自于ONNX官网)

而在本月初,OPEN AI LAB已与老牌跨平台计算机视觉库OpenCV联合发布新版本,让OpenCV开源社区生态更全面和丰富,也让Tengine能够面向更广泛的全球开发者。

OpenCV4.3.0 Change Logs

https://github.com/opencv/opencv/wiki/ChangeLog#version430

此外,根据IT开发者社区CSDN近期汇总国内外AI工具框架关键词,并基于实际数据梳理的《中国 AI 应用开发者报告》显示,目前在国内的AI开发者中,Tengine成为最受国内AI开发者欢迎的本土AI框架。

最受国内AI开发者欢迎的全球AI框架排名(数据来源:CSDN)

关于OPEN AI LAB

OPEN AI LAB(开放智能)于2016年成立,公司专注边缘智能计算及应用,致力于推动芯片及算力、算法、工程产品化、行业应用等完整产业链的深度协作,加速人工智能产业化部署和场景的边界拓展,赋能场景化细分行业快速实现+AI。为AIoT产业上下游合作伙伴提供端、边、云一体化人工智能基础软硬件开发平台及应用级解决方案。




免责声明:

本站系本网编辑转载,会尽可能注明出处,但不排除无法注明来源的情况,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本网联系, 来信: liujun@soft6.com 我们将在收到邮件后第一时间删除内容!

[声明]本站文章版权归原作者所有,内容为作者个人观点,不代表本网站的观点和对其真实性负责,本站拥有对此声明的最终解释权。