高性能深度学习推理平台 OpenPPL 正式开源!

OpenPPL 是商汤基于自研高性能算子库的开源深度学习推理平台,能够让人工智能应用高效可靠地运行在现有的 CPU、GPU 等计算平台上,为云端场景提供人工智能推理服务。

高性能深度学习推理平台 OpenPPL 正式开源!

官网:openppl.ai

在刚刚举行的 2021 世界人工智能大会(WAIC)上,商汤科技正式推出 OpenPPL 计划 —— 决定将深度学习推理部署引擎 SensePPL 中云端推理的能力开源给技术社区,从而加速 AI 技术的普及与进步!

高性能深度学习推理平台 OpenPPL 正式开源!

▎把推理交给 OpenPPL,把时间还给思考

OpenPPL 基于全自研高性能算子库,拥有极致调优的性能;同时提供云原生环境下的 AI 模型多后端部署能力,并支持 OpenMMLab 等深度学习模型的高效部署。

一、高性能

设计微架构友好的任务/数据/指令等多级并行策略,自研 NV GPU、 x86 CPU 计算库,满足部署场景对神经网络推理、常用图像处理的性能需求

  • 支持 GPU T4 平台 FP16 推理
  • 支持 CPU x86 平台 FP32 推理
  • 核心算子优化,平均性能领先业界

二、OpenMMLab 部署

支持 OpenMMLab 检测、分类、分割、超分等系列前沿模型,同时提供模型前后处理所需图像处理算子

  • 遵循 ONNX 开放标准,提供 ONNX 转换支持
  • 支持网络动态特性
  • 提供 MMCV 算子高性能实现

三、云上多后端部署

面向云端异构推理场景,支持多平台部署

  • 支持 x86 FMA & AVX512、NV Turing 架构
  • 支持异构设备并行推理

▎项目链接

欢迎 star,欢迎提 issue~

???? Contact us: OpenPPL

高性能深度学习推理平台 OpenPPL 正式开源!

▎结语

机器学习的发展远没有结束,我们将始终关注业界的进展。OpenPPL 会吸收业界的需求,长期维护并完善算子的种类,模型支持的类型,并将长期优化模型推理全链条。

上一篇:如何阅读slow日志


下一篇:高性能日记--show profile剖析sql语句