OpenVINO 是啥?Open Visual Inference & Neural Network Optimization

从零开始学习。。。

昨天第一次听说这个工具(的确是孤陋寡闻了):

可以加快高性能计算机视觉和深度学习视觉应用开发速度工具套件


  OpenVINO工具套件全称是Open Visual Inference & Neural Network Optimization,是Intel于2018年发布的,开源、商用免费、主要应用于计算机视觉、实现神经网络模型优化和推理计算(Inference)加速的软件工具套件。由于其商用免费,且可以把深度学习模型部署在英尔特CPU和集成GPU上,大大节约了显卡费用,所以越来越多的深度学习应用都使用OpenVINO工具套件做深度学习模型部署。

OpenVINO工具套件主要包括:

  • Model Optimizer(模型优化器):用于优化神经网络模型的工具

  • Inference Engine(推理引擎):用于加速推理计算的软件包

通常一个完整的深度学习应用开发流程可以归结为三步:

  1. 用TensorFlow训练模型

  2. 用OpenVINO模型优化器优化模型

  3. 用OpenVINO推理引擎API开发用户应用程序

https://www.jianshu.com/p/64b932c1d5b2


 官方文档:https://docs.openvinotoolkit.org/downloads/cn/I03030-1-Intel_%20Distribution%20of%20OpenVINO_%20Toolkit%20%20Intel_%20Software.pdf

部署高性能深度学习推理

在多种英特尔® 架构上发挥 AI 和计算机视觉的全部潜能,开发并增强各种应用案例,助力医疗与生命科学、零售、工业等领 域快速发展。您的 AI 和计算机视觉应用......现在将可以更快地运行 

使用英特尔® OpenVINO™ 工具套件分发版开发可模拟人类视觉的应用和解决方案。

该工具套件基于卷积神经网络 (CNN),可在英特尔® 硬件(包括加速器)中 扩展工作负载并实现性能最大化。

  • 支持从边缘到云的深度学习推理 
  • 加速 AI 工作负载,包括计算机视觉、音频、语音、语言和推荐系统 
  • 使用通用 API 支持在所有英特尔® 架构和 AI 加速器 — CPU、iGPU、英特尔® Movidius™ 视觉处理单元 (VPU)、FPGA 和英特尔® 高斯和神经加速器(英特 尔® GNA)上实现异构执行 
  • 通过函数库和预优化内核缩短上市时间 
  • 包括面向 OpenCV、OpenCL™ 内核以及其他工业工具和库的优化调用

OpenVINO工具包(ToolKit)主要包括两个核心组件,模型优化器(Model Optimizer)推断引擎(Inference Engine)

 

上一篇:c – 协议缓冲区的静态链接导致与现有符号冲突


下一篇:OpenVINO 学习笔记(5):IE 模块使用