从零开始学习。。。
昨天第一次听说这个工具(的确是孤陋寡闻了):
可以加快高性能计算机视觉和深度学习视觉应用开发速度工具套件
OpenVINO工具套件全称是Open Visual Inference & Neural Network Optimization,是Intel于2018年发布的,开源、商用免费、主要应用于计算机视觉、实现神经网络模型优化和推理计算(Inference)加速的软件工具套件。由于其商用免费,且可以把深度学习模型部署在英尔特CPU和集成GPU上,大大节约了显卡费用,所以越来越多的深度学习应用都使用OpenVINO工具套件做深度学习模型部署。
OpenVINO工具套件主要包括:
-
Model Optimizer(模型优化器):用于优化神经网络模型的工具
-
Inference Engine(推理引擎):用于加速推理计算的软件包
通常一个完整的深度学习应用开发流程可以归结为三步:
-
用TensorFlow训练模型
-
用OpenVINO模型优化器优化模型
-
用OpenVINO推理引擎API开发用户应用程序
https://www.jianshu.com/p/64b932c1d5b2
官方文档:https://docs.openvinotoolkit.org/downloads/cn/I03030-1-Intel_%20Distribution%20of%20OpenVINO_%20Toolkit%20%20Intel_%20Software.pdf
部署高性能深度学习推理
在多种英特尔® 架构上发挥 AI 和计算机视觉的全部潜能,开发并增强各种应用案例,助力医疗与生命科学、零售、工业等领 域快速发展。您的 AI 和计算机视觉应用......现在将可以更快地运行
使用英特尔® OpenVINO™ 工具套件分发版开发可模拟人类视觉的应用和解决方案。
该工具套件基于卷积神经网络 (CNN),可在英特尔® 硬件(包括加速器)中 扩展工作负载并实现性能最大化。
- 支持从边缘到云的深度学习推理
- 加速 AI 工作负载,包括计算机视觉、音频、语音、语言和推荐系统
- 使用通用 API 支持在所有英特尔® 架构和 AI 加速器 — CPU、iGPU、英特尔® Movidius™ 视觉处理单元 (VPU)、FPGA 和英特尔® 高斯和神经加速器(英特 尔® GNA)上实现异构执行
- 通过函数库和预优化内核缩短上市时间
- 包括面向 OpenCV、OpenCL™ 内核以及其他工业工具和库的优化调用
OpenVINO工具包(ToolKit)主要包括两个核心组件,模型优化器(Model Optimizer)和推断引擎(Inference Engine)