zoukankan      html  css  js  c++  java
  • OpenVINO 是啥?Open Visual Inference & Neural Network Optimization

    从零开始学习。。。

    昨天第一次听说这个工具(的确是孤陋寡闻了):

    可以加快高性能计算机视觉和深度学习视觉应用开发速度工具套件


      OpenVINO工具套件全称是Open Visual Inference & Neural Network Optimization,是Intel于2018年发布的,开源、商用免费、主要应用于计算机视觉、实现神经网络模型优化和推理计算(Inference)加速的软件工具套件。由于其商用免费,且可以把深度学习模型部署在英尔特CPU和集成GPU上,大大节约了显卡费用,所以越来越多的深度学习应用都使用OpenVINO工具套件做深度学习模型部署。

    OpenVINO工具套件主要包括:

    • Model Optimizer(模型优化器):用于优化神经网络模型的工具

    • Inference Engine(推理引擎):用于加速推理计算的软件包

    通常一个完整的深度学习应用开发流程可以归结为三步:

    1. 用TensorFlow训练模型

    2. 用OpenVINO模型优化器优化模型

    3. 用OpenVINO推理引擎API开发用户应用程序

    https://www.jianshu.com/p/64b932c1d5b2


     官方文档:https://docs.openvinotoolkit.org/downloads/cn/I03030-1-Intel_%20Distribution%20of%20OpenVINO_%20Toolkit%20%20Intel_%20Software.pdf

    部署高性能深度学习推理

    在多种英特尔® 架构上发挥 AI 和计算机视觉的全部潜能,开发并增强各种应用案例,助力医疗与生命科学、零售、工业等领 域快速发展。您的 AI 和计算机视觉应用......现在将可以更快地运行 

    使用英特尔® OpenVINO™ 工具套件分发版开发可模拟人类视觉的应用和解决方案。

    该工具套件基于卷积神经网络 (CNN),可在英特尔® 硬件(包括加速器)中 扩展工作负载并实现性能最大化。

    • 支持从边缘到云的深度学习推理 
    • 加速 AI 工作负载,包括计算机视觉、音频、语音、语言和推荐系统 
    • 使用通用 API 支持在所有英特尔® 架构和 AI 加速器 — CPU、iGPU、英特尔® Movidius™ 视觉处理单元 (VPU)、FPGA 和英特尔® 高斯和神经加速器(英特 尔® GNA)上实现异构执行 
    • 通过函数库和预优化内核缩短上市时间 
    • 包括面向 OpenCV、OpenCL™ 内核以及其他工业工具和库的优化调用

    OpenVINO工具包(ToolKit)主要包括两个核心组件,模型优化器(Model Optimizer)推断引擎(Inference Engine)

  • 相关阅读:
    Kindle Book Resource
    Windows远程桌面
    python列表常用方法
    python字符串操作简单方法
    PCA降维实验代码
    android底部菜单栏的编写
    android UI:Fragment碎片
    android开发学习——day8
    android开发学习——day7
    android开发学习——day6
  • 原文地址:https://www.cnblogs.com/hbuwyg/p/12920215.html
Copyright © 2011-2022 走看看