-
OpenVINO是免费的吗? 对,OpenVINO是开源免费的。
-
OpenVINO支持模型训练吗? OpenVINO是用于模型部署的工具包,不支持模型训练。
-
OpenVINO支持哪些硬件平台? 目前仅支持Intel®的硬件平台,包括:CPU,集成显卡iGPU, GNA, FPGA, MovidiusTM VPU。 还支持树莓派。
-
OpenVINO支持cuda吗? 不支持。
-
如何了解OpenVINO所做产品的优化和升级信息 优化指南:使用OpenVINO进行模型部署,主要使用两个模块:模型优化器和推理引擎 模型优化器对模型进行优化,具体优化技术可参考:https://docs.openvinotoolkit.org/latest/openvino_docs_MO_DG_prepare_model_Model_Optimization_Techniques.html 推理引擎底层直接调用硬件平台的加速库对模型进行指令级别的加速,使用过程中可参考优化指南:https://docs.openvinotoolkit.org/latest/openvino_docs_optimization_guide_dldt_optimization_guide.html 新版本升级说明请参考:https://software.intel.com/content/www/us/en/develop/articles/openvino-relnotes.html
-
在Windows上安装OpenVINO时,Visual Studio中需要选择哪些组件?
-
如何在Windows上配置环境变量 参考:https://www.intel.cn/content/www/cn/zh/support/articles/000033440/boards-and-kits/neural-compute-sticks.html,设置过程中参考最新版本对应的环境变量设置脚本: C:\Program Files (x86)\IntelSWTools\openvino\bin\setupvars.bat
-
运行setupvars.bat出错
检查系统环境变量Path的值,删掉有问题的值。
- 配置模型优化器的依赖库一直装不上怎么办? Windows: cd C:\Program Files (x86)\IntelSWTools\openvino\deployment_tools\model_optimizer\install_prerequisites install_prerequisites.bat
Linux: cd /opt/intel/openvino/deployment_tools/model_optimizer/install_prerequisites sudo ./install_prerequisites.sh
解决办法:换国内pip源: Windows: 在“C:\Users\当前用户名”下新建一个pip目录,在pip目录中新建pip.ini文件并输入以下内容,保存后重新运行:install_prerequisites.bat [global] timeout = 300 index-url = https://pypi.tuna.tsinghua.edu.cn/simple [install] trusted-host=tsinghua.edu.cn
Linux: 在当前用户的Home目录下新建一个.pip目录,在pip目录中新建pip.ini文件并输入以上内容,保存后重新运行:sudo ./install_prerequisites.sh
- 运行安装验证脚本出错:模型下载不了 cd C:\Program Files (x86)\IntelSWTools\openvino\deployment_tools\demo
demo_squeezenet_download_convert_run.bat
因为国内网络环境的问题,squeezenet1.1模型很难下载下来。
- 运行安装验证脚本出错:Bad conversion cd C:\Program Files (x86)\IntelSWTools\openvino\deployment_tools\demo
demo_squeezenet_download_convert_run.bat
可能原因: 加载的模型路径中有中文
解决办法:确保模型文件的路径中没有中文
- 运行安装验证脚本出错:CMake Error: Could not create named generator Visual Studio cd C:\Program Files (x86)\IntelSWTools\openvino\deployment_tools\demo
demo_security_barrier_camera.bat
可能原因:安装 visual studio 的时候修改了 默认路径,demo_security_barrier_camera.bat中没有找到相应的 visual studio 版本。 解决办法:在demo_security_barrier_camera.bat中临时加上你系统中安装的Visual Studio版本信息。
- 运行安装验证脚本出错:’vswhere’不是内部或外部命令,也不是可运行的程序 cd C:\Program Files (x86)\IntelSWTools\openvino\deployment_tools\demo
demo_security_barrier_camera.bat
原因:OpenVINO没有安装在C盘上,.bat脚本中的 cd 命令运行失败 解决办法:把.bat脚本中的“cd”命令全都改成“cd /d”,或者把OpenVINO安装到C盘。
- 运行Demo时,读取视频出错:CvCapture_MSMF::initStream Failed to set mediaType (stream 0, (0x0 @ 1) MFVideoFormat_RGB32 (unsupported media type)
参考:https://software.intel.com/en-us/forums/intel-distribution-of-openvino-toolkit/topic/849044?language=en-us&https=1# 解决办法:进入安装目录下的opencv子目录,C:\Program Files (x86)\IntelSWTools\openvino_2020.3.194\opencv,找到ffmpeg-download.ps1文件,右键菜单中选择Run with Powershell安装ffmpeg的相关库即可。
-
运行C:\Program Files (x86)\IntelSWTools\openvino\deployment_tools\open_model_zoo\tools\downloader下的downloader.py脚本下载模型时速度很慢,怎么办? 在C:\Program Files (x86)\IntelSWTools\openvino\deployment_tools\open_model_zoo\models的intel和public目录中,每个模型的路径下有个model.yml,其中配置了模型的下载路径,可以直接去网站上下载。
-
如何在使用Model Optimizer转模型的时候截取子网络? 运行mo.py脚本时指定 –input和--output参数为要截取的网络的输入和输出节点即可,请参考: https://docs.openvinotoolkit.org/latest/_docs_MO_DG_prepare_model_convert_model_Cutting_Model.html
-
OpenVINO能转换Tensorflow2.0的模型吗? 从2020.4开始支持Tensorflow2.2.0。
-
模型优化器可以将模型转换成INT8精度吗? 不可以,INT8量化可以使用OpenVINO中的Post Training Optimization Toolkit,参考:https://docs.openvinotoolkit.org/2020.3/_README.html
-
模型优化器对模型做了哪些优化? 请参考:https://docs.openvinotoolkit.org/2020.3/_docs_MO_DG_prepare_model_Model_Optimization_Techniques.html
-
模型优化器如何转换Tensorflow Object Detection API模型? 请参考:https://docs.openvinotoolkit.org/latest/_docs_MO_DG_prepare_model_convert_model_tf_specific_Convert_Object_Detection_API_Models.html
-
在OPENVINO中如何将Caffe开源框架训练出来的模型转为IR格式? 请参考:https://docs.openvinotoolkit.org/latest/openvino_docs_MO_DG_prepare_model_convert_model_Convert_Model_From_Caffe.html
-
自己训练的Bert模型转换成功,但是使用Inference Engine加载模型时出错: 模型转换命令: python mo_tf.py --input_model xxx.pb
--disable_nhwc_to_nchw --input IteratorGetNext:0,IteratorGetNext:1,IteratorGetNext:4 --input_shape [1,128],[1,128],[1,128]
原因调查:从PB文件中可以查看到OneHot的Indices输入是Reshape2,该节点在pb中是int32,转换以后变成float32
解决方案:转换模型时添加数据类型信息 python mo_tf.py --input_model xxx.pb
--disable_nhwc_to_nchw --input IteratorGetNext:0{i32},IteratorGetNext:1{i32},IteratorGetNext:4{i32} --input_shape [1,128],[1,128],[1,128]
-
PyTorch转ONNX,再转IR时,Unsample操作转不了 解决方案:Pytorch转ONNX时,指定opset_version=10是可以的。(2020.3之前版本中测试通过)
-
如何做到OpenVINO最小部署?即:不需要额外的开销,只打包必要的文件。 在Linux版本中可以使用Deployment Manager生成最小部署包。请参考:https://docs.openvinotoolkit.org/2020.3/_docs_install_guides_deployment_manager_tool.html
-
尝试使用项目:https://github.com/opencv/openvino_training_extensions/tree/develop/pytorch_toolkit/object_detection/person-vehicle-bike-detection 中的训练脚本重新训练模型时,自己安装了mmdetection官方工具,但是提示不支持pytorch预训练模型。 openvino_training_extensions中使用的mmdetection是intel在开源框架上做过二次开发的,搭建环境时请参考:https://github.com/opencv/openvino_training_extensions/tree/develop/pytorch_toolkit/object_detection
-
在CPU上如何设置参数优化OpenVINO部署? 请参考:https://docs.openvinotoolkit.org/latest/_docs_IE_DG_supported_plugins_CPU.html#supported_configuration_parameters
-
我有多个计算棒,在加载模型时用MYRIAD是否会自动分配? MultiDevice自动负载均衡通常针对多设备跑一个模型,如果是多个模型,需要自己写代码指定哪个MYRIAD加载哪个模型。
-
iGPU加载模型很慢怎么办? 参考:https://github.com/intel/compute-runtime/blob/master/opencl/doc/FAQ.md,cl-cache设置部分,设置好以后,虽然第一次加载还是会慢,但是后面再重新加载时会很快。