openvino API 2.0 与之前版本API差异对比
openvino API 2.0 和之前 版本差异较大,本博文属于官方文档的Python版本代码摘录,方便部分官网网络不可达的同学查阅,有个基本了解
🥇 版权: 本文由【墨理学AI】原创首发、各位读者大大、敬请查阅、感谢三连
🎉 声明: 作为全网 AI 领域 干货最多的博主之一,❤️ 不负光阴不负卿 ❤️
文章目录
0. python 项目 openvino 的安装
使用 pip 命令进行安装即可,下载安装速度慢、则考虑指定源
pip install openvino-dev
pip install openvino
# 模型转换会用到
pip install onnx
pip install onnxruntime
openvino API 2.0 与之前版本API差异对比
openvino API 2.0 和之前 版本差异较大,本博文属于官方文档的Python版本代码摘录,方便部分官网网络不可达的同学查阅,有个基本了解
1. Create Core
Inference Engine API:
import numpy as np
import openvino.inference_engine as ie
core = ie.IECore()
OpenVINO™ Runtime API 2.0:
import openvino.runtime as ov
core = ov.Core()
1.1 (Optional) Load extensions (扩展算子)
Inference Engine API:
core.add_extension("path_to_extension_library.so", "CPU")
OpenVINO™ Runtime API 2.0:
core.add_extension("path_to_extension_library.so")
2. Read a model from a drive
Inference Engine API:
network = core.read_network("model.xml")
OpenVINO™ Runtime API 2.0:
model = core.read_model("model.xml")
2.1 (Optional) Perform model preprocessing
3. Load the Model to the Device
Inference Engine API:
# Load network to the device and create infer requests
exec_network = core.load_network(network, "CPU", num_requests=4)
OpenVINO™ Runtime API 2.0:
compiled_model = core.compile_model(model, "CPU")
4. Create an Inference Request
Inference Engine API:
# Done in the previous step
OpenVINO™ Runtime API 2.0:
infer_request = compiled_model.create_infer_request()
5. Fill input tensors
6. Start Inference—同步和异步推理
7. Process the Inference Results
精选专栏
计算机视觉领域 八大专栏、不少干货、有兴趣可了解一下
- ❤️ 图像风格转换 —— 代码环境搭建 实战教程【关注即可阅】!
- 💜 图像修复-代码环境搭建-知识总结 实战教程 【据说还行】
- 💙 超分重建-代码环境搭建-知识总结 解秘如何让白月光更清晰【脱单神器】
- 💛 YOLO专栏,只有实战,不讲道理 图像分类【建议收藏】!
-
🍊 深度学习:环境搭建,一文读懂
-
🍊 深度学习:趣学深度学习
-
🍊 落地部署应用:模型部署之转换-加速-封装
-
🍊 CV 和 语音数据集:数据集整理
-
🍊 点赞 👍 收藏 ⭐留言 📝 都是博主坚持写作、更新高质量博文的最大动力!

GitCode 天启AI是一款由 GitCode 团队打造的智能助手,基于先进的LLM(大语言模型)与多智能体 Agent 技术构建,致力于为用户提供高效、智能、多模态的创作与开发支持。它不仅支持自然语言对话,还具备处理文件、生成 PPT、撰写分析报告、开发 Web 应用等多项能力,真正做到“一句话,让 Al帮你完成复杂任务”。
更多推荐
所有评论(0)