openvino

算力魔方AIPC19 小时前
人工智能·openvino
如何使用OpenVINO在Intel显卡上部署PaddleOCR-VL模型一、为什么需要智能文档解析?1.1 刚性应用场景剖析在现代数字化转型浪潮中,文档智能解析已成为各行各业的刚性需求。在金融与教育领域,高效准确的文档处理能力直接影响着工作效率和业务质量。
lxmyzzs6 天前
人工智能·yolo·openvino
【端侧AI】基于 openvino + YOLOv11 构建多模态视觉分析终端 | 单目测距 | 单目测速在边缘计算和工业视觉场景中,我们经常需要开发上位机软件来展示 AI 推理结果。不仅需要实时的检测画面,往往还需要集成深度测距、数据统计以及持久化存储功能。
plmm烟酒僧12 天前
前端·人工智能·大模型·intel·openvino·端侧部署·deepseek
使用 OpenVINO 本地部署 DeepSeek-R1 量化大模型(第二章:前端交互与后端服务)基于上一章的环境准备和模型转换,本章专注于后端服务器的部署以及前端页面的启动。使用 OpenVINO 本地部署 DeepSeek-R1 量化大模型(第一章:基础概念与模型转换)-CSDN博客https://blog.csdn.net/plmm__/article/details/156192071?spm=1001.2014.3001.5502
oliveray15 天前
人工智能·目标检测·语义分割·openvino
基于 OpenVINO 优化的 GroundingDINO + EfficientSAM 视频分割追踪本文介绍了一个文本驱动的视频目标分割与追踪系统,通过自然语言描述即可在视频中定位、分割和追踪任意目标。系统结合了 GroundingDINO(开放词汇目标检测)、EfficientSAM(高效分割)和光流追踪技术,并使用 OpenVINO + NNCF 进行推理加速,最终实现了 8.4 倍的性能提升(从 0.34 FPS 提升到 2.84 FPS)
聊天QQ:180809511 个月前
openvino
多智能体协同无人车无人机无人船编队控制路径跟随 基于模型预测控制的无人艇分布式编队协同控制 MPC多智能体协同无人车无人机无人船编队控制路径跟随 基于模型预测控制的无人艇分布式编队协同控制 MPC matlab控制仿真 代码 simulink控制器 路径规划
LCG米1 个月前
人工智能·stable diffusion·openvino
[OpenVINO实战] 在边缘设备上运行Stable Diffusion,实现离线文生图Stable Diffusion是一种基于潜在扩散模型(Latent Diffusion Model)的文本到图像生成技术。与传统的在像素空间直接操作的扩散模型不同,Stable Diffusion在潜在空间中进行扩散过程,大大降低了计算复杂度和内存需求。
plmm烟酒僧1 个月前
图像处理·人工智能·python·yolo·openvino·runtime·推理
OpenVINO 推理 YOLO Demo 分享 (Python)OpenVINO 2025.3;Python:3.11;1、YOLOv5 以后的新模型都可以正常推理,可以通用(只要是模型输出的数据定义不变即可),框架是按YOLOv13写的,模型使用yolov12s.pt;
算力魔方AIPC1 个月前
人工智能·openvino
如何用OpenVINO™部署PP-StructureV3到Intel GPU上RapidDoc是一个轻量级、专注于文档解析的开源框架,支持OCR、版面分析、公式识别、表格识别和阅读顺序恢复等多种功能。框架基于 Mineru 二次开发,移除 VLM,专注于 Pipeline 产线下的高效文档解析,在 CPU 上也能保持不错的解析速度。本文章所使用的核心模型主要来源于 PaddleOCR 的 PP-StructureV3 系列(OCR、版面分析、公式识别、阅读顺序恢复,以及部分表格识别模型),并已全部转换为 ONNX 格式,支持在 CPU/GPU 上高效推理。
Rose sait1 个月前
人工智能·openvino
Visual Studio中配置 ONNX Runtime、OpenCV 和 OpenVINO 项目点击 “C/C++” → “常规” → “附加包含目录” ,添加三个库的 头文件(.h/.hpp)所在目录。
糖炒狗子2 个月前
人工智能·ai·语音合成·openvino
基于 OpenVINO 实现 SpeechT5 语音合成模型本地部署加速在AI语音合成领域,本地部署语音合成模型能有效保障隐私并降低网络以来。本文将详细介绍如何基于OpenVINO工具套件,在intel设备上完成Microsoft Speech T5系列语音合成模型的本地部署,适合有一定Python基础的开发者参考。
椒颜皮皮虾྅3 个月前
人工智能·深度学习·开源·c#·openvino
【DeploySharp 】基于DeploySharp 的深度学习模型部署测试平台:安装和使用流程基于DeploySharp 开发的深度学习模型部署测试平台,提供了YOLO框架的主流系列模型,包括YOLOv5~v13,以及其系列下的Detection、Segmentation、Oriented Bounding Box、Human Pose Estimation等应用场景。模型部署引擎支持OpenVINO™、ONNX runtime,支持CPU、IGPU以及GPU多种设备推理。项目链接为:
椒颜皮皮虾3 个月前
c#·openvino
DeploySharp开源发布:让C#部署深度学习模型更加简单DeploySharp 是一个专为 C# 开发者设计的跨平台模型部署框架,提供从模型加载、配置管理到推理执行的端到端解决方案。其核心架构采用模块化命名空间设计,显著降低了 C# 生态中深度学习模型的集成复杂度,
马里马里奥-6 个月前
人工智能·openvino
OpenVINO initialization error: Failed to find plugins.xml file问题描述 在使用OpenVINO进行模型推理时,可能会遇到初始化错误:“Failed to find plugins.xml file”。该问题通常与OpenVINO环境配置或安装路径有关,导致系统无法定位插件配置文件。
LuvMyLife8 个月前
人工智能·深度学习·计算机视觉·openvino
基于Win在VSCode部署运行OpenVINO模型下载Win平台的Python安装包,添加环境变量,测试:在VSCode里( Ctrl+Shift+P 打开命令面板),指定Python解释器为上面安装路径。写一个python脚本运行测试。
曲幽9 个月前
python·ai·stable diffusion·cpu·openvino·lcm
Python本地部署Stable Diffusion实现在纯CPU环境下的实现最近在研究使用 Stable Diffusion 通过提示词生成图片的实现,因为电脑配置问题,反复尝试不同模型版本,效率上都不理想(主要是电脑太烂,只能纯CPU模式运行,大一点的模型,生成一张图片都要两三分钟,头大),最后找到一个相对满意的大佬基于SD1.5训练的,再被另一大佬导出为OpenVINO格式后,时间可控制在二十多秒生成一图。
椒颜皮皮虾྅10 个月前
人工智能·c#·openvino
【OpenVINO™】在 Intel Ultra AI PC 设备上使用 OpenVINO™ C# API本地部署YOLOv11与YOLOv12OpenVINO™ C# API项目链接:本文使用的项目源码链接为:全新英特尔酷睿Ultra 200V系列处理器对比上代Meteor Lake,升级了模块化结构、封装工艺,采用全新性能核与能效核、英特尔硬件线程调度器、Xe2微架构锐炫GPU、第四代NPU…由此也带来了CPU性能提升18%,GPU性能提升30%,整体功耗降低50%,以及120TOPS平台AI算力。
椒颜皮皮虾10 个月前
openvino
在 Intel Ultra AI PC 设备上使用 OpenVINO™ C# API本地部署YOLOv11与YOLOv12最新的英特尔® 酷睿™ Ultra 处理器(第二代)让我们能够在台式机、移动设备和边缘中实现大多数 AI 体验,将 AI 加速提升到新水平,在 AI 时代为边缘计算提供动力。英特尔® 酷睿™ Ultra 处理器提供了一套全面的专为 AI 定制的集成计算引擎,包括 CPU、GPU 和 NPU,提供高达 99 总平台 TOPS。近期,YOLO系列模型发布了YOLOv12, 对 YOLO 框架进行了全面增强,特别注重集成注意力机制,同时又不牺牲 YOLO 模型所期望的实时处理能力,是 YOLO 系列的一次进化,
OpenVINO 中文社区1 年前
人工智能·openvino
实战精选|如何使用 OpenVINO™ 在 ElectronJS 中创建桌面应用程序点击蓝字关注我们,让开发变得更有趣作者 | Mikołaj Roszczyk 华沙理工大学物联网工程师
牙牙要健康1 年前
c++·深度学习·openvino
【深度学习】【OpenVINO】【C++】模型转化、环境搭建以及模型部署的详细教程提示:博主取舍了很多大佬的博文并亲测有效,分享笔记邀大家共同学习讨论Intel OpenVINO(Open Visual Inference and Neural Network Optimization)是由英特尔推出的一款开源深度学习推理优化库,专门针对英特尔的CPU、GPU、FPGA、ASIC等硬件进行优化。它能够将深度学习模型转换为优化的推理引擎,从而在保持精度的同时提高推理速度和效率。OpenVINO专注于优化和加速机器学习模型的推理阶段,特别是对于大规模部署和实时应用场合。OpenVINO的设
OpenVINO 中文社区1 年前
人工智能·llama·openvino
实战精选 | 如何用 OpenVINO™ 在本地快速部署 Llama 3.2点击蓝字关注我们,让开发变得更有趣作者 | 武卓 英特尔 AI 软件布道师排版 | 吴紫琴OpenVINO™