若该文为原创文章,转载请注明原文出处
本文章博客地址:https://hpzwl.blog.csdn.net/article/details/160347173
长沙红胖子Qt(长沙创微智科)博文大全:开发技术集合(包含Qt实用技术、树莓派、三维、OpenCV、OpenGL、ffmpeg、OSG、单片机、软硬结合等等)持续更新中...
深度学习专栏
上一篇:没有了...
下一篇:持续补充中...
前言
为了让一些应用具备部署的应用就具有训练能力,又为了减少其依赖能力,设想事兼具性能和训练,于是开始研究深度学习模型推理方法。
本文旨在寻找一个训练解决方案,其能在 PC、Linux、ARM 板卡(如树莓派、瑞芯微、英伟达 Jetson)上都能直接C++训练、训练+推理一体、跨平台、不依赖 Python、轻量、可移植的深度学习框架。
通过研究,发现LibTorch(PyTroch C++前端)可以满足。
LibTorch(PyTroch C++前端)
简介
在深度学习开发中,Python 凭借简洁的语法成为训练首选,但在工业部署、嵌入式设备、跨平台原生应用场景中,Python环境依赖、性能损耗、兼容性问题成为瓶颈。我们目前需要一套无 Python 依赖、支持多平台、可训练可推理的纯 C++ 解决方案(直接融合到应用中,进入工厂/专家模式可进行训练)。
LibTorch作为 PyTorch 的官方C++前端,完美解决了这一痛点:它继承了 PyTorch的核心能力,支持模型定义、前向传播、反向传播、训练优化、模型保存加载全流程,且原生兼容Windows、Linux、ARM等全平台,真正实现 "一次编码,多端运行"。
本系列将从零开始,带你使用 LibTorch 实现纯 C++ 深度学习模型训练和推理。
核心优势
- 纯 C++ 全栈能力:无需 Python,C++ 完成训练 + 推理,零环境依赖,直接集成到原生项目;
- 跨平台原生支持:完美支持 Windows (x86)、Linux (x86/ARM)、树莓派、Jetson 等硬件;
- 高性能加速:支持 CPU 多核、ARM NEON、CUDA GPU 加速,性能远超手写 C++ 网络;
- PyTorch生态兼容:API 与 Python 版 PyTorch 高度一致,学习成本极低,模型可互通;
- 工业级稳定:广泛用于自动驾驶、物联网、客户端 AI 等生产环境。
下载地址
平台版本:https://pytorch.org/get-started/locally/
Windows:选择 LibTorch (C++/Windows)
Linux x86:选择 LibTorch (C++/Linux)
ARM 平台:可直接编译或下载预编译包
注意(这里是否准确,根据运行结果,不准确了,使用到了vs2017x64了)
这里官方全程没有写其是依赖VS2019/VS2022,只说了用msvc,没有提及msvc的版本,是社区踩坑找到的,我们基于前人的总结如下:
- 2.1+ 最新版:VS2022 MSVC v143 编译(后续看入坑三,这里会有细节需要深究了)
- 2.0 及更早:VS2019 MSVC v142 编译(后续看入坑三,这里会有细节需要深究了)
版本选择
LibTorch1.13.1:其是最后一个VS2019编译的版本,这个有点坑,实际最后可以MSVC2016X64,所以可能是兼容的。
Qt5.12.7:Qt开始支持VS2019编译的版本是Qt5.15开始,这里5.12.7是笔者多次踩坑后最终运行成功的。
安装VS2017的选v141(v142是vs2019的编译器,v143是vs2022的编译)器)。
搭建基础环境
步骤一:下载解压
注意:这是多次踩坑,能运行的版本,其他版本读者自行决定。

步骤二:创建工程模块化

步骤三:引入libTorch库
将库复制过去:

cpp
# 文件夹根路径
LIBTORCH_DIR_PATH = $$PWD/libtorch-win-shared-with-deps-1.13.1+cpu
# 头文件
INCLUDEPATH += $$LIBTORCH_DIR_PATH/libtorch/include
INCLUDEPATH += $$LIBTORCH_DIR_PATH/libtorch/include/torch/csrc/api/include
# 库文件
LIBS += -L$$PWDLIBTORCH_DIR_PATH/libtorch/lib
LIBS += -lXNNPACK
LIBS += -lasmjit
LIBS += -lc10
LIBS += -lclog
LIBS += -lcpuinfo
LIBS += -ldnnl
LIBS += -lfbgemm
LIBS += -lkineto
LIBS += -llibprotobuf
LIBS += -lpthreadpool
LIBS += -ltorch
LIBS += -ltorch_cpu
步骤四:编译出现错误"IValue"(关键点)

添加头文件,解决冲突:

然后直接注释掉下面这3个地方即可:



几十个错误,就都没了。
编译通过:

运行则需要将dll拷贝到shadow运行目录下。
运行结果:

模块化

Demo源码
libTorchManager.pri
cpp
INCLUDEPATH += $$PWD
DEPENDPATH += $$PWD
HEADERS += \
$$PWD/LibTorchManager.h
SOURCES += \
$$PWD/LibTorchManager.cpp
# 添加libtorch库
# 文件夹根路径
LIBTORCH_DIR_PATH = $$PWD/libtorch-win-shared-with-deps-1.13.1+cpu
# 头文件
INCLUDEPATH += $$LIBTORCH_DIR_PATH/libtorch/include
INCLUDEPATH += $$LIBTORCH_DIR_PATH/libtorch/include/torch/csrc/api/include
# 库文件
LIBS += -L$$LIBTORCH_DIR_PATH/libtorch/lib
LIBS += -lasmjit
LIBS += -lc10
LIBS += -lclog
LIBS += -lcpuinfo
LIBS += -lfbgemm
LIBS += -lkineto
LIBS += -llibprotobuf
LIBS += -ltorch
LIBS += -ltorch_cpu
libTorchManager.h
cpp
#ifndef LIBTORCHMANAGER_H
#define LIBTORCHMANAGER_H
#undef slots
#include <torch/torch.h>
#define slots Q_SLOTS
#include <QObject>
class LibTorchManager : public QObject
{
Q_OBJECT
public:
explicit LibTorchManager(QObject *parent = 0);
public:
static QString getVersion();
static void testEvn();
signals:
private:
};
#endif // LIBTORCHMANAGER_H
libTorchManager.cpp
cpp
#include "LibTorchManager.h"
#include <QDebug>
#include <QDateTime>
//#define LOG qDebug()<<__FILE__<<__LINE__
//#define LOG qDebug()<<__FILE__<<__LINE__<<__FUNCTION__
//#define LOG qDebug()<<__FILE__<<__LINE__<<QThread()::currentThread()
//#define LOG qDebug()<<__FILE__<<__LINE__<<QDateTime::currentDateTime().toString("yyyy-MM-dd")
#define LOG qDebug()<<__FILE__<<__LINE__<<QDateTime::currentDateTime().toString("yyyy-MM-dd hh:mm:ss:zzz")
LibTorchManager::LibTorchManager(QObject *parent)
: QObject(parent)
{
}
QString LibTorchManager::getVersion()
{
return QString(TORCH_VERSION);
}
void LibTorchManager::testEvn()
{
LOG;
// 崩溃
// torch::Tensor tensorA = torch::tensor({1.0, 2.0, 3.0f});
torch::Tensor tensorA = torch::tensor({1, 2});
LOG;
torch::Tensor tensorB = torch::tensor({2, 3});
LOG;
#if 0
std::cout << __FILE__ << __LINE__;
// 打印
std::cout << "\nTensro a:\n" << tensorA << std::endl;
std::cout << "\nTensro b:\n" << tensorB << std::endl;
LOG;
// 运算
torch::Tensor tensorC = tensorA + tensorB;
std::cout << "\nTensro c:\n" << tensorC << std::endl;
// 检查cuda
std::cout << "cuda avaliable:" << (torch::cuda::is_available() ? "YES" : "NO") << std::endl;
#endif
}
工程模板v1.0.0

入坑
入坑一:报错"parameter-listxxxx"
问题

尝试1:切换版本
经过研究,网上说是2.0.0是vs2019,实际上2.0.0是vs2022了。
下降版本,最后一个vs2019版本是libtorch1.13.0。
QObject::slots() 这个成员函数,确实是 Qt 6 新增的 API,Qt5 完全没有!
尝试2:只能细看
发现是代码就没这个函数:

进一步挖掘,感觉是污染版本了,libtorch使用slots()与qt认为是自己的SLOT()宏冲突。
解决
使用下面的代码解决:
cpp
// 固定模板,顺序绝对不能改
#undef slots // 先干掉Qt全局slots宏污染
#include <torch/torch.h>
#define slots Q_SLOTS // 恢复Qt原本的slots槽宏
入坑二:报错无法打开输入protobuf
问题

原因
正常来说LIBS += -l,就不用带库前三位是lib的了:

这里这次要带??根据提示报错,其是打不开protobuf,不是libprotobuf。
解决
cpp
LIBS += -llibprotobuf
惯性思维有点坑。
入坑三:运行就"Process creashed"
问题


尝试1:定位具体代码

考虑是否msvc的版本于是更换1.13,2.0.0,2.11.1,未发现问题。
(后续补充:是参数1.0,2.0和3.0f的问题,导致混合了,但是工程没保存,这里以后再说了)

尝试2:从exe运行下手
思路跑exe,如果加载错误就会报错,逐一添加:

依提示添加库,一是证明了添加成功了,二是证明了跑不起与库版本无关。

至此而过,确认不是依赖库问题。

把重点放到代码调用上:

查询CPU是否支持AVX,AVX2也可能崩溃出现这个问题,如下:

不是问题。
尝试3:版本混战
Qt5.12,5.14,5.15各自遍历搭配libtorch1.13.1,2.0.0,2.11.0,发现仍然如此。
尝试4:无意发现2个参数的不报错
经过进一步论证,发现Qt5.12.x+msvc2017x64+libtorch-1.13.1可以。
同样部署到Qt5.15.2+msvc2019x64+libtorch几个版本还是不行。
解决
最终定了Qt5.12.2+msvc2017x64+libtorch1.13.1是可以的。

思考1
默认就是msvc的版本不兼容,说只支持msvc2019x64/msvc2022x64,现在1.13.1可以msvc2017x64,这里不深究了(有兴趣,读者可继续)。
上一篇:没有了...
下一篇:持续补充中...
本文章博客地址:https://hpzwl.blog.csdn.net/article/details/160347173