LibTorch张量基础

一、代码中的张量类型

张量类型 代码定义逻辑 维度本质(直观理解) 实际应用场景举例
1D int 张量 torch::tensor({1,2,...10}, torch::kInt32) 一维向量(长度 10) 标签数组、单维度特征
2D float 张量 torch::randn({4,512}, torch::kFloat32) 二维矩阵(4 行 512 列) 4 个样本,每个样本 512 维特征
3D float 张量 torch::randn({8,4,64}, torch::kFloat32) 三维张量(8 个 4×64 的矩阵) 8 个批次,每个批次 4×64 的特征图

1D的张量 步长也是stride={1}

2D张量 步长为{列数,1}

3D张量 步长为{行×列,列,1}

二、函数签名

复制代码
torch::Tensor torch::tensor(
    const c10::ArrayRef<T>& data,//数据源
    const torch::TensorOptions& options = {}//张量配置
);

使用的场景如下:

复制代码
//1D
auto tensor_1d = torch::tensor({1,2,3}, torch::dtype(torch::kInt32));

//从数组创建
int arr[] = {4,5,6};
auto tensor_from_arr = torch::tensor(arr, torch::dtype(torch::kInt32));

//std::vector创建,适合动态数据
std::vector<float> vec = {1.1f, 2.2f, 3.3f};
auto tensor_from_vec = torch::tensor(vec, torch::dtype(torch::kFloat32));

//指定设备(GPU,需GPU版LibTorch)
auto tensor_gpu = torch::tensor({1,2,3}, 
    torch::dtype(torch::kInt32).device(torch::kCUDA)
);

当然,如果不指定dtype,LibTorch 会自动推断:int 列表→kInt64,float 列表→kFloat32

如果数据量极大(如 100 万元素),torch::tensor的拷贝会非常耗时,此时用torch::from_blob也就是浅拷贝(共享内存),但需注意原数据的生命周期否则原数据释放,会导致张量野指针。

三、常用接口

接口 适用场景 数据来源
torch::tensor 从已有 C++ 数据创建张量 原生数据(拷贝)
torch::randn 初始化权重(正态分布) 无(生成随机数)
torch::zeros 初始化偏置、全零矩阵 无(生成 0)
torch::ones 生成全 1 张量 无(生成 1)

补充:

张量的内存布局

连续张量的步长满足stride[i] = stride[i+1] * size[i+1],可通过is_contiguous()判断;张量转置后会变成非连续张量,而view操作要求张量内存连续,因此转置后用view会报错,需先调用contiguous()(触发数据拷贝)转为连续张量。

张量的设备迁移

LibTorch 张量默认在 CPU,迁移到 GPU 用tensor.to(torch::kCUDA),转回 CPU 用tensor.to(torch::kCPU);核心考点是不同设备的张量无法直接运算,必须先统一设备,否则会报错。

张量的数据类型转换

不同数据类型(如 int、float)的张量无法直接运算,会触发类型错误;转换可使用通用方法tensor.to(torch::kFloat32),或快捷方法tensor.float()/tensor.int(),运算前需先统一类型。

张量的形状操作

view仅支持连续张量,仅修改维度描述无数据拷贝;reshape更灵活,非连续时会自动转连续再改形状(可能拷贝)。squeeze压缩尺寸为 1 的维度,unsqueeze扩展维度(如 1D 张量转 2D 可用unsqueeze(0))。

相关推荐
生信碱移7 小时前
PACells:这个方法可以鉴定疾病/预后相关的重要细胞亚群,作者提供的代码流程可以学习起来了,甚至兼容转录组与 ATAC 两种数据类型!
人工智能·学习·算法·机器学习·数据挖掘·数据分析·r语言
jay神7 小时前
VisDrone2019-DET 无人机小目标检测数据集
人工智能·深度学习·yolo·目标检测·计算机视觉·毕业设计·无人机
乔江seven7 小时前
【李沐 | 动手学深度学习】17 深度学习硬件:CPU 和 GPU
人工智能·深度学习·深度学习硬件·cpu和gpu
哥布林学者8 小时前
深度学习进阶(十三)可变形卷积 DCN
机器学习·ai
这张生成的图像能检测吗8 小时前
(论文速读)IMSE-IGA-CNN-Transformer
人工智能·深度学习·cnn·transformer·故障诊断·预测模型·时序模型
AI自动化工坊10 小时前
Hugging Face ml-intern技术深度解析:AI机器学习工程师的工程实践
人工智能·机器学习·huggingface·ml-intern·ai机器学习
ydmy10 小时前
注意力机制(个人理解)
pytorch·python·深度学习
Flying pigs~~10 小时前
LoRA 面试完全指南:低秩分解原理 + Transformer 应用
人工智能·深度学习·lora·大模型·微调·transformer
AI手记叨叨11 小时前
机器学习可解释性工具SHAP
机器学习·shap
高洁0111 小时前
大模型部署资源不足?轻量化部署解决方案
python·深度学习·机器学习·数据挖掘·transformer