N——>BatchSize &&数据维度理解和处理(chun, cat, squeeze, unsqueeze)

数据处理之N------>BatchSize

N------>batch_size

py 复制代码
train_data = TensorDataset(torch.Tensor(x_train).double(), torch.Tensor(y_train).double())
train_loader = DataLoader(train_data, batch_size=args.bs, shuffle=True, drop_last=True)
for batch_idx, (inputs, results) in enumerate(train_data):
	print(inputs.shape, results.shape) 

不过我得说,train_loader局限于第一维,做的事如下代码:

py 复制代码
for i in range(0, num_samples, batch_size):
	batch = data[i:i + batch_size]
	yield batch

维度

  • 分块:iter.chunk(分成几块,dim)
  • 连接:torch.cat( [ tensor1, tensor2 ](放在列表中),dim)
  • 升维1 / 降维1:squeeze(dim), unsqueeze(dim)

64, 32, 1, 541\]维度互换有影响吗?怎么去想这个事 数据本身并没有改变,只是数据在张量中的排列顺序发生了变化,**也就是索引方式变了** 。 例如,如果你将形状为\[5266, 32, 541, 1\]的张量的第3和第4维度交换,你得到的张量仍然包含相同的元素,但它们在张量中的排列方式不同,变成了形状为\[5266, 32, 1, 541\]的张量。**这在某些情况下可能对特定的计算或模型操作更有用。** 既然要求你按照什么样的维度去排列索引,而且你也知道每个数字代表的对应的是什么意思,你就直接按照他说的顺序去改就是了啊! 只要你给的数据的维度能对得上就没有任何问题,最主要的是**首先要搞明白你需要几维的数据** ,**并搞明白每一维的意思** ,要对上,不然就会出现channel对到T上的尴尬问题。 s e q _ l e n seq\\_len seq_len:序列长度 i n p u t _ s i z e input\\_size input_size:序列的个体的维度 举一个例子,你的目的是要跑RNN,用RNNCELL,那么首先外部循环的肯定是seq_len,每次输入 \[ b s , c h a n n e l , i n p u t _ s i z e \] \[bs, channel, input\\_size\] \[bs,channel,input_size\]的数据到model里面。 那么如果如果提供的数据是 \[ 5266 , 32 , 1 , 541 \] , N = 5266 \[5266, 32, 1, 541\],N = 5266 \[5266,32,1,541\],N=5266 s e q _ l e n = 32 , i n p u t _ s i z e = 541 , c h a n n e l = 1 seq\\_len = 32, input\\_size = 541, channel = 1 seq_len=32,input_size=541,channel=1 那么每一批次的维度比如是 \[ 128 , 32 , 1 , 541 \] \[128, 32, 1, 541\] \[128,32,1,541

你的目标也就是得到每次的输入 [ 128 , 1 , 541 ] [128, 1, 541] [128,1,541]

按照第二个维度展开 ,即将第二个维度分成32个块------>pytorch带的chunk函数

用法:iter.chunk(要分的快数量,沿着哪个维度)

py 复制代码
seq.chunk(seq.size(1), dim = 1)#传入的是seq.size(1)即要分成每个为1的

然后得到: [ 128 , 1 , 1 , 541 ] [128, 1, 1, 541] [128,1,1,541]

再使用seq.squeeze(1)

squeeze 函数有一个可选的参数,即 dim,它指定了要挤压的维度。如果指定 dim,则 squeeze

仅删除指定的维度,如果该维度大小为1。如果不指定 dim,则默认情况下会删除所有尺寸为1的维度。

没看懂的深浅拷贝,clone,copy etc.

https://www.jb51.net/article/201724.htm

相关推荐
olivesun8819 分钟前
AI的第一篇编码实践-如何用RAG和LLM
人工智能
龙山云仓24 分钟前
No153:AI中国故事-对话毕昇——活字印刷与AI知识生成:模块化思想与信息革
大数据·人工智能·机器学习
Lightning-py25 分钟前
ASCII,十进制,十六进制,八进制和二进制转换表
python
狒狒热知识32 分钟前
2026年软文营销发稿平台优选指南:聚焦178软文网解锁高效传播新路径
大数据·人工智能
十铭忘41 分钟前
个人思考3——世界动作模型
人工智能·深度学习·计算机视觉
rgb2gray43 分钟前
优多元分层地理探测器模型(OMGD)研究
人工智能·算法·机器学习·回归·gwr
大猫子的技术日记43 分钟前
2025 AI Agent 开发实战指南:从上下文工程到多智能体协作
前端·人工智能·bootstrap
Hoking44 分钟前
milvus向量数据库介绍与部署(docker-compose)
人工智能·milvus·向量数据库
PPIO派欧云1 小时前
PPIO 上线 MiniMax M2.5:体验架构师级编程与高效 Agent 能力
人工智能·ai·大模型