Pytorch实用教程:torch.from_numpy(X_train)和torch.from_numpy(X_train).float()的区别

在PyTorch中,torch.from_numpy()函数和.float()方法被用来从NumPy数组创建张量,并可能改变张量的数据类型。两者之间的区别主要体现在数据类型的转换上:

  1. torch.from_numpy(X_train) :这行代码将NumPy数组X_train转换为一个PyTorch张量,保留了原始NumPy数组的数据类型。

    如果X_train是一个64位浮点数组(即dtype=np.float64),则转换后的PyTorch张量也将具有相同的数据类型torch.float64

    同样,如果原始NumPy数组是整数类型(比如np.int32),转换后的张量也会保持这个数据类型(比如torch.int32)。

  2. torch.from_numpy(X_train).float() :这行代码首先将NumPy数组X_train转换为一个PyTorch张量,然后通过.float()方法将张量的数据类型转换为torch.float32

    不管原始NumPy数组的数据类型是什么,应用.float()之后,得到的PyTorch张量都将是单精度浮点数类型。

简单来说,不加.float()的版本保留了NumPy数组的原始数据类型,而加上.float()的版本将数据类型统一转换为了torch.float32

这个转换在深度学习中很常见,因为大多数神经网络操作都使用单精度浮点数进行计算,这样既可以节省内存空间,也可以加快计算速度,尤其是在GPU上执行时。

相关推荐
仙人掌_lz21 分钟前
如何打造一款金融推理工具Financial Reasoning Workflow:WebUI+Ollama+Fin-R1+MCP/RAG
人工智能·搜索引擎·ai·金融·llm·rag·mcp
MILI元宇宙23 分钟前
纳米AI搜索与百度AI搜、豆包的核心差异解析
人工智能·百度
SpikeKing33 分钟前
LLM - LlamaFactory 的大模型推理 踩坑记录
人工智能·llm·llamafactory
marteker39 分钟前
年度峰会上,抖音依靠人工智能和搜索功能吸引广告主
人工智能·搜索引擎
飞哥数智坊43 分钟前
AI编程实战:生成结果不合心意,1个简单思路帮你破解
人工智能·cursor
Takina~1 小时前
python打卡day48
pytorch·python·深度学习
华清远见成都中心1 小时前
大语言模型(LLM)中的KV缓存压缩与动态稀疏注意力机制设计
人工智能·缓存·语言模型
hao_wujing1 小时前
基于梯度的中毒攻击
大数据·人工智能
Lethehong2 小时前
Gemini 2.5 Pro (0605版本) 深度测评与体验指南
人工智能·chatgpt·googlecloud
全栈小52 小时前
【AI】从0开始玩转混元3D⼤模型,如何让一张静态实物图片一键转为3D实物图,大模型都表示服了,超级简单易上手,快来试试!
人工智能·3d·腾讯·混元达3d大模型·腾讯混元3d大模型