Pytorch实用教程:torch.from_numpy(X_train)和torch.from_numpy(X_train).float()的区别

在PyTorch中,torch.from_numpy()函数和.float()方法被用来从NumPy数组创建张量,并可能改变张量的数据类型。两者之间的区别主要体现在数据类型的转换上:

  1. torch.from_numpy(X_train) :这行代码将NumPy数组X_train转换为一个PyTorch张量,保留了原始NumPy数组的数据类型。

    如果X_train是一个64位浮点数组(即dtype=np.float64),则转换后的PyTorch张量也将具有相同的数据类型torch.float64

    同样,如果原始NumPy数组是整数类型(比如np.int32),转换后的张量也会保持这个数据类型(比如torch.int32)。

  2. torch.from_numpy(X_train).float() :这行代码首先将NumPy数组X_train转换为一个PyTorch张量,然后通过.float()方法将张量的数据类型转换为torch.float32

    不管原始NumPy数组的数据类型是什么,应用.float()之后,得到的PyTorch张量都将是单精度浮点数类型。

简单来说,不加.float()的版本保留了NumPy数组的原始数据类型,而加上.float()的版本将数据类型统一转换为了torch.float32

这个转换在深度学习中很常见,因为大多数神经网络操作都使用单精度浮点数进行计算,这样既可以节省内存空间,也可以加快计算速度,尤其是在GPU上执行时。

相关推荐
weisian1511 小时前
进阶篇-8-数学篇-7--特征值与特征向量:AI特征提取的核心逻辑
人工智能·pca·特征值·特征向量·降维
Java程序员 拥抱ai1 小时前
撰写「从0到1构建下一代游戏AI客服」系列技术博客的初衷
人工智能
186******205311 小时前
AI重构项目开发全流程:效率革命与实践指南
人工智能·重构
森之鸟1 小时前
多智能体系统开发入门:用鸿蒙实现设备间的AI协同决策
人工智能·harmonyos·m
铁蛋AI编程实战1 小时前
大模型本地轻量化微调+端侧部署实战(免高端GPU/16G PC可运行)
人工智能·架构·开源
铁蛋AI编程实战1 小时前
最新版 Kimi K2.5 完整使用教程:从入门到实战(开源部署+API接入+多模态核心功能)
人工智能·开源
我有医保我先冲1 小时前
AI 时代 “任务完成“ 与 “专业能力“ 的区分:理论基础、行业影响与个人发展策略
人工智能·python·机器学习
林深现海1 小时前
【刘二大人】PyTorch深度学习实践笔记 —— 第一集:深度学习全景概述(超详细版)
pytorch·笔记·深度学习
Bamtone20251 小时前
PCB切片分析新方案:Bamtone MS90集成AI的智能测量解决方案
人工智能
Warren2Lynch1 小时前
2026年专业软件工程与企业架构的智能化演进
人工智能·架构·软件工程