pytorch中数据和模型都要部署在cuda上面

注意一定要两个都部署在模型训练之前,缺少一个都会报错在两个设备上训练,一个在cpu,一个在cuda

部署数据到cuda上

复制代码
point_features = torch.tensor(point_features, dtype=torch.float32).to('cuda')  # 如果你有支持的 GPU,shape = (499,3159,3)
coord_time = torch.tensor(coord_time, dtype=torch.float32).to('cuda')  # 如果你有支持的 GPU  shape = (3159,3)
target = torch.tensor(target, dtype=torch.float32).to('cuda')  # 如果你有支持的 GPU  shape = (499,3159,3)

部署模型到cuda上

model = model.to('cuda')

相关推荐
Wnq100724 小时前
世界模型 AI:认知跃迁的可行性与本质性挑战
人工智能
穷人小水滴4 小时前
科幻 「备用肉身虫」 系列设定集 (AI 摘要)
人工智能·aigc·科幻·未来·小说·设定
老赵聊算法、大模型备案4 小时前
北京市生成式人工智能服务已备案信息公告(2025年12月11日)
人工智能·算法·安全·aigc
咬人喵喵4 小时前
上下文窗口:AI 的“大脑容量”
人工智能
workflower4 小时前
时序数据获取事件
开发语言·人工智能·python·深度学习·机器学习·结对编程
weixin_446122464 小时前
一个案例验证 LLM大模型编码能力哪家强
人工智能
老蒋新思维5 小时前
创客匠人峰会深度解析:知识变现的 “信任 - 效率” 双闭环 —— 从 “单次交易” 到 “终身复购” 的增长密码
大数据·网络·人工智能·tcp/ip·重构·数据挖掘·创客匠人
java1234_小锋6 小时前
Transformer 大语言模型(LLM)基石 - Transformer架构详解 - 编码器(Encoder)详解以及算法实现
深度学习·语言模型·transformer
大刘讲IT6 小时前
面向中小企业的企业AI Agent未来3年构建蓝图规划
人工智能·经验分享·ai·开源·制造
yzx9910136 小时前
深度学习的进化之路:从感知机到通用智能的曙光
人工智能·深度学习