Expected all tensors to be on the same device, but found at least two devices

Expected all tensors to be on the same device, but found at least two devices,

原因是计算的过程中,两个不同类型的变量在一起进行运算,即一个变量存储在gpu中,一个变量存储在cpu中,两个变量的存储位置冲突,导致无法计算,把变量统一下就行

python 复制代码
    x = x + kp_x_ofst
    y = y + kp_y_ofst
    x = torch.reshape(x, [-1])  
    y = torch.reshape(y, [-1])
    
    x = x.to('cpu')
    y = y.to('cpu')
 
    x0 = torch.floor(x).to(torch.int32)
    x1 = x0 + 1
    y0 = torch.floor(y).to(torch.int32)
    y1 = y0 + 1
    # device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
    x0 = torch.clamp(x0, zero, max_x)
    x1 = torch.clamp(x1, zero, max_x)
    y0 = torch.clamp(y0, zero, max_y)
    y1 = torch.clamp(y1, zero, max_y)
相关推荐
高洁011 分钟前
工程科研中的AI应用:结构力学分析技巧
python·深度学习·机器学习·数据挖掘·知识图谱
anew___10 分钟前
【深度学习数学基础】从线性代数到信息论:核心概念一文速通
人工智能·深度学习·线性代数
艾派森23 分钟前
深度学习实战-基于EfficientNetB5的家禽鸡病图像分类识别模型
人工智能·python·深度学习·神经网络·分类
码农的神经元1 小时前
从论文复现到模型升级:Transformer-Attention-WOA-XGBoost 在含新能源配电网故障诊断中的实现
人工智能·深度学习·transformer
EnCi Zheng1 小时前
04-缩放点积注意力代码实现 [特殊字符]
人工智能·pytorch·python
郝学胜-神的一滴1 小时前
深入理解回归损失函数:MSE、L1 与 Smooth L1 的设计哲学
人工智能·python·程序人生·算法·机器学习·数据挖掘·回归
Godspeed Zhao1 小时前
具身智能中的传感器技术40.2——事件相机0.2
人工智能·科技·数码相机·机器学习·事件相机
2zcode2 小时前
基于注意力机制LSTM的温度预测系统设计与实现
人工智能·深度学习·lstm
庞轩px2 小时前
Transformer的核心思想——Attention机制直观理解
人工智能·rnn·深度学习·transformer·attention·q-k-v
网络工程小王2 小时前
[RAG 与文本向量化详解]RAG篇
数据库·人工智能·redis·机器学习