Expected all tensors to be on the same device, but found at least two devices

Expected all tensors to be on the same device, but found at least two devices,

原因是计算的过程中,两个不同类型的变量在一起进行运算,即一个变量存储在gpu中,一个变量存储在cpu中,两个变量的存储位置冲突,导致无法计算,把变量统一下就行

python 复制代码
    x = x + kp_x_ofst
    y = y + kp_y_ofst
    x = torch.reshape(x, [-1])  
    y = torch.reshape(y, [-1])
    
    x = x.to('cpu')
    y = y.to('cpu')
 
    x0 = torch.floor(x).to(torch.int32)
    x1 = x0 + 1
    y0 = torch.floor(y).to(torch.int32)
    y1 = y0 + 1
    # device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
    x0 = torch.clamp(x0, zero, max_x)
    x1 = torch.clamp(x1, zero, max_x)
    y0 = torch.clamp(y0, zero, max_y)
    y1 = torch.clamp(y1, zero, max_y)
相关推荐
DN202025 分钟前
AI销售机器人:节日祝福转化率提升30倍
人工智能·python·深度学习·机器学习·机器人·节日
香芋Yu30 分钟前
【大模型教程——第二部分:Transformer架构揭秘】第2章:模型家族谱系:从编码器到解码器 (Model Architectures)
深度学习·架构·transformer
香芋Yu33 分钟前
【机器学习教程】第02章:线性代数基础【下】
学习·机器学习
爱喝可乐的老王43 分钟前
PyTorch简介与安装
人工智能·pytorch·python
deephub1 小时前
用 PyTorch 实现 LLM-JEPA:不预测 token,预测嵌入
人工智能·pytorch·python·深度学习·大语言模型
飞鹰511 小时前
深度学习算子CUDA优化实战:从GEMM到Transformer—Week4学习总结
c++·人工智能·深度学习·学习·transformer
工程师老罗1 小时前
Pytorch如何验证模型?
人工智能·pytorch·深度学习
zhangfeng11331 小时前
Ollama 支持模型微调但是不支持词库,支持RAG,go语言开发的大模型的推理应用,
人工智能·深度学习·golang
困死了11111 小时前
KAG: Boosting LLMs in Professional Domains viaKnowledge Augmented Generation
机器学习
m0_603888712 小时前
FineInstructions Scaling Synthetic Instructions to Pre-Training Scale
人工智能·深度学习·机器学习·ai·论文速览