torch.where()两种用法

参考官方文档

官方文档中只给了第一种用法。根据条件condition,从input,other中选择元素f返回。如果满足条件,则返回input元素。若不满足,返回other元素。

还有一种用法是通过where返回张量中满足条件condition的坐标,以二维张量为例。

代码如下:

python 复制代码
import torch

nums = torch.tensor([
    [1, 2, 3], [4, 5, 6], [7, 8, 9]
])

x_loc, y_loc = torch.where(nums>5)
print('x_loc: ', x_loc)
print('y_loc: ', y_loc)

z = torch.where(nums>5, 10, 1)
print('z: ', z)

输出结果如下:

bash 复制代码
x_loc: tensor([1, 2, 2, 2])
y_loc: tensor([2, 0, 1, 2])
z: tensor([[ 1,  1,  1],
        [ 1,  1, 10],
        [10, 10, 10]])
相关推荐
CM莫问13 小时前
什么是门控循环单元?
人工智能·pytorch·python·rnn·深度学习·算法·gru
饮马长城窟13 小时前
Paddle和pytorch不可以同时引用
人工智能·pytorch·paddle
纠结哥_Shrek14 小时前
pytorch生成对抗网络
人工智能·pytorch·生成对抗网络
纠结哥_Shrek14 小时前
pytorch实现文本摘要
人工智能·pytorch·python
sirius1234512315 小时前
自定义数据集 使用pytorch框架实现逻辑回归并保存模型,然后保存模型后再加载模型进行预测,对预测结果计算精确度和召回率及F1分数
人工智能·pytorch·逻辑回归
kakaZhui16 小时前
【llm对话系统】大模型 Llama 源码分析之 LoRA 微调
pytorch·深度学习·chatgpt·aigc·llama
纠结哥_Shrek1 天前
pytorch基于 Transformer 预训练模型的方法实现词嵌入(tiansz/bert-base-chinese)
pytorch·bert·transformer
纠结哥_Shrek1 天前
pytorch基于GloVe实现的词嵌入
人工智能·pytorch·python
纠结哥_Shrek1 天前
pytorch实现长短期记忆网络 (LSTM)
pytorch·机器学习·lstm
白白糖1 天前
深度学习 Pytorch 神经网络的损失函数
人工智能·pytorch·深度学习·神经网络