pytorch torch.full_like函数介绍

torch.full_like 是 PyTorch 中用于创建一个具有特定值的新张量,其形状和数据类型与给定张量相同。

函数定义

复制代码
torch.full_like(input, fill_value, *, dtype=None, layout=None, device=None, requires_grad=False, memory_format=torch.preserve_format)

参数说明

  1. input (Tensor):

    • 用来提供形状和其他属性(如设备、数据类型等)的参考张量。
  2. fill_value (float 或 int):

    • 用于填充新张量的值。
  3. dtype (torch.dtype, 可选):

    • 新张量的数据类型。如果未指定,则与 input 的数据类型相同。
  4. layout (torch.layout, 可选):

    • 新张量的内存布局。默认为 input 的布局。
  5. device (torch.device, 可选):

    • 新张量所在的设备。如果未指定,则与 input 的设备相同。
  6. requires_grad (bool, 可选, 默认值:False):

    • 如果为 True,新张量将需要梯度计算。
  7. memory_format (torch.memory_format, 可选):

    • 新张量的内存格式。默认为 torch.preserve_format,即与 input 相同的内存格式。

返回值

  • 返回一个新张量,其形状、设备、数据类型等与 input 相同,但所有元素均为 fill_value

示例

1. 基本用法
复制代码
import torch

# 创建一个参考张量
x = torch.tensor([[1, 2], [3, 4]])

# 创建一个与 x 形状相同的新张量,元素全为 5
result = torch.full_like(x, 5)
print(result)
# tensor([[5, 5],
#         [5, 5]])
2. 指定数据类型
复制代码
result = torch.full_like(x, 5.0, dtype=torch.float32)
print(result)
# tensor([[5.0, 5.0],
#         [5.0, 5.0]])
3. 指定设备
复制代码
result = torch.full_like(x, 3, device='cuda')
print(result)  # 张量在 GPU 上
4. 需要梯度
复制代码
result = torch.full_like(x, 2, requires_grad=True)
print(result.requires_grad)  # True

常见用途

  1. 快速初始化张量:在网络初始化、测试时创建具有固定值的张量。
  2. 占位符:生成形状与参考张量相同的占位张量。
  3. 兼容性计算:确保新张量与给定张量具有相同的数据类型和设备。

注意事项

  • torch.full 的区别torch.full 需要手动指定张量的形状,而 torch.full_like 自动使用参考张量的形状。

  • 支持广播fill_value 可以是标量。

  • 性能优化torch.full_like 会自动优化设备和数据类型,便于高效地创建张量。

相关推荐
橙露5 小时前
数据特征工程:缺失值、异常值、标准化一站式解决方案
人工智能·机器学习
新加坡内哥谈技术5 小时前
OpenAI 的 Codex 团队如何工作并利用 AI
人工智能
星河耀银海5 小时前
人工智能大模型的安全与隐私保护:技术防御与合规实践
人工智能·安全·ai·隐私
love530love5 小时前
Scoop 完整迁移指南:从 C 盘到 D 盘的无缝切换
java·服务器·前端·人工智能·windows·scoop
njsgcs5 小时前
agentscope提取msg+llama_index 查询
人工智能
哈里谢顿5 小时前
Django 应用 OOM(Out of Memory)故障的定位思路和排查方法
python·django
小和尚同志5 小时前
什么?oh-my-opencode 太重了?那试试 oh-my-opencode-slim
人工智能·aigc
甄心爱学习6 小时前
【python】获取所有长度为 k 的二进制字符串
python·算法
一路往蓝-Anbo6 小时前
第 9 章:Linux 设备树 (DTS) ——屏蔽与独占外设
linux·运维·服务器·人工智能·stm32·嵌入式硬件
飞哥数智坊6 小时前
把模型焊死在芯片上,就能跑出 17,000 tokens/秒?这是一条死路,还是一条新路?
人工智能