numpy的repeat和pytorch的repeat区别

在项目中发现这两个同名的函数的效果不一样,下面简单介绍:

numpy的repeat

cpp 复制代码
a = np.array([1,2,3])  
print('a', a)  ## 结果为123
b = a.repeat(3)
print('b')  ## 结果为111222333

pytorch的repeat和repeat_interleave

cpp 复制代码
labels = np.array([1,2,3])
labels = torch.tensor(labels, dtype=torch.float32)
labels1 = labels.repeat(3)  
print(labels1)  ##结果为123123123
labels2 = labels.repeat_interleave(3, dim=0)
print(labels2 )  ##结果为111222333

numpy没有repeat_interleave函数。

相关推荐
前进的李工2 分钟前
零知识证明:不泄露秘密也能自证
人工智能·web安全·区块链·零知识证明
Tony Bai3 分钟前
Cloudflare 2025 年度报告发布——Go 语言再次“屠榜”API 领域,AI 流量激增!
开发语言·人工智能·后端·golang
寰宇视讯3 分钟前
IDC:奥哲,2025H1蝉联第一!
人工智能
沛沛老爹13 分钟前
Web开发者快速上手AI Agent:基于LangChain的提示词应用优化实战
人工智能·python·langchain·提示词·rag·web转型
FONE_Platform14 分钟前
FONE食品饮料行业全面预算解决方案:构建韧性增长
人工智能·算法·全面预算·全面预算管理系统·企业全面预算
2501_9307992417 分钟前
数据安全新选择:访答本地知识库的隐私守护之道
人工智能·aigc·ocr
GAOJ_K19 分钟前
滚柱导轨中的密封件如何判断是否需更换?
运维·人工智能·科技·自动化·制造
XiaoMu_00124 分钟前
基于深度学习的穿戴识别系统设计与实现
人工智能·深度学习
斯文by累30 分钟前
鸿蒙2025:领航者的技术突围战
人工智能
HyperAI超神经31 分钟前
【vLLM 学习】Prefix Caching
人工智能·深度学习·学习·大语言模型·cpu·gpu·vllm