pytorch运行报错:CUDA out of memory

pytorch运行报错:CUDA out of memory

今天遇到问题 我的代码运行报这个错误:
RuntimeError: CUDA out of memory. Tried to allocate 594.00 MiB (GPU 0; 8.00 GiB total capacity; 6.84 GiB already allocated; 0 bytes free; 6.86 GiB reserved in total by PyTorch)

问题原因

CUDA out of memory,是计算过程中设置的内存超过了限制。

你的单次计算数据量太大了,改一改bach_size

修改

减小到原本数据量的一半。(2、4、8啥的都行)

运行

再次运行,发现还是报错,那就继续讲将你的BACH_SIZE除以2,重新训练

问题解决。

最近好忙,好久没有写修改问题的过程了。

如有帮助 点赞 收藏 关注!

相关推荐
重启的码农1 分钟前
llama.cpp 分布式推理介绍(5) RPC 通信协议
c++·人工智能·神经网络
Gloria_niki4 分钟前
机器学习之数据预处理学习总结
人工智能·学习·机器学习·数据分析
听风.8254 分钟前
机器学习2
人工智能·机器学习
重启的码农4 分钟前
llama.cpp 分布式推理介绍(6) 张量序列化 (rpc_tensor)
c++·人工智能·神经网络
Baihai_IDP23 分钟前
RAG 文档解析工具选型指南
人工智能·llm
嘟嘟喂嘟嘟吖36 分钟前
AI对口型唱演:科技赋能,开启虚拟歌者新篇章
人工智能·科技
十二测试录40 分钟前
AI 驱动研发变革:技术突破与行业落地实践全景
人工智能·ai·aigc
张较瘦_1 小时前
[论文阅读] 人工智能 + 软件工程 | 当AI成为文学研究员:Agentic DraCor如何用MCP解锁戏剧数据分析
论文阅读·人工智能·软件工程
Melody20501 小时前
diffusion model(1.4) 相关论文阅读清单
人工智能
平行绳1 小时前
啊?我的 Coze 触发器怎么没生效?答案在这里
人工智能·coze