pytorch运行报错:CUDA out of memory

pytorch运行报错:CUDA out of memory

今天遇到问题 我的代码运行报这个错误:
RuntimeError: CUDA out of memory. Tried to allocate 594.00 MiB (GPU 0; 8.00 GiB total capacity; 6.84 GiB already allocated; 0 bytes free; 6.86 GiB reserved in total by PyTorch)

问题原因

CUDA out of memory,是计算过程中设置的内存超过了限制。

你的单次计算数据量太大了,改一改bach_size

修改

减小到原本数据量的一半。(2、4、8啥的都行)

运行

再次运行,发现还是报错,那就继续讲将你的BACH_SIZE除以2,重新训练

问题解决。

最近好忙,好久没有写修改问题的过程了。

如有帮助 点赞 收藏 关注!

相关推荐
JVM跑得快17 分钟前
Python 基础语法 × Java 对比
人工智能
AI攻城狮23 分钟前
Kimi Bot + OpenClaw 完整配置指南:5 步实现本地 AI Agent 集成
人工智能·云原生·aigc
货拉拉技术1 小时前
货拉拉海豚平台-大模型推理加速工程化实践
人工智能·后端·架构
掘金安东尼1 小时前
国内大模型真实格局:用户规模 vs API调用量(v2026.3.6)
人工智能
前端一课2 小时前
OpenClaw 项目全面架构分析报告
前端·人工智能
小姐姐味道2 小时前
1万美金的账单,烧麻了!bull这个skills让数据推理质量更好,更省!
人工智能
苍何2 小时前
再见 Openclaw,桌面端 Agent 起飞了!
人工智能
雮尘2 小时前
让 AI Agent 高效并行开发的命令-git worktree
人工智能·git·agent
Ray Liang3 小时前
AI基于Spec开发是巨坑?
人工智能·架构设计·mindx
哔哩哔哩技术3 小时前
游戏数据分析Agent的全栈架构演进
人工智能·agent