jetson thor上的显存

目录

NVIDIA Jetson Thor 上,显存的概念和普通 GPU(比如 RTX4090)不完全一样,需要注意两个关键点。


一、Jetson Thor 的"显存"是多少?

Jetson Thor 使用 统一内存(Unified Memory) ,CPU 和 GPU 共享同一块内存

最大配置:

也就是说:

复制代码
CPU RAM + GPU VRAM = 同一块128GB内存

所以理论上:

GPU最多可以使用接近 128GB 的显存。


二、实际可用显存

实际开发中:

系统 + CUDA + 程序也会占用内存。

通常可用大约:

总内存 实际AI可用
128GB 100--120GB
64GB版本 50--60GB

例如 NVIDIA 官方 CUDA 查询示例显示:

复制代码
Total amount of global memory: 125772 MB

大约 123GB GPU可用内存 。 (NVIDIA Docs)


三、与普通GPU显存区别(非常重要)

设备 显存类型 显存
RTX4090 GDDR6X 24GB
A100 HBM 80GB
Jetson Thor LPDDR5X(共享) 128GB

关键区别:

1 统一内存

Jetson:

复制代码
CPU和GPU共享

普通GPU:

复制代码
CPU RAM ≠ GPU VRAM

2 带宽差异

GPU 带宽
RTX4090 ~1000 GB/s
A100 ~2000 GB/s
Jetson Thor ~273 GB/s

所以:

容量大,但带宽较低。

这也是 Jetson 适合推理,不适合训练的原因。


四、Jetson Thor 能跑多大的模型?

大致参考:

模型 能否运行
7B LLM 轻松
13B 没问题
34B 可以
70B 量化后可以

很多人用 Thor 运行:

  • VLM
  • VLA
  • diffusion
  • 机器人模型

因为 128GB 内存非常大


五、真实开发中显存分配

例如运行:

复制代码
YOLO + SLAM + ROS2

典型占用:

模块 显存
YOLO 2--6GB
SLAM 4--10GB
ROS 1GB
系统 5GB

总计:

复制代码
≈ 20GB

对于 128GB 来说非常充裕。


六、Jetson Thor 的核心优势

相比上一代 NVIDIA Jetson AGX Orin

设备 内存
Orin 64GB
Thor 128GB

Thor 的目标:

复制代码
机器人 + 多模态AI

例如:

  • 多相机
  • 视觉语言模型
  • SLAM
  • 控制模型

同时运行。


💡 总结

Jetson Thor 可运行显存:

复制代码
理论最大:128GB
实际AI可用:约100--120GB

但注意:

复制代码
带宽远低于数据中心GPU

所以:

  • 推理 👍
  • 机器人 👍
  • 多模型 👍
  • 大规模训练 ❌
相关推荐
wzl202612132 小时前
基于企微API与数据中台,构建用户分层与沉默用户召回体系
大数据·人工智能·企业微信
LY智网强哥2 小时前
GEO和SEO有什么区别?先做谁、怎么配合、各看什么指标
人工智能·产品运营
咚咚王者2 小时前
人工智能之语言领域 自然语言处理 第二十一章 综合实战项目
人工智能·自然语言处理
张张123y2 小时前
AI大模型应用面试:深度学习知识点汇总与面试指导
人工智能·深度学习·面试
rosmis2 小时前
复杂工程拆解:自顶向下设计,自底向上实现
人工智能·python·机器人·自动化·自动驾驶·硬件工程·制造
hughnz2 小时前
斯伦贝谢成功的创新策略
人工智能·能源·钻井
m0_612591972 小时前
尚航科技 IDC 服务综合实力对比分析
人工智能·科技
柯儿的天空2 小时前
2026年AI技术突破与产业落地全景:从GPT-5到多模态智能体的新纪元
人工智能·gpt·microsoft·开源·aigc·ai编程·ai写作
人工智能AI技术2 小时前
GitHub Trending榜首:Python Agentic RAG企业级落地指南
人工智能·python