jetson thor上的显存

目录

NVIDIA Jetson Thor 上,显存的概念和普通 GPU(比如 RTX4090)不完全一样,需要注意两个关键点。


一、Jetson Thor 的"显存"是多少?

Jetson Thor 使用 统一内存(Unified Memory) ,CPU 和 GPU 共享同一块内存

最大配置:

也就是说:

复制代码
CPU RAM + GPU VRAM = 同一块128GB内存

所以理论上:

GPU最多可以使用接近 128GB 的显存。


二、实际可用显存

实际开发中:

系统 + CUDA + 程序也会占用内存。

通常可用大约:

总内存 实际AI可用
128GB 100--120GB
64GB版本 50--60GB

例如 NVIDIA 官方 CUDA 查询示例显示:

复制代码
Total amount of global memory: 125772 MB

大约 123GB GPU可用内存 。 (NVIDIA Docs)


三、与普通GPU显存区别(非常重要)

设备 显存类型 显存
RTX4090 GDDR6X 24GB
A100 HBM 80GB
Jetson Thor LPDDR5X(共享) 128GB

关键区别:

1 统一内存

Jetson:

复制代码
CPU和GPU共享

普通GPU:

复制代码
CPU RAM ≠ GPU VRAM

2 带宽差异

GPU 带宽
RTX4090 ~1000 GB/s
A100 ~2000 GB/s
Jetson Thor ~273 GB/s

所以:

容量大,但带宽较低。

这也是 Jetson 适合推理,不适合训练的原因。


四、Jetson Thor 能跑多大的模型?

大致参考:

模型 能否运行
7B LLM 轻松
13B 没问题
34B 可以
70B 量化后可以

很多人用 Thor 运行:

  • VLM
  • VLA
  • diffusion
  • 机器人模型

因为 128GB 内存非常大


五、真实开发中显存分配

例如运行:

复制代码
YOLO + SLAM + ROS2

典型占用:

模块 显存
YOLO 2--6GB
SLAM 4--10GB
ROS 1GB
系统 5GB

总计:

复制代码
≈ 20GB

对于 128GB 来说非常充裕。


六、Jetson Thor 的核心优势

相比上一代 NVIDIA Jetson AGX Orin

设备 内存
Orin 64GB
Thor 128GB

Thor 的目标:

复制代码
机器人 + 多模态AI

例如:

  • 多相机
  • 视觉语言模型
  • SLAM
  • 控制模型

同时运行。


💡 总结

Jetson Thor 可运行显存:

复制代码
理论最大:128GB
实际AI可用:约100--120GB

但注意:

复制代码
带宽远低于数据中心GPU

所以:

  • 推理 👍
  • 机器人 👍
  • 多模型 👍
  • 大规模训练 ❌
相关推荐
@小匠1 天前
Read Frog:一款开源的 AI 驱动浏览器语言学习扩展
人工智能·学习
网教盟人才服务平台1 天前
“方班预备班盾立方人才培养计划”正式启动!
大数据·人工智能
芯智工坊1 天前
第15章 Mosquitto生产环境部署实践
人工智能·mqtt·开源
菜菜艾1 天前
基于llama.cpp部署私有大模型
linux·运维·服务器·人工智能·ai·云计算·ai编程
TDengine (老段)1 天前
TDengine IDMP 可视化 —— 分享
大数据·数据库·人工智能·时序数据库·tdengine·涛思数据·时序数据
小真zzz1 天前
搜极星:第三方多平台中立GEO洞察专家全面解析
人工智能·搜索引擎·seo·geo·中立·第三方平台
GreenTea1 天前
从 Claw-Code 看 AI 驱动的大型项目开发:2 人 + 10 个自治 Agent 如何产出 48K 行 Rust 代码
前端·人工智能·后端
火山引擎开发者社区1 天前
秒级创建实例,火山引擎 Milvus Serverless 让 AI Agent 开发更快更省
人工智能
冬奇Lab1 天前
一天一个开源项目(第72篇):everything-claude-code - 最系统化的 Claude Code 增强框架
人工智能·开源·资讯